Grid computing: aktywacja

Zbyt nowe, aby budzić zaufanie

Właśnie te dwa czynniki są najczęstszą przyczyną nieufności względem nowej technologii. Grid computing dopiero niedawno doczekał się ustabilizowanych standardów: OGSA (Open Grid System Architecture), OGSI (Open Grid System Infrastructure) i WS-RF (WebServices Resources Framework), a inicjatywy związane z ujednoliceniem architektury grid computing są cały czas polem gry wpływów różnych dostawców.

Dotyczy to potencjalnych użytkowników na całym świecie. "Specjaliści ds. technologii są zagubieni, ponieważ wszyscy dostawcy używają różnych terminów grid computing, całkowicie ignorując fakt, że mówią o tej samej koncepcji - nowej fali rozproszonego przetwarzania" - mówi Dan Kusnetzky, wiceprezes ds. systemów w International Data Corp.

Mimo potencjalnych korzyści związanych z oszczędnościami na inwestycjach w sprzęt komputerowy, wdrożenie mechanizmów grid computing wiąże się dziś z dużymi kosztami. Są one związane z przepisaniem lub wręcz tworzeniem zupełnie nowych aplikacji dostosowanych do warunków przetwarzania siatkowego. Dostępne w tej chwili pakiety narzędzi programistycznych nie zapewniają stworzenia w pełni bezpiecznego i stabilnego oprogramowania na platformę grid computing. Brakuje stabilnych narzędzi umożliwiających monitorowanie pracy i zarządzanie taką instalacją. W przypadku wielu polskich firm wdrożenie technologii grid computing wymagałoby również poniesienia dodatkowych nakładów na modernizację infrastruktury sieciowej i usprawnienie mechanizmów monitorujących.

Przynajmniej część tych przeszkód może zostać zniwelowana wraz z pojawieniem się kolejnych produktów dostosowanych do pracy w siatkach obliczeniowych. Ubiegłoroczna premiera nowej wersji pakietu WebSphere, zapowiadana na koniec lutego premiera bazy Oracle 10g dostarczanej wraz z serwerem aplikacyjnym, a także pakiety narzędziowe tworzone przez społeczność open source (np. Globus Toolkit) lub w ramach projektów międzynarodowych (GAT Grid Application Toolkit tworzony w ramach GridLab) na pewno przyspieszą popularyzację biznesowych rozwiązań grid computing.

Model potrzebny od zaraz

Tak naprawdę jednak najważniejszą barierą utrudniającą upowszechnienie grid computing jest brak modelu biznesowego wykorzystania tej technologii. Niedawno jeden z dziennikarzy The Economist z humorem opisywał zabiegi prezesów największych koncernów IT mające na celu zdefiniowanie usług oferowanych pod różnymi hasłami: adaptive enterprise, on demand computing, seamless computing.

Szefowie IT borykają się z podobnym problemem związanym z określeniem tego, co i w jaki sposób mogliby przetwarzać bądź przechowywać. W jaki sposób zorganizować proces przetwarzania i przechowywania danych? Kto ponosi odpowiedzialność za incydenty zaistniałe w trakcie przetwarzania? Jak rozdzielić tę odpowiedzialność w przypadku instalacji grid computing korzystających z zasobów będących własnością kilku działów firmy bądź wręcz kilku organizacji? Jak efektywnie zorganizować sam proces przetwarzania albo przechowywania danych w środowisku rozproszonym? Jak harmonijnie zintegrować te rozwiązania z istniejącą infrastrukturą IT? To tylko kilka pytań, przed którymi staje menadżer planujący implementację u siebie mechanizmów przetwarzania siatkowego.

W przypadku instalacji obejmujących zasięgiem więcej niż jeden podmiot poważny problem stanowi również stworzenie satysfakcjonującego modelu rozliczeń za korzystanie z zasobów, uwzględniającego zarówno stopień wykorzystania mocy obliczeniowych, jak i zaangażowanie w budowę tej instalacji. Zamęt ten dodatkowo pogłębiają ograniczenia czysto organizacyjne, związane np. z oporem przed współdzieleniem zasobów IT z innymi podmiotami. O tym, że jest to problem o charakterze uniwersalnym, świadczą choćby wyniki ubiegłorocznych badań przeprowadzonych na zlecenie Platform Computing, jednego z dostawców technologii grid computing. Wykazały one, że 89% dużych firm amerykańskich ma tzw. obawy natury politycznej, które utrudniają wdrożenie inicjatyw związanych z grid computing. Firmom, które przez lata budowały infrastrukturę IT z myślą o zdobyciu przewagi organizacyjnej, trudno się pogodzić z - nawet dość abstrakcyjną - myślą, że ich sprzęt (procesory, zasoby dyskowe) zostanie wykorzystany do obliczeń, z których może skorzystać konkurencja. Związane z tym obawy przed utratą kontroli nad zasobami, cięciami budżetowymi, a także ewentualnymi zmianami priorytetów skutecznie ograniczają wszelkie inicjatywy związane z grid computing w biznesie.

5 lat, może mniej

Analitycy z firmy Summit Strategies przewidują, że na dostosowanie aplikacji stosowanych obecnie przez korporacje do metod przetwarzania siatkowego potrzeba ok. 5 lat. Tyle samo zajmie także rozpowszechnienie się tej technologii w USA. Wyniki badań Summit Strategies latem 2003 r. wśród 180 firm pokazują, że własne instalacje grid computing zaimplementowało zaledwie 4% organizacji, kolejne 12% rozważa wykorzystanie tej technologii, a 50% nie interesuje się na razie tym tematem. Jednocześnie aż 25% pytanych specjalistów uważa, że grid computing stanie się istotnym elementem ich infrastruktury w ciągu 3 lat.

W Polsce pierwszych implementacji komercyjnych grid computing doczekamy się na pewno wcześniej. Do popularyzacji tej technologii mogą się przyczynić zmiany własnościowe w sektorze energetycznym. Zapowiadana od lat prywatyzacja zakładów energetycznych wydaje się dobrą okazją do stworzenia instalacji grid computing obejmujących zasięgiem sieci zakładowe. Zwłaszcza że współpraca w obrębie grup będzie wymagała poszukiwania oszczędności. Drugą grupą użytkowników grid computing w Polsce prawdopodobnie będzie stanowić przemysł chemiczny i farmaceutyczny, który już dziś wykazuje duży popyt na zlecenia związane z realizacją symulacji molekularnych, niezbędnych przy tworzeniu nowych lekarstw. Uczelniane ośrodki obliczeniowe nie powinny więc narzekać na brak pracy. Zwłaszcza że przy poszukiwaniu zleceń na moc obliczeniową nie muszą ograniczać się do Polski, a doświadczenia w zdobywaniu kontrahentów i odpowiednią renomę już mają.


TOP 200