Metakomputer – wielkie wyzwanie techniki

Globus jest właśnie zestawem modułów programowych, realizujących wymienione zadania. Moduły te pozwalają na integrację rozproszonych geograficznie zasobów w celu wspólnego obliczenia zadań przeznaczonych do wykonania. System ten może integrować dziesiątki, setki, a nawet tysiące różnych zasobów. Gdy istniejące systemy mają ograniczone możliwości co do identyfikacji, alokacji i integracji istniejących zasobów, jak również mechanizmów skalowalności procesów autentyfikacji i zachowania prywatności poszczególnych zasobów (wynikających z administracji lokalnej w poszczególnych centrach superkomputerowych), Globus realizuje właściwie wszystkie tego typu wymagania. Jest w pełni równoległym środowiskiem wspomagającym dynamiczną identyfikację i przydział zasobów w skali metakomputera, uwzględniając specyfikę autoryzacji w poszczególnych ośrodkach superkomputerowych.

Aby zapewnić pełną dynamikę przydziału zasobów, stworzono specjalne mechanizmy lokalizacji zasobów oraz skalowalnego zarządzania zasobami i protokołami zapewniające optymalny wybór drogi komunikacji między zasobami w zależności od świadczonych przez nie usług oraz wymagany poziom bezpieczeństwa. Globus zakłada pełną heterogeniczność wszystkich zasobów komputerowych i łączących je sieci na wielu poziomach, począwszy od urządzeń fizycznych, poprzez oprogramowanie systemowe, aż po politykę zarządzania tymi zasobami w poszczególnych ośrodkach superkomputerowych.

Zakłada się również, że komputery wirtualne wyłonione w ramach metakomputera i przydzielone aplikacjom mają nieprzewidywalną strukturę – dla każdej aplikacji ich konfiguracja będzie inna. Różna będzie liczba zasobów przydzielonych aplikacjom, a także sieciom komputerowym, po których będzie odbywać się transmisja danych.

Należy pamiętać o tym, że geograficzne rozproszenie zasobów utrudnia określenie takich charakterystyk komputerów wirtualnych, jak na przykład przepustowość sieci czy opóźnienie. Dodatkowym czynnikiem jest współdzielenie sieci i zasobów przez wielu użytkowników, a co za tym idzie, wydajność systemu będzie zmienna w czasie. Nieuniknione są również awarie elementów składowych metakomputera, a zagwarantowanie nawet minimalnego poziomu jakości usług jest bardzo trudne.

Na obecnym etapie projektu Globus skupiono się nad zapewnieniem mechanizmów niskiego poziomu, które pozwolą na implementację usług wyższego poziomu oraz nad technikami, które umożliwią kontrolę i sterowanie tymi mechanizmami. Globus składa się ze zbioru modułów, z których każdy definiuje pewien interfejs dostępu dd mechanizmów wyższego poziomu. Obecnie zaimplementowane moduły to: moduł lokalizacji i przydziału zasobów, komunikacji, jednolitej informacji o zasobach, autentyfikacji, tworzenia i zarządzania procesami, dostępu do danych. Wszystkie moduły tworzą wirtualny metakomputer. Definicja taka znacznie upraszcza tworzenie nowych aplikacji i pozwala na widzenie rozproszonych geograficznie, heterogenicznych zasobów, jako jednolitej jednostki obliczeniowej.

GUSTO

Ogromny sukces odniesiony przez projekt Globus w doświadczeniu I-WAY umożliwił dalsze prace nad projektem oraz zbudowanie nowego środowiska testowego. Jest nim GUSTO (Globus Ubiquitous Supercomputing Testbed). GUSTO łączy 15 ośrodków superkomputerowych z różnorodnymi komputerami dużej mocy (IMB SP2, Silicon Graphics Power Challenge, etc.) oraz stacjami roboczymi. Podstawowe połączenie zapewnia szerokopasmowy Internet, zrealizowany na połączeniach ATM 45 Mb/s oraz 155 Mb/s. Projekt GUSTO jest pozbawiony błędów znalezionych w I-WAY oraz wzbogacony o dynamiczne zarządzanie zasobami i bezpieczeństwo, dostarczając użytkownikowi bardziej poprawnego stanu i konfiguracji metakomputera. Do realizacji projektu włączy się więcej uczestników poprzez wprowadzenie odpowiednich usług wyższego poziomu, takich jak szeregowanie zadań na poziomie aplikacji, sterowanie wydajnością, obiektowo zorientowane biblioteki.

Metaprzetwarzanie a' la polacca

Prace nad metaprzetwarzaniem odbywają się również w Polsce. Ponieważ wąskopasmowy Internet nie jest w stanie sprostać wymogom metaprzetwarzania, skupiono się na tworzeniu oprogramowania systemowego metakomputera dla różnorodnych, szybkich sieci lokalnych, jak FDDI, ATM i HIPPI. Prace są m.in. prowadzone w Poznańskim Centrum Superkomputerowo-Sieciowym, gdzie powstaje jednolity interfejs do metakomputera, oparty na technologii !WWW. Prowadzone są również badania, mające na celu optymalny rozdział zasobów metakomputera do zadań równoległych.

W br. pojawiła się również możliwość uzyskania szerokopasmowych kanałów 34 Mb/s oraz 155 Mb/s od operatora TEL-ENERGO. Na bazie tej sieci zbudowano sieć naukową ATM, o nazwie POL-34. W ramach sieci POL-34 można wydzielić kanały o dużej przepustowości dla połączeń między komputerami, znajdującymi się w ośrodkach superkomputerowych. Rozwiązanie takie umożliwi wielu naukowcom w Polsce wspólną pracę zarówno nad problemem metaprzetwarzania, jak i w innych dziedzinach nauk obliczeniowych.

Przyszłość bez różowych okularów

Znaczna większość sprzętu potrzebnego do metaprzetwarzania (serwery obliczeniowe, pamięci masowe, systemy informacyjne, zaawansowane systemy wizualizacyjne) jest w zasięgu ręki polskich naukowców, aktywnie uczestniczących w pracach nad tym zagadnieniem. Jednak jeszcze trochę czasu upłynie, zanim metakomputery wielkiej skali będą dostępne dla wszystkich. Należy pamiętać o tym, że wyobrażenie człowieka o metaprzetwarzaniu będzie wciąż ewaluować, kreując nowe idee i ich rozwiązania.

<hr size=1 noshade>Jarosław Nabrzyski jest doktorantem w Poznańskim Centrum Superkomputerowo – Sieciowym.


TOP 200