Metakomputer – wielkie wyzwanie techniki

Nowy rodzaj technologii przetwarzania komputerowego – metaprzetwarzanie – zmieni metody badań naukowych i sposób stawiania diagnozy przez lekarzy. Wpłynie na model prowadzenia firm, a także na charakter uczenia się studentów. Wszystko zależy jednak od powstania metakomputera.

Nowy rodzaj technologii przetwarzania komputerowego – metaprzetwarzanie – zmieni metody badań naukowych i sposób stawiania diagnozy przez lekarzy. Wpłynie na model prowadzenia firm, a także na charakter uczenia się studentów. Wszystko zależy jednak od powstania metakomputera.

Metakomputer jest niczym innym, jak zbiorem przeznaczonych do pewnych operacji komputerów oraz innych zasobów (pamięci dyskowych, przyrządów naukowych itp.) połączonych szybką siecią komputerową i dodatkowym oprogramowaniem w ten sposób, że dla użytkownika są one widziane jako pojedynczy komputer, co sprawia, iż są bardzo proste w użyciu. Metakomputer może być zbudowany zarówno na bazie lokalnej sieci komputerowej, jak i sieci rozproszonej. Ponadto powinien zawierać specjalne grupy specjalizowanych zasobów przeznaczonych np. do analizy wstępnej danych, wykonywania obliczeń wektorowych i skalarnych, wizualizacji wyników itd. Wszystkie grupy zasobów mogą znajdować się w jednym budynku bądź być rozproszone geograficznie w różnych miastach, krajach, a nawet różnych kontynentach. Tak więc moc obliczeniowa tych zasobów jest dostępna na pojedynczym ekranie użytkownika, jako moc obliczeniowa całego metakomputera.

Dlaczego metakomputer?

Jaki jest sens budowy metakomputera? Otóż uważa się, że metakomputer pozwoli naukowcom, menedżerom, lekarzom, studentom itp. na wykorzystanie do obliczeń mocy obliczeniowej wykraczającej poza możliwości danej uczelni, firmy, szpitala, miasta, kraju czy też kontynentu. Zasoby powinny być przydzielane do obliczeń w taki sposób, który zapewni najkrótszy czas ich wykonania przy ustalonych kosztach. Osiągnąć to można przez przydział odpowiednio szybkich, w danym momencie dostępnych, specjalizowanych zasobów do poszczególnych części aplikacji. Przydział ten powinien odbywać się w sposób zupełnie niewidoczny dla użytkownika. W naturalny sposób obliczenia będą miały charakter obliczeń równoległych.

Oprogramowanie systemowe metakomputera wraz z oprogramowaniem komunikacyjnym stanowi podstawę systemu. Oprogramowanie komunikacyjne jest tutaj rozumiane dosyć szeroko. Oprócz protokołów komunikacyjnych, oprogramowanie powinno zapewniać interfejs między różnymi (heterogenicznymi) systemami komputerowymi, komputerami i użytkownikami, a także między ludźmi, pracującymi na metakomputerze. Komunikację między komputerami umożliwia np. oprogramowanie do przesyłania komunikatów (m.in. PVM – Parallel Virtual Machine, MPI – Message Passing Interface) itp.). Oprogramowanie to zapewnia odpowiednie przesłanie wiadomości między częściami składowymi danej aplikacji bądź wielu różnych aplikacji oraz konwersję danych między heterogenicznymi komputerami obliczeniowymi.

Powinno ono realizować również prosty interfejs użytkownika. Tylko jednolity interfejs do metakomputera składającego się z dziesiątek a nawet setek heterogenicznych komputerów z różnymi systemami operacyjnymi i architekturami może zapewnić sukces metaprzetwarzania. Jednolity, zintegrowany i prosty interfejs użytkownika jest podstawowym wymogiem, dotyczącym budowy metakomputera.

Przykładem takiego interfejsu jest WWW, integrujący Internet. Należy tutaj wspomnieć, że zastosowanie do metaprzetwarzania WWW wraz ze wszystkimi "narzędziami", takimi jak VRML, Java czy też CORBA, jest coraz częściej proponowane w różnych projektach prowadzonych na świecie.

Wielkie wyzwanie

Określenie "metakomputer" powstało w roku 1987, a zapoczątkowane było przez dyrektora National Center for Supercomputing Applications (NCSA), Larry Smarr'a. Celem Larry’ego Smarra było stworzenie czegoś w rodzaju WWW, łączącego interfejsy użytkownika stacji roboczych i superkomputerów. W roku 1988 metakomputer NCSA składał się z wieloprocesorowych systemów wektorowych Cray-2, nowych wówczas architektur o ogromnej równoległości Connection Machine-2 (lub inaczej CM-2), mainframe'a z systemem plików oraz stacji roboczych. W założeniu wszystkie systemy miały być połączone szybką siecią komputerową o przepustowości rzędu kilku gigabitów na sekundę.

Wkrótce okazało się, że - mimo szybkiego rozwoju systemów obliczeniowych - realizacja metakomputera nie jest możliwa. Sieci komputerowe, systemy przechowywania danych, oprogramowanie oraz wizualizacja danych zostawały daleko w tyle za technologią architektur superkomputerowych. Ponadto następował stały wzrost zapotrzebowania na moc obliczeniową. Obliczenia dużej mocy (superprzetwarzanie) zdobywały rosnące znaczenie w wielu dziedzinach nauki i techniki.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200