Nowe trendy w świecie obliczeń superkomputerowych

Najogólniejsza definicja określa tym mianem bardzo wydajny system komputerowy, zdolny rozwiązywać duże i numerycznie skomplikowane problemy. Typowe moce obliczeniowe współczesnych superkomputerów to setki, a nawet tysiące milionów operacji zmiennoprzecinkowych na sekundę (Mflops). Ponadto komputery te muszą być wyposażone w olbrzymie systemy pamięci o pojemności wielu mld bajtów, a zasoby dyskowe sięgać mogą wielu bln bajtów.

Najogólniejsza definicja określa tym mianem bardzo wydajny system komputerowy, zdolny rozwiązywać duże i numerycznie skomplikowane problemy. Typowe moce obliczeniowe współczesnych superkomputerów to setki, a nawet tysiące milionów operacji zmiennoprzecinkowych na sekundę (Mflops). Ponadto komputery te muszą być wyposażone w olbrzymie systemy pamięci o pojemności wielu mld bajtów, a zasoby dyskowe sięgać mogą wielu bln bajtów.

Obliczeń superkomputerowych wymagają przede wszystkim takie dziedziny, jak: chemia i biochemia (obliczenia kwantowo-chemiczne), fizyka (dynamika przepływów cieczy i gazów, symulacje), geofizyka i geologia (poszukiwania ropy naftowej i gazu),komputerowo wspomagane projektowanie, analiza wytrzymałościowa materiałów, meteorologia (prognozy średnioterminowe), a także systemy symulacyjne i treningowe (zastosowania wojskowe i cywilne).

Jak przebiegała ewolucja superkomputerów?

Dotychczasowy rozwój polegał na konstruowaniu coraz szybszych i coraz bardziej wyspecjalizowanych systemów, wymagających niestandardowego oprogramowania pisanego specjalnie dla tej architektury. To znacznie ograniczało krąg potencjalnych użytkowników superkomputerów (szczególnie systemów masywnie równoległych). Tradycyjne centrum superkomputerowe drugiej połowy lat osiemdziesiątych zbudowane było wokół bardzo silnego serwera (najczęściej firmy Cray ), a korzystało z niego tysiące użytkowników, używając terminali początkowo alfanumerycznych, a później coraz częściej graficznych. Dobrym przykładem tego rodzaju rozwiązania jest amerykańska sieć uniwersyteckich centrów superkomputerowych, założona, utrzymywana i zarządzana przez National Science Foundation. Wyposażona głównie w superkomputery wektorowe umożliwiała naukowcom przeprowadzanie obliczeń, wymagających jednocześnie wielkiej mocy obliczeniowej i dużych zasobów pamięci.

Doświadczenia amerykańskie ujawniły przy tym ciekawy fakt: część centrów uzyskuje ważne wyniki naukowe, podczas gdy inne - pomimo podobnego wyposażenia - nie spełniają oczekiwań. Przyczyny należy szukać nie w możliwościach komputerów, a w stworzeniu wokół centrum obliczeniowego grupy użytkowników aktywnie i mądrze je wykorzystujących.

Superkomputer powszechnego użytku i nowy typ centrum obliczeniowego

Nic więc dziwnego, że w chwili obecnej coraz większą popularność zyskuje nowy typ centrum obliczeniowego, pracującego na użytek mniejszej grupy użytkowników (rzędu stu zamiast ponad tysiąca). W takiej sytuacji łatwiej jest o skoncentrowanie wysiłków i optymalny z punktu widzenia zainteresowań wybór wyposażenia i oprogramowania.

W ośrodku takim znajduje się superkomputer skalarny o wydajności porównywalnej z tradycyjnymi systemami wektorowymi, a o mniej więcej dziesięciokrotnie niższym koszcie mocy obliczeniowej (rzędu 300 USD/Mflops). Takie centra powstają przede wszystkim w instytutach badawczych, uniwersytetach czy w zakładach przemysłowych, czyli wszędzie tam, gdzie istnieje duże zapotrzebowanie na obliczenia superkomputerowe, a budżet nie pozwala na stworzenie bardzo drogiego tradycyjnego centrum superkomputerowego. Czas oczekiwania na wyniki obliczeń jest krótki - niektórzy użytkownicy mogą nawet dokonywać obliczeń w trybie interakcyjnym. Sprzyja to tworzeniu nowych algorytmów i eksperymentowaniu, co w tradycyjnym centrum superkomputerowym było utrudnione ze względu na wysoką cenę czasu obliczeniowego i długie oczekiwanie w kolejce.

W nowych centrach analiza rezultatów i ich wizualizacja przeprowadzana jest na stacjach graficznych, połączonych z serwerem superkomputerowym szybką siecią komputerową. Stacje graficzne są często binarnie zgodne z superkomputerem, więc rozwijanie oprogramowania i sprawdzanie jego poprawności może odbywać się na lokalnych stacjach użytkowników. Programy te mogą być potem przenoszone bez zmian na superkomputer po poddaniu jedynie kompilacji optymalizującej dla architektury wieloprocesorowej. Na koniec warto może wspomnieć, że centra obliczeniowe nowego typu nie wymagają specjalnych pomieszczeń i wyposażenia, nie trzeba w nich pełnić całodobowego dyżuru, a pobór mocy nie przekracza kilku kilowatów, pracujące w nich superkomputery są więc

naprawdę komputerami powszechnie dostępnymi.

Sercem centrum obliczeniowego nowego typu jest superkomputer skalarny nowej generacji. Jest on zbudowany w oparciu o tanie technologie, wywodzące się ze świata stacji roboczych, udoskonalone do tego stopnia, by ich wydajność osiągnęła poziom tradycyjnych superkomputerów. System ten cechuje otwartość, skalowalność i możliwość rozbudowy. Szczególnie te dwie ostatnie cechy są ważne dla użytkowników, którzy coraz częściej pragną stosować obliczenia superkomputerowe do realizacji swych konkretnych projektów (project supercomputing). Kupując superkomputer najpierw szacują oni moc obliczeniową, zasoby pamięci i dysków, a następnie wybierają taką konfigurację, która zapewni im możliwość zrealizowania tych projektów. Jednocześnie chcą mieć gwarancję, że w przyszłości, jeśli ich potrzeby wzrosną, system będzie można rozbudować bez konieczności wymiany na nowy. W rezultacie przy wyborze pierwszeństwo ma nie abstrakcyjna moc obliczeniowa, a zadania, którym ma ona służyć.

Nowe trendy technologiczne w świecie obliczeń superkomputerowych

Jak wspomnieliśmy uprzednio, powstanie superkomputera powszechnego użytku możliwe było poprzez udoskonalenie i przeniesienie najnowocześniejszych technologii ze świata stacji roboczych na poziom superkomputerów. Powstaje naturalne pytanie, jakie to były technologie? Przedstawimy tu pokrótce trzy najważniejsze.

* Technologia mikroprocesorów RISC

Mikroprocesory RISC to bardzo szybkie i wydajne procesory, które niemal całkowicie opanowały rynek stacji roboczych i obecnie szerokim frontem wkraczają na rynek superkomputerowy (najnowsze superkomputery masywnie równoległe T3D firmy Cray i Exemplar firmy Convex używają ich jako procesorów skalarnych). Rys. 1 pokazuje porównanie tempa wzrostu wydajności procesorów w tradycyjnych superkomputerach wektorowych firmy CRAY oraz mikroprocesorów typu RISC firmy MIPS, stosowanych w komputerach Silicon Graphics. Z wykresu widać wyraźnie, że tempo wzrostu technologicznego mikroprocesorów RISC osiągnęło w ostatnich latach zawrotne

tempo. Najnowszy procesor MIPS RISC stosowany przez Silicon Graphics w superkomputerze Power Challenge nosi nazwę TFP i posiada szczytową moc obliczeniową 300 MFLOPS porównywalną z jednoprocesorowym superkomputerem wektorowym CRAY Y-MP. Ważną cechą technologii RISC jest także to, iż pozwala ona na zastosowanie efektywnych kompilatorów optymalizujących, pozwalających na wykorzystanie wszystkich zalet architektury komputera z poziomu języków wysokiego rzędu.

* Architektura wieloprocesorowa z symetrycznym dostępem do pamięci (SMP)

Wśród wieloprocesorowych systemów komputerowych opartych na mikroprocesorach RISC dominują dziś dwa typy architektury komputerowej i związane z tym modele programowania:

1) systemy z fizycznie rozproszonym systemem pamięci i modelem programowania opartym na przekazywaniu informacji pomiędzy procesorami (MP-message passing);

2) systemy ze scentralizowanym systemem pamięci i modelem programowania opartym na istnieniu jednej, globalnej

przestrzeni adresowej (SMP-shared memory programming).

Pierwszy z wymienionych tu typów architektury powoli odchodzi w przeszłość i obecnie stosowany jest jedynie w nielicznych systemach (przede wszystkim najróżniejsze formy klastrów komputerowych, a także systemy wieloprocesorowe firm Intel i nCube).

Jego podstawowym mankamentem jest niestandardowy i trudny w użyciu model programowania. Również urównoleglanie programów jest w modelu MP znacznie trudniejsze, a efekt przyspieszenia, związanego z użyciem wielu procesorów jednocześnie, znacznie słabszy. Architektura SMP natomiast jest lub będzie stosowana w najbliższej przyszłości przez wszystkich znaczących producentów systemów wieloprocesorowych (również firmy oferujące tradycyjne systemy superkomputerowe produkują już lub planują w najbliższych latach wyprodukowanie wieloprocesorowych systemów skalarnych w oparciu o architekturę SMP).

* 64-bitowa architektura systemu komputerowego i systemu operacyjnego

Dotychczasowym standardem na rynku stacji roboczych była 32- bitowa architektura zarówno systemu komputerowego, jak i systemu operacyjnego. Firma Silicon Graphics jako pierwsza wprowadziła w roku 1991 stację graficzną Iris Crimson, wyposażoną w 64-bitowy procesor Mips R4000. Od tego czasu wszystkie systemy komputerowe Silicon Graphics konstruowane są w technologii 64-bitowej. Wraz z pojawieniem się superkomputera Power Challenge przygotowywana jest nowa, 64-bitowa wersja systemu operacyjnego Irix 6. Nowy system operacyjny umożliwi przełamanie bariery 4 GB maksymalnej przestrzeni adresowej, która w wielu aplikacjach z dziedziny dynamiki przepływów cieczy i gazów, geofizyki i geologii, chemii oraz multimediów staje się barierą nie do pokonania. Przewiduje się, że po roku 1995 większość dużych aplikacji będzie wymagała 64-bitowego systemu operacyjnego.

Superkomputer skalarny Power Challenge i serwer Challenge

Wielokrotnie już wspomniany w tekście system komputerowy Power Challenge jest wieloprocesorowym, superskalarnym (może w jednym takcie zegara wykonać kilka, tu akurat 6 operacji, w tym 4 instrukcje zmiennoprzecinkowe) serwerem obliczeniowym o symetrycznym dostępie do pamięci. Jest zbudowany na bazie o 64-bitowego mikroprocesora RISC TFP 75 MHz o szczytowej mocy obliczeniowej 300 Mflops. Pracuje pod kontrolą 64-bitowego systemu operacyjnego Irix 6, zgodnego ze standardem Unix.

Silicon Graphics już w roku 1987, kiedy to zaprojektowała pierwszy system wieloprocesorowy Power Series, konsekwentnie stosuje technologię mikroprocesorów RISC i model symetrycznego dostępu procesorów do pamięci. Ma więc już za sobą ponad sześć lat doświadczeń, gdy inne firmy dopiero zaczynają wkraczać na rynek systemów wieloprocesorowych bądź też zmieniają strategię, decydując się na otwarcie dodatkowych linii systemów komputerowych, opartych na mikroprocesorach RISC. Od ponad trzech lat Silicon Graphics wykorzystuje w swych komputerach 64-bitową architekturę systemową, do której w tym roku dołączy 64-bitowy system operacyjny.

Power Challenge wyposażony jest w 2-18 procesorów, w system pamięci o pojemności 64 MB -- 16 GB, system dyskowy o maksymalnej pojemności 960 GB w konfiguracji non-RAID i 3.5 TB w konfiguracji RAID. Poprzez odpowiednie interfejsy może być włączony do sieci komputerowych, zbudowanych w standardzie Ethernet, FDDI, HiPPI, a także ATM. Serwer Challenge zbudowany jest w tej samej architekturze systemowej, a różni się jedynie zastosowaniem innego typu procesorów - MIPS RISC R4400 SC 150 MHz o szczytowej mocy obliczeniowej 135 MIPS i 75 Mflops. Przez prostą wymianę tych procesorów na TFP praktycznie staje się superkomputerem Power Challenge

Superkomputery w Polsce

Obecnie znajdują się w Polsce trzy silne centra superkomputerowe:

* Centrum w Warszawie wyposażone w superkomputer wektorowy Cray Y-MP EL z 8 procesorami i 1 GB pamięci operacyjnej;

* Centrum w Krakowie, posiadające superkomputer wektorowy Convex C3800 z 8 procesorami i 512 MB pamięci operacyjnej;

* Centrum w Poznaniu, które docelowo (po otrzymaniu wszystkich licencji) wyposażone będzie w superkomputer wektorowy Cray Y-MP EL z 4 procesorami i 512 MB pamięci operacyjnej, superkomputer skalarny Power Challenge z 4 procesorami TFP i 256 MB pamięci operacyjnej oraz serwer poznańskiej metropolitalnej sieci komputerowej Challenge z 6 procesorami i 128 MB pamięci operacyjnej.

Oprócz tych trzech tradycyjnych centrów superkomputerowych powstają również centra obliczeniowe nowego typu, o których wspominaliśmy wcześniej. W Warszawie Instytut Fizyki PAN wspólnie z Centrum Fizyki Teoretycznej PAN wykorzystuje system Challenge z dwoma procesorami jako środowiskowy serwer obliczeniowy do prowadzenia badań z zakresu m.in. fizyki statystycznej, teorii pola, optyki i fizyki ciała stałego. Instytut Biofizyki i Biochemii PAN w Warszawie używa 2-procesorowego serwera Challenge do prowadzenia obliczeń chemicznych w zakresie m.in. dynamiki molekularnej, a także jako serwera chemicznych baz danych. W Krakowie Instytut Fizyki Jądrowej UJ zakupił serwer Challenge z dwoma procesorami w celu analizy danych eksperymentalnych z Ośrodka Fizyki Wysokiej Energii DESY w Hamburgu. I wreszcie w Państwowym Instytucie Geologicznym w Warszawie 2-procesorowy Challenge jest serwerem dla tworzonej tam cyfrowej, geologicznej bazy danych, pokrywającej swym zasięgiem terytorium całego kraju.

W warunkach, w których dysponuje się jedynie ograniczonymi funduszami, konieczny jest szczególnie uważny wybór przyjętej strategii komputeryzacji. Z jednej strony można pójść ścieżką zakupu superkomputerów poprzednich generacji, z możliwością ich upgrade'u w przyszłości do wersji, które dziś są najnowocześniejsze. Sytuacja taka grozi nam wejściem w błędne koło, w którym zawsze będziemy kilka lat za światową czołówką. Druga możliwość to inwestycja może w mniej spektakularne, ale za to na pewno w swojej klasie najnowocześniejsze rozwiązania, takie jak np. wieloprocesorowe maszyny Silicon Graphics. Poza wymienianymi już zaletami: otwartością, skalowalnością, prostotą obsługi i niskim kosztem eksploatacji oraz binarną zgodnością ze stacjami roboczymi, mają także inne, mniej bezpośrednie. Na przykład jako modne obecnie platformy sprzętowe są okazją do rozwijania przeznaczonego dla nich oprogramowania, a to oznacza, że pracujący na nich mogą być nie tylko konsumentami, ale także twórcami nowych rozwiązań. Zainteresowanie algorytmami, wykorzystującymi architekturę SMP, wykracza daleko poza krąg użytkowników komputerów Silicon Graphics i praca nad nimi może przynieść polskiemu środowisku informatycznemu nie tylko prestiż, ale i wymierne efekty finansowe.


TOP 200