Te komputery są super!

Za sprawą nowych, klastrowych technologii na superkomputery mogą pozwolić sobie nie tylko najbogatsze instytucje (agendy rządowe, ośrodki badawcze czy wojsko), ale także biznes. Jakie tendencje w świecie superkomputerów obowiązują obecnie i z jaką szybkością pracują najpotężniejsze systemy na świecie, w Europie i Polsce?

Za sprawą nowych, klastrowych technologii na superkomputery mogą pozwolić sobie nie tylko najbogatsze instytucje (agendy rządowe, ośrodki badawcze czy wojsko), ale także biznes. Jakie tendencje w świecie superkomputerów obowiązują obecnie i z jaką szybkością pracują najpotężniejsze systemy na świecie, w Europie i Polsce?

Odrobina historii

Te komputery są super!

Historia superkomputerów w pigułce

Superkomputery pojawiły się w latach 50. ubiegłego wieku. Wtedy pierwsze komputery do zastosowań naukowych tworzył np. IBM. Komputer IBM 701 działał z szybkością 10 000 operacji zmiennoprzecinkowych na sekundę (FLOPS - Floating Point Operations Per Second). Biorąc pod uwagę możliwości współczesnych komputerów PC (1000 000 000 i więcej flopów), pierwsze superkomputery można by dziś nazwać kalkulatorami.

Najpotężniejszą firmą produkującą superkomputery była w pionierskich czasach CDC (Control Data Corporation), na czele której stał Seymour Cray, późniejszy założyciel Cray Research. Produkowane przez CDC komputery składały się z kilku wtedy bardzo wydajnych procesorów, pracujących od kilku do kilkunastu razy szybciej niż dostępne wtedy układy CPU. Komputery te były oparte na procesorach wektorowych (obecnie prym wiedzie architektura skalarna).

Pod koniec lat 80. systemy oparte na procesorach wektorowych ustąpiły miejsca systemom opartym na architekturze MPP (Massive Parallel Processing - masowe przetwarzanie równoległe). Były to systemy, w których producenci instalowali tysiące prostych układów CPU, zazwyczaj firmowych. Obecnie rozwiązania takie zawierają najczęściej RISC, takie jak PowerPC czy PA-RISC.

Superkomputery dzisiaj

Te komputery są super!

Blue Gene/L i jego komponenty

Przyglądając się superkomputerom ogólnego zastosowania, można zauważyć, że dominują trzy typy rozwiązań:

1. Superkomputery mające topologię klastra, oparte na specjalnych połączeniach. W rozwiązaniach takich mamy do czynienia z wieloma procesorami i modułami pamięci, które komunikują się ze sobą przy użyciu takich rozwiązań, jak np. NUMA.

2. Klastry składające się z dużej liczby zwykłych komputerów (wydajnych pecetów), wymieniających między sobą dane przez szybko pracujące połączenia, stosowane w standardowych sieciach LAN.

3. Systemy oparte na przetwarzaniu wektorowym. W największym uproszczeniu technologia ta charakteryzuje się tym, że system może wykonywać jednocześnie wiele identycznych operacji arytmetycznych, używając do tego celu bardzo dużych porcji danych.

W przypadku superkomputerów specjalnego przeznaczenia mamy często do czynienia ze specyficzną warstwą sprzętową, opartą np. na programowalnych układach FPGA lub VLSI. Przykładowe superkomputery tego typu to Deep Blue (mecze szachowe), GRAPE (obliczenia astrofizyczne) i Deep Crack (system używany do obliczania algorytmów szyfrowania).

Pierwsze miejsce na dłużej

Te komputery są super!

Pierwszym komputerem w Lawrence Livermore National Laboratory, gdzie pracuje obecnie 12 systemów z listy top500 (w tym ten najszybszy) był uruchomiony w 1952 r. Univac (Universal Automatic Computer).

Ranking superkomputerów jest ogłaszany dwa razy w roku. Lista Top500 (http://www.top500.org ), tworzona przez naukowców z Niemiec i USA, obejmuje 500 najszybszych superkomputerów na świecie. Ostatnie, 25. zestawienie (opublikowane w czerwcu br.) pokazuje supremację IBM - w pierwszej dziesiątce superkomputerów jest aż sześć systemów tej firmy (w tym pozycje 1 i 2).

Już drugi raz z rzędu na pierwszym miejscu znalazł się superkomputer Blue Gene/L firmy IBM, wykorzystywany przez amerykański Department of Energy i National Nuclear Security Administration w Lawrence Livermore National Laboratories w Kalifornii.

Od listopada 2004 r., kiedy opublikowano przedostatnią listę, Blue Gene/L podwoił swoją wydajność z 70,72 do 136,8 teraflopów. Jak twierdzi Dave Turek, wiceprezes działu Deep Computing w IBM, jeszcze w tym roku po dalszej rozbudowie superkomputer będzie przetwarzał dane z szybkością 270-280 teraflopów. Wiele więc wskazuje na to, że Blue Gene/L nieprędko zwolni pierwsze miejsce w rankingu Top500.

Twórcy Blue Gene/L podkreślają, że superkomputer, oprócz tego że pracuje tak szybko, jest ekonomiczny. IBM podaje, że gdy w listopadzie 2004 r. Blue Gene/L obejmował przewodnictwo w rankingu Top500 jego koszt był cztery razy mniejszy niż japońskiego superkomputera Earth Simulator (który wcześniej na liście zajmował pierwsze miejsce przez 2,5 roku). Mając wtedy jedną czwartą swojej docelowej wielkości, Blue Gene/L przetwarzał dane dwa razy szybciej niż Earth Simulator. W tej fazie produkt IBM był 50 razy mniejszy niż produkt japoński i pobierał 14 razy mniej energii.

IBM zastosował w Blue Gene specjalną konstrukcję składającą się z bloków. Blok to mikrochip, który zawiera dwa procesory PowerPC, pamięć, układy obsługujące komunikację i dodatkowe obwody, które zwiększają szybkość pracy operacji zmiennoprzecinkowych. Jeden blok ma wielkość monety i pobiera ok. 15 W energii.

Obecnie po sześciu latach rozwijania projektu IBM zbudował wart 100 mln USD system, zawierający 32 768 takich układów scalonych. Mieści się w 32 szafach niewiele większych od dużej lodówki. Do tego dochodzi 5 typów sieci, które na różne sposoby łączą procesory. Po dalszej rozbudowie Blue Gene/L ma docelowo osiągnąć wydajność 360 teraflopów.

Wykorzystując swoją architekturę SMASH (Simple, Many and Self-Healing), na której opiera się projekt Blue Gene, IBM chce wkroczyć w świat petaflopów, czyli przetwarzania więcej niż 1 biliarda, czyli milion miliardów (jedynka i 15 zer) operacji na sekundę. To dążenie do petaflopów odpowiada na zapotrzebowanie rządu Stanów Zjednoczonych, którego program ASCI (Accelerated Strategic Computer Initiative), dotyczący wspierania badań i produkcji wysoko wydajnych systemów komputerowych, zakłada osiągnięcie takiej wydajności przetwarzania do 2010 r.

ASCI został stworzony do rozwijania systemów mogących wykonywać numeryczne symulacje wybuchów jądrowych, stanowiących alternatywę dla przeprowadzania podziemnych prób z bronią nuklearną. W porównaniu z dzisiejszymi możliwościami superkomputerów teraflopowych system petaflopowy kapitalnie poprawiłby dokładność takich symulacji. Program ASCI miał wielki wpływ na ewolucję wysoko wydajnych systemów w kierunku klastrów systemów SMP.

Kto jeszcze na podium?

Te komputery są super!

Superkomputer Columbia nosi nazwę promu, którego katastrofa 1 lutego 2003 r. i śmierć 7 członków załogi przerwały na ponad dwa lata misję promów kosmicznych. Wcześniej NASA potrzebowała od dwóch do trzech miesięcy, aby skompletować obliczenia symulujące misję promu. Obecnie jest to kwestia godzin.

Najszybszym, niepochodzącym z IBM, superkomputerem jest obecnie zajmująca trzecie miejsce Columbia. Columbia składa się z 20 systemów Altix (producent SGI), czyli wysoko wydajnych komputerów zawierających po 512 intelowskich procesorów Itanium 2. Jak więc łatwo obliczyć, superkomputer zawiera w sumie 10 240 procesorów Itanium 2, które wymieniają między sobą dane przez standardowe połączenia InfiniBand.

Columbia jest przez NASA wykorzystywana do różnych celów, w tym przewidywania zachowań huraganów i analizy danych uzyskiwanych z ponad 60 sond kosmicznych rozmieszczonych w układzie słonecznym. System pełni także główną rolę w przeprowadzaniu symulacji niezbędnych do wznowienia misji promów kosmicznych. Superkomputer nosi nazwę promu, którego katastrofa 1 lutego 2003 r. i śmierć 7 członków załogi na ponad dwa lata przerwały misję. Wcześniej NASA potrzebowała od dwóch do trzech miesięcy, aby skompletować obliczenia symulujące misję promu. Obecnie jest to kwestia godzin.

Te komputery są super!

Pierwsza dziesiątka najszybszych superkomputerów w ostatnim rankingu Top500

Czwarte miejsce zajmuje japoński superkomputer Earth Simulator, efekt projektu stworzenia "wirtualnej Ziemi" i dokładnego prognozowania zjawisk o zasięgu globalnym, takich jak zmiany klimatu czy katastrofy naturalne. System jest oparty na wyrafinowanych, firmowych rozwiązaniach NEC. Producent zastosował specyficzne komponenty, takie jak wektorowe mikroprocesory, które wykonują niektóre operacje równolegle, pracując dużo szybciej niż standardowe układy CPU.

Strata przewodnictwa na liście Top500 w listopadzie 2004 r. przez Earth Simulatora bardzo zdenerwowała Japończyków. Odgrażają się teraz, że stworzą komputer wiele razy szybszy od amerykańskiego Blue Gene/L. W czerwcu br. japoński rząd ogłosił rozpoczęcie projektu stworzenia superkomputera, który miałby powstać we współpracy firm NEC, Hitachi oraz kilku japońskich uniwersytetów i osiągnąć szybkość ponad 3 petaflopów do 2011 r.

Wiele budowanych obecnie superkomputerów to nic innego jak bardzo duże klastry, składające się z setek niedrogich komputerów, połączonych przy użyciu ogólnodostępnych, wydajnych technologii sieciowych. Wygląda na to, że takie właśnie rozwiązania będą dominować w najbliższej przyszłości. Nadal jednak są aplikacje, które potrzebują pojedynczych supermaszyn. Symulacje zmian pogody czy grawitacji to problemy wymagające takiego mnóstwa interakcji pomiędzy węzłami, że klastry jak na razie nie są w stanie sobie z tym poradzić.


TOP 200