Superkomputery dla mas

Cray: reaktywacja

Analiza listy 500. największych (pod względem wydajności) superkomputerów na świecie, prowadzonej m.in. przez uniwersytety: niemiecki w Mannheim i amerykański Tennesse, dostarcza zaskakujących spostrzeżeń. Uderzająca jest marginalna rola superkomputerów firmy Cray Research (które jeszcze kilka lat temu dominowały na wszystkich czołowych pozycjach) oraz trwała pozycja lidera, jakim jest japoński superkomputer Earth Simulator (wydajność ponad 35 tys. gigaflopów).

Wśród producentów superkomputerów firma Cray Research traciła stopniowo pozycję lidera, lecz prawdziwą katastrofą dla firmy było przejęcie jej w 1996 r. przez Silicon Graphics (za 740 mln USD). SGI zaczęła sprzedawać superkomputery oparte na technologii Craya pod własną marką, ale jednocześnie wstrzymała zaawansowane prace badawcze, jakie prowadzono w Cray Research nad nowymi rozwiązaniami superkomputerowymi. SGI wyraźnie zabrakło pomysłu na to, co dalej zrobić z nowym nabytkiem. Przed ostatecznym upadkiem firmę uratowała, paradoksalnie, pogarszająca się kondycja finansowa SGI, która była zmuszona stopniowo wyzbywać się swoich aktywów. W ten sposób w 2000 r. nowym właścicielem Cray Research stała się mało znana firma Tera Computer, która ostatecznie zmieniła nazwę na Cray Inc. (wówczas wartość transakcji przekroczyła zaledwie 50 mln USD).

Dla Craya znowu nadeszły czasy pomyślności. Rząd amerykański podjął strategiczną decyzję o znaczącym doinwestowaniu firmy, uznając jej istotną rolę w budowie potencjału technologicznego USA. Dzięki temu Cray był w stanie opracować superkomputer nowej generacji oznaczony kryptonimem X1, który ma sprawić, że firma na nowo stanie się numerem jeden pod względem wydajności pojedynczego komputera. Nie wykorzystano w nim elementów składowych, które byłyby dostępne na rynku - w całości jest nowym opracowaniem inżynierów i naukowców Craya.

Wspomniany superkomputer pojawił się właśnie na rynku. Ma on przynieść w najbliższym czasie większość przychodów firmy (ma kosztować 3-12 mln USD). Według nieoficjalnych informacji jego pierwsza instalacja w Europie prawdopodobnie odbędzie się w Polsce, jesienią br.

Pojawienie się superkomputerów opartych na technologii klastrowej również zainteresowało zespół badawczy Craya. Firma ta pozyskała znaczący kontrakt o wartości 90 mln USD na budowę superkomputera Red Storm w technologii MPP (masywnego przetwarzania równoległego) na potrzeby Departamentu Energii USA (ta cywilna nazwa może być myląca - w rzeczywistości chodzi przede wszystkim o złożone symulacje broni nuklearnej). W tym celu zostanie stworzony klaster, w którym będzie funkcjonować 10 tys. procesorów AMD Opteron. Główna myśl technologiczna Craya w tym projekcie to przede wszystkim bardzo efektywne rozwiązania komunikacyjne w obrębie klastra.

Pozycja lidera

Amerykanie w dążeniu do budowy nowych superkomputerów mają jeszcze jeden istotny bodziec ambicjonalny: największy superkomputer na świecie, do symulacji procesów naturalnych zachodzących w skali całego globu, został zbudowany w Japonii przez konsorcjum tamtejszych firm z NEC na czele. Nieścisłe byłoby twierdzenie, że jest on szybszy od superkomputerów amerykańskich - pod względem wydajności japoński superkomputer je po prostu znokautował - będąc bardziej wydajnym niż łącznie 12 następnych w kolejności superkomputerów. Dlatego prezydent George Bush pod naciskiem różnych agend rządowych (w tym NSA) wiosną tego roku przedstawił inicjatywę High-End Computing Revitalization (odrodzenie najbardziej zaawansowanego przetwarzania), której elementem jest konkurs High Productivity Computing Systems (systemy komputerowe o wysokiej produktywności).

Firmy Cray, IBM, Sun, SGI i HP biorące udział w konkursie mają za zadanie stworzyć projekt superkomputera, który byłby jednocześnie bardzo wydajny i łatwy do oprogramowania (w 2004 r. z tej piątki do dalszych prac zostaną wybrane trzy firmy, w 2006 r. dwie, które do 2010 r. opracują superkomputer nowej generacji). Inicjatywa ma na celu opracowanie konstrukcji przystępnej cenowo, tak aby zainteresowanie superkomputerami nie ograniczało się jedynie do klastrów. IBM planuje w przyszłym roku zbudowanie w Stanach Zjednoczonych dwóch superkomputerów ASCI Purple i Blue Gene/L o potencjalnej wydajności przekraczające 100 teraflopów, być może dzięki temu dominacja Japończyków zakończy się szybciej niż sądzono.

Wartość rynku superkomputerów na świecie ocenia się na 1-2 mld USD rocznie. Koszt ich wydajności spada mniej więcej dwukrotnie co 2,5 roku. Przyszłe technologie budowy superkomputerów zakładają zmiany zarówno na poziomie architektury centralnej (np. Cray chce zastosować rozwiązanie Processor In Memory - zamiast przesyłania danych do procesora, w pewnym sensie procesor miałby poszukiwać potrzebnych mu danych, nie będąc niezależnym układem, ale częścią pamięci RAM), jak i podstawowych założeń architektury maszyn cyfrowych. "Są to pomysły na zerwanie z ograniczeniami architektury von Neumanna, na której są oparte współcześnie wykorzystywane komputery" - mówi prof. Marek Niezgódka. Chodzi m.in. o to, by wyjść poza schemat przetwarzania zerojedynkowych bitów jako atomowych jednostek danych. Miałyby być to większe elementy, np. fragmenty łańcuchów DNA. Przyspieszenie obliczeń w przypadku niektórych klas problemów mogłoby osiągnąć dwa, trzy rzędy wielkości. IBM pracuje natomiast nad "wirtualną architekturą wektorową", która miałaby połączyć światy tradycyjnych superkomputerów i HPCC.


TOP 200