Polskie superkomputery

Nova w WCSS

We Wrocławskim Centrum Sieciowo-Superkomputerowym pracuje klaster Nova, także włączony w struktury projektu EGEE. W jego skład wchodzą: węzeł dostępowy (nova), dwa węzły usługowe oraz 152 jednoprocesorowe, dwurdzeniowe węzły obliczeniowe (łącznie 304 rdzenie) wykorzystujące procesory Intel Xeon. Maszyny łączy sieć Gigabit Ethernet (wykorzystywane są przełączniki 3Com SuperStack 3870).

50000 Gflops

to moc superkomputera Galera, budowanego w 2007 r. w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.

"Wybór technologii był podyktowany stosunkiem wydajności do ceny" - mówi dr Paweł Dziekoński, administrator Komputerów Dużej Mocy w WCSS. Klaster ma obecnie moc obliczeniową 3 TFlopsów. Ośrodek ma już plany rozbudowy. "Będzie ona polegać na zainstalowaniu nowych węzłów obliczeniowych i połączeniu ich szybką siecią Infiniband. Klaster będzie posiadał łącznie ok. 1500 rdzeni, co pozwoli zwiększyć moc z obecnych 3 TFlopsów do 16 Tflopsów, a nam znaleźć się na liście TOP 500" - zapowiada Paweł Dziekoński. Jego zdaniem, przyszłość superkomputerów należy do gridów obliczeniowych, takich jak EGEE oraz oprogramowania, które pozwoli łączyć moc mniejszych komputerów. "Przyszłość należy do platform, które mają nie tylko wysoki stosunek wydajności do ceny, ale także wydajności do wymaganego zasilania i generowanego ciepła" - podsumowuje.

Radykalne zmiany w ICM

Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (ICM) działające przy Uniwersytecie Warszawskim przystępuje do procesu modernizacji, wykorzystując grant z funduszy strukturalnych (5,7 mln zł) na centrum analizy wielkoformatowych zespołów danych dla zastosowań gospodarczych (projekt LAMP-a). Termin realizacji to czerwiec 2008 r. Na razie ograniczeniem są lokalowe możliwości ośrodka, który znajduje się w siedzibie o powierzchni zaledwie 200 m kw. Obecnie UW, za ok. 300 mln zł, zamierza zbudować Centrum Nowych Technologii (CENT), w którym nowe centrum komputerowe będzie zajmować ok. 2500 m kw.

"Nie możemy jednak czekać z pełną modernizacją do momentu sfinalizowania inwestycji budowlanej. Dlatego podejmujemy działania pośrednie, tzn. inwestujemy w modernizację istniejącego ośrodka. Około 200 m kw. na sprzęt to bardzo mało. Do tego dochodzi niebagatelny problem zużycia i oszczędności energii oraz chłodzenia. Przystępujemy do znaczącego zwiększenia możliwości obliczeniowych ICM, realizując koncepcję stworzenia hybrydowej architektury systemów pod kątem konkretnych typów obliczeń i przetwarzania danych oraz wchodzimy w petabajtową architekturę systemów przechowywania danych" - mówi prof. Marek Niezgódka, dyrektor ICM.

Po uruchomieniu CENT moc obliczeniowa ICM zwiększy się radykalnie. W związku z hybrydową architekturą Centrum będzie zamawiało sprzęt u kilku dostawców. Podczas Supercomputing Conference 2007 prof. Marek Niezgódka ma ujawnić więcej szczegółów.

Flopsy to nie wszystko

Według prof. Marka Niezgódki, skończył się czas mierzenia możliwości przetwarzania we flopach na sekundę. "Benchmarking dużych systemów obliczeniowych stał się nową dziedziną informatyki. Poszukuje się wskaźników, które mogą wyrazić sprawność maszyn przy wykorzystaniu różnorodnych kryteriów. Jednym z ważniejszych jest współpraca pamięci masowych z jednostkami obliczeniowymi superkomputera. Flopsy staną się jedynie wskaźnikiem, który pomoże zobrazować moc komputera dla osób postronnych" - mówi Niezgódka.

W opinii dyrektora ICM, przyszłość superkomputerów leży w architekturach hybrydowych, które realizować będą dekompozycję funkcjonalną obliczeń na moduły, do których odpowiednio optymalizowane są konfiguracje i architektury sprzętowe. "Mowa tu o wielordzeniowości i wielowątkowości z prawdziwego zdarzenia, które z kolei stanowią wyzwanie programistyczne - konieczność opracowania odpowiednich środowisk do przeprowadzania obliczeń. Takie prace prowadzą np. IBM i Cray dla DARPA w ramach III etapu programu High Productivity Computing Systems. Efekty prac powinny pojawić się do 2010 r." - podsumowuje prof. Marek Niezgódka.

Dla COMPUTERWORLD komentuje prof. Jan Węglarz, pełnomocnik dyrektora Instytutu Chemii Bioorganicznej

Od czasu kiedy procesory Intela i AMD stały się na tyle efektywne, że mogły z powodzeniem konkurować z procesorami MIPS (SGI), SPARC (SUN) czy Power (IBM) - przy jednocześnie bardzo niskiej cenie - stało się jasne, że sytuacja musi ulec zmianie. I tak się stało. Większość firm zrezygnowała z produkcji własnych procesorów. Najciekawszym w całej sytuacji jest fakt, że najdroższe w całym cyklu życia procesora są badania, a nie produkcja. Jedną z pierwszych, jeżeli nie pierwszą maszyną Craya, która nie była wyposażona we własne procesory tej firmy, był Cray T3D, a później Cray T3E, oparty na procesorze Alpha. Później politykę taką przyjęło większość firm. Cray stosuje procesory AMD, a Silicon Graphics Intela. Każda z tych firm wykorzystuje procesory firm trzecich, dodając równocześnie własne rozwiązania sprawiające, że maszyny pracują dla małych i dużych aplikacji, począwszy od kilku procesorów, do ponad 1000, tworząc system z pamięcią współdzieloną. Inne procesory znikły z rynku, kiedy okazało się, że można je zastąpić podobnymi, a może nawet szybszymi, ale znacznie tańszymi.


TOP 200