Polskie superkomputery
- Andrzej Maciejewski,
- 13.11.2007
Nova w WCSS
We Wrocławskim Centrum Sieciowo-Superkomputerowym pracuje klaster Nova, także włączony w struktury projektu EGEE. W jego skład wchodzą: węzeł dostępowy (nova), dwa węzły usługowe oraz 152 jednoprocesorowe, dwurdzeniowe węzły obliczeniowe (łącznie 304 rdzenie) wykorzystujące procesory Intel Xeon. Maszyny łączy sieć Gigabit Ethernet (wykorzystywane są przełączniki 3Com SuperStack 3870).
to moc superkomputera Galera, budowanego w 2007 r. w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.
Radykalne zmiany w ICM
Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (ICM) działające przy Uniwersytecie Warszawskim przystępuje do procesu modernizacji, wykorzystując grant z funduszy strukturalnych (5,7 mln zł) na centrum analizy wielkoformatowych zespołów danych dla zastosowań gospodarczych (projekt LAMP-a). Termin realizacji to czerwiec 2008 r. Na razie ograniczeniem są lokalowe możliwości ośrodka, który znajduje się w siedzibie o powierzchni zaledwie 200 m kw. Obecnie UW, za ok. 300 mln zł, zamierza zbudować Centrum Nowych Technologii (CENT), w którym nowe centrum komputerowe będzie zajmować ok. 2500 m kw.
"Nie możemy jednak czekać z pełną modernizacją do momentu sfinalizowania inwestycji budowlanej. Dlatego podejmujemy działania pośrednie, tzn. inwestujemy w modernizację istniejącego ośrodka. Około 200 m kw. na sprzęt to bardzo mało. Do tego dochodzi niebagatelny problem zużycia i oszczędności energii oraz chłodzenia. Przystępujemy do znaczącego zwiększenia możliwości obliczeniowych ICM, realizując koncepcję stworzenia hybrydowej architektury systemów pod kątem konkretnych typów obliczeń i przetwarzania danych oraz wchodzimy w petabajtową architekturę systemów przechowywania danych" - mówi prof. Marek Niezgódka, dyrektor ICM.
Po uruchomieniu CENT moc obliczeniowa ICM zwiększy się radykalnie. W związku z hybrydową architekturą Centrum będzie zamawiało sprzęt u kilku dostawców. Podczas Supercomputing Conference 2007 prof. Marek Niezgódka ma ujawnić więcej szczegółów.
Flopsy to nie wszystko
Według prof. Marka Niezgódki, skończył się czas mierzenia możliwości przetwarzania we flopach na sekundę. "Benchmarking dużych systemów obliczeniowych stał się nową dziedziną informatyki. Poszukuje się wskaźników, które mogą wyrazić sprawność maszyn przy wykorzystaniu różnorodnych kryteriów. Jednym z ważniejszych jest współpraca pamięci masowych z jednostkami obliczeniowymi superkomputera. Flopsy staną się jedynie wskaźnikiem, który pomoże zobrazować moc komputera dla osób postronnych" - mówi Niezgódka.
W opinii dyrektora ICM, przyszłość superkomputerów leży w architekturach hybrydowych, które realizować będą dekompozycję funkcjonalną obliczeń na moduły, do których odpowiednio optymalizowane są konfiguracje i architektury sprzętowe. "Mowa tu o wielordzeniowości i wielowątkowości z prawdziwego zdarzenia, które z kolei stanowią wyzwanie programistyczne - konieczność opracowania odpowiednich środowisk do przeprowadzania obliczeń. Takie prace prowadzą np. IBM i Cray dla DARPA w ramach III etapu programu High Productivity Computing Systems. Efekty prac powinny pojawić się do 2010 r." - podsumowuje prof. Marek Niezgódka.
Od czasu kiedy procesory Intela i AMD stały się na tyle efektywne, że mogły z powodzeniem konkurować z procesorami MIPS (SGI), SPARC (SUN) czy Power (IBM) - przy jednocześnie bardzo niskiej cenie - stało się jasne, że sytuacja musi ulec zmianie. I tak się stało. Większość firm zrezygnowała z produkcji własnych procesorów. Najciekawszym w całej sytuacji jest fakt, że najdroższe w całym cyklu życia procesora są badania, a nie produkcja. Jedną z pierwszych, jeżeli nie pierwszą maszyną Craya, która nie była wyposażona we własne procesory tej firmy, był Cray T3D, a później Cray T3E, oparty na procesorze Alpha. Później politykę taką przyjęło większość firm. Cray stosuje procesory AMD, a Silicon Graphics Intela. Każda z tych firm wykorzystuje procesory firm trzecich, dodając równocześnie własne rozwiązania sprawiające, że maszyny pracują dla małych i dużych aplikacji, począwszy od kilku procesorów, do ponad 1000, tworząc system z pamięcią współdzieloną. Inne procesory znikły z rynku, kiedy okazało się, że można je zastąpić podobnymi, a może nawet szybszymi, ale znacznie tańszymi.