Zieloni i wielowątkowi

Prof. dr Marek Niezgódka, decydując się na wykorzystanie procesorów IBM Cell w najnowszym superkomputerze na ICM, promuje w Polsce nowe podejście do rozwiązań HEC.

Prof. dr Marek Niezgódka, decydując się na wykorzystanie procesorów IBM Cell w najnowszym superkomputerze na ICM, promuje w Polsce nowe podejście do rozwiązań HEC.

Według ostatnich raportów, straty energii w konwencjonalnych systemach wahają się między 40% a 70%. Średnio na każde 100 jednostek energii, dostarczanych do centrum danych, tylko 3 są używane do rzeczywistych celów informatycznych, a ponad 50 jest wykorzystywanych do chłodzenia. "Wspólnie z IBM rozpoczęliśmy w Polsce nowy trend, który nazwałbym zieloną rewolucją w HEC (High End Computing). Wierzymy, że świat powinien być zielony" - powiedział prof. dr Marek Niezgódka, dyrektor Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego na Uniwersytecie Warszawskim (ICM). "Chciałbym też podkreślić zaangażowanie IBM, i to nie tylko polskiego oddziału, ale i centrali firmy, której technicy dokonali <<podrasowania>> Nautilusa do poziomu, którego wcześniej nie osiągnął jeszcze inny superkomputer oparty na technologii procesorów Cell" - dodaje.

Zmiana paradygmatów

Zieloni i wielowątkowi

prof. dr Marek Niezgódka

Efektem prac IBM i ICM jest superkomputer Nautilus, który znalazł się w listopadzie na 1. miejscu listy Green 500. Wykorzystuje on technologie, podobne do tych, które zastosowano w najszybszym na świecie - wg listy TOP500 - superkomputerze Roadrunner. Nautilus jest prototypem systemu korzystającego z architektury hybrydowej - działa pod kontrolą systemu Linux, jest oparty na 112 serwerach Blade QS22 i procesorach IBM PowerXCell8i. Produkuje ponad 536 Megaflopów na 1 Wat. Moc obliczeniowa 18,5 Teraflopa daje zaś Nautilusowi 221. miejsce na liście TOP500.

"Lista TOP500 to tak naprawdę zabawa. O miejscu na niej decyduje jedna aplikacja, która coś znaczyła na komputerach pracujących w architekturze sekwencyjnej. Podczas gdy teraz nastała era architektur równoległych i hybrydowych. Powinniśmy raczej liczyć czas do rozwiązania problemu. Przetwarzanie sekwencyjne to tylko jeden z ok. 20 kryteriów, które bierze się dziś pod uwagę" - mówi prof. dr Marek Niezgódka.

W pracach nad nowymi superkomputerami sprawdza się obecnie skalowalność kodów i to, jak wzrasta szybkość obliczeń. Odróżnia się kody obliczeń dokonywanych na operacjach zmiennoprzecinkowych (liczbach rzeczywistych) i na tych o tzw. stałym przecinku. W drugim przypadku są to operacje sekwencyjne, a więc transakcyjne, polegające na przeszukiwaniu ogromnych baz danych, czy też związane z bioinformatyką i kryptografią. Tymczasem test Limpac - podstawa listy TOP500 - uwzględnia tylko operacje zmiennoprzecinkowe.

Krzem mało wydajny

Wprowadzenie architektur hybrydowych spowodowane jest także faktem, że procesory oparte na krzemie osiągnęły granice parametrów przetwarzania. Uniwersalne procesory - przy niektórych zastosowaniach - zachowują się bardzo słabo i wykorzystywana jest niewielka część ich możliwości. Bariera krzemu powoduje mnożenie modułów w kolejnych, budowanych superkomputerach. Przekroczenie bariery 1 Exaflopa spowodowałoby jednak, że komputer o takiej mocy - zbudowany w oparciu o tradycyjne procesory - wymagałby zasilania 100 MWatami.

Zaczyna się więc szukać nowych rozwiązań. Nowe superkomputery będą budowane w oparciu o kilka architektur. To nowe wyzwania w zakresie systemów komunikacji, ale także nośników danych. Następuje uzupełnienie technologii dyskowych o technologie ciała stałego - dyski SSD - o kilkusetkrotnym przyspieszeniu komunikacji w porównaniu do tych tradycyjnych.

"Skończył się czas jednowymiarowych komputerów i paradygmaty sekwencyjnych obliczeń. Mamy wielordzeniowość i wielowątkowość. Nastąpił też koniec determinizmu w obliczeniach. Dziś przewiduje się, gdzie pojawi się dana informacja i przygotowuje wcześniej kanał komunikacji" - tłumaczy prof. dr Marek Niezgódka. Mamy do czynienia z początkiem nowego paradygmatu w wielkich obliczeniach - paradygmatu przetwarzania adaptacyjnego oraz uzyskania nowej jakości przetwarzania przez wprowadzenie architektur hybrydowych. Stąd próba stworzenia nowych środowisk programistycznych uwzględniających nie tylko przetwarzanie równoległe, ale i rozbicie obliczeń na części przeliczane na różnych architekturach.

Do 2010 r. mają powstać nowe środowiska systemowe, kompilatory, narzędzia ułatwiające przetwarzanie na najbardziej zaawansowanych architekturach. "Nautilus oraz współpraca z IBM w ramach Centrum Kompetencyjnego Cell pozwoli nam uczestniczyć w tych pracach. Nazwa naszego komputera - zaczerpnięta z książki Juliusza Verne - ma oznaczać sięganie przez nas w przyszłość i otwieranie nowych horyzontów" - mówi prof. dr Marek Niezgódka. "ICM zaangażował się w tworzenie nowych, efektywnych systemów obliczeniowych dla następnych generacji superkomputerów. Jesteśmy na początku petaobliczeń, ale w Centrum powstają już zespoły, które zajmą się kolejną generacją - exaobliczeń" - dodaje.

Ekologia, ale i...

Wybór procesorów IBM Cell przez ICM nie był podyktowany jedynie chęcią otrzymania najbardziej ekologicznego czy najbardziej wydajnego superkomputera. Jak mówią przedstawiciele Centrum, nie jest sztuką kupić dwa razy więcej serwerów w klastrze niż inni. Przedstawicielom ICM zależało przede wszystkim na szansie stworzenia centrum kompetencji w zakresie nowych architektur. "Zaczęliśmy od Cell, ale w planach są nowe generacje architektur. Daje to szansę naszym informatykom na włączenie się w rozwój nowej technologii. Uczestniczymy w pracach nad optymalizacją dostępnych rozwiązań i projektach aplikacyjnych dla nowych rozwiązań" - tłumaczy prof. dr Marek Niezgódka.

Wybór ICM podyktowany był także ograniczeniami lokalowymi - cały superkomputer stoi w dwóch szafach stelażowych - i co do poboru energii. Także w nowym centrum danych ICM - stworzonym w budowanym Centrum Nowych Technologii (CNT) Uniwersytetu Warszawskiego - zastosowane zostaną proekologiczne i energooszczędne rozwiązania. "Weszliśmy na taki poziom, na którym nie można już pomijać kosztów energii, a będą one coraz większe. W tej chwili kwestia świadomości energetycznej i ekologii, jeśli chodzi o technologie IT, stała się jednym z największych wyzwań. Korzystanie z systemów IT to także jedno z poważniejszych obciążeń systemu energetycznego" - mówi szef ICM.

System Nautilus pobiera 30KW i niewiele mniej wydziela do środowiska. Dlatego ICM chce zastosować rozwiązanie zamknięte i wykorzystać ciepło wydzielane przez serwery w nowym centrum danych do ogrzewania części budynku CNT.

Dla Computerworld komentuje Maciej Remiszewski, architekt systemów obliczeniowych dużej mocy na regi

Dla nas superkomputery to poligon testowy, jak dla przemysłu samochodowego Formuła 1. Przy okazji opracowywania rozwiązań na potrzeby tego typu zastosowań uczymy się także rozwiązywać problemy biznesowe. Jednym z nich jest fakt, że komputery przestały przyspieszać. Parę lat temu procesory stosowane w naszych notebookach czy komputerach desktop osiągnęły granicę częstotliwości 3GHz i od tamtej pory nic się nie zmienia. To bariera, która ogranicza zastosowanie technologii CMOS. Nie można zaś wiecznie po prostu zwiększać liczby procesorów w klastrze. Ogranicza nas coraz rosnące równie szybko zużycie energii i wydzielane ciepło.

Każdy także - nie tylko naukowe centra obliczeniowe - ma problem z upakowaniem serwerów, ich zasilaniem i chłodzeniem. To realny problem dla przedsiębiorstw i instytucji posiadających duże centra danych. Przykładowo w Szwajcarii nasi klienci otrzymują od zakładów energetycznych informacje, że więcej mocy nie dostaną. Tymczasem zastosowane w - pracującym w ICM - superkomputerze Nautilus procesory Cell zostały opracowane w tym celu, aby być jak najbardziej energooszczędne, dlatego maszyny je stosujące zdominowały ranking Green500. W tej architekturze, liczba tranzystorów używanych do celów innych niż obliczenia ograniczona jest do niezbędnego minimum. Serwery IBM BladeCenter QS22 z procesorami PowerXCell8i są dostępne w otwartej dystrybucji, choć w Polsce żaden komercyjny klient ich jeszcze nie stosuje.

W ciągu kilku lat od zastosowania nowych technologii - wykorzystanych wcześniej w superkomputerach - wchodzą one do powszechnej sprzedaży. Tak się stanie też z przetwarzaniem równoległym, nad którym pracujemy od kilku już lat. Biznes widzi też korzyści z systemów dużych mocy. Wykorzystuje się je np. na potrzeby hurtowni danych i ogólnie systemów Business Intelligence. Przykładowo klastry serwerów blade z procesorami Cell są już dziś stosowane w amerykańskich instytucjach finansowych. Ich moc wykorzystywana jest do przetworzenia w ciągu kilku chwil ogromnych ilości danych na potrzeby prowadzonych analiz. Procesory Cell służą jako akceleratory.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200