Idą superkomputery

Obok najpopularniejszego cytatu z Billa Gatesa, mówiącego, że 640 kB pamięci operacyjnej wystarczy dla każdego, popularny jest również ten, że na światowym rynku jest miejsce dla co najwyżej pięciu komputerów. Zdanie to przypisywane jest Thomasowi J. Watsonowi, ówczesnemu szefowi IBM-a, który tę funkcję sprawował w latach 1914-1956. I mimo iż nie ma dowodów na to, że to akurat on powiedział to zdanie, to do T. J. Watsona - twórcy wykorzystywanej do dzisiaj przez IBM-a koncepcji THINK - pasuje ono jak ulał. I, co więcej, może okazać się prawdziwe!

Obok najpopularniejszego cytatu z Billa Gatesa, mówiącego, że 640 kB pamięci operacyjnej wystarczy dla każdego, popularny jest również ten, że na światowym rynku jest miejsce dla co najwyżej pięciu komputerów. Zdanie to przypisywane jest Thomasowi J. Watsonowi, ówczesnemu szefowi IBM-a, który tę funkcję sprawował w latach 1914-1956. I mimo iż nie ma dowodów na to, że to akurat on powiedział to zdanie, to do T. J. Watsona - twórcy wykorzystywanej do dzisiaj przez IBM-a koncepcji THINK - pasuje ono jak ulał. I, co więcej, może okazać się prawdziwe!

Wirtualizację zasobów komputerowych na IBM-owskich mainframe'ach wykorzystywano już w latach 60. ubiegłego wieku. To wtedy inżynierowie z zachodniego wybrzeża USA pod koniec dnia pracy wysyłali zadania do przeliczenia dla maszyn stojących na wschodnim wybrzeżu (ich zasoby były wtedy już mniej wykorzystywane, jako że oba wybrzeża dzielą cztery strefy czasowe). Zauważony wówczas fakt, że istnieją techniczne możliwości na pełne wykorzystanie posiadanych zasobów i zapomniany potem na dobre 20 lat, wraca dziś ze zwielokrotnioną siłą.

Dziś olbrzymie zasoby mocy obliczeniowej rozproszone są po całym świecie. Ich utylizacja, jak wskazują statystyki, jest na poziomie kilku procent (stąd tak wielki sukces wirtualizacji). Ale próby ich wykorzystania w przetwarzaniu rozproszonym spaliły na panewce. Problemem okazała się niewystarczająca niezawodność sieci. Jeśli zadań do przeliczenia nie da się pozbierać w paczki (tak jak w projektach typu SETI), to przetwarzanie rozproszone bez profesjonalnej infrastruktury sieciowej się nie uda.

Tu pojawia się miejsce dla superkomputerów - klastrów mniejszych maszyn, które połączone ze sobą (najczęściej za pomocą technologii InfiniBand) służą dziś przede wszystkim naukowcom. Ale o swoich wizjach nie zapomina też IBM. Jednym z ostatnich planów jest zbudowanie superkomputera, który... obsłuży cały internet. W urządzeniu budowanym w ramach projektu Kittyhawk miałoby się znaleźć 67,1 mln rdzeni CPU i 32 PB RAM - wszystko oparte na już wykorzystywanej przez IBM architekturze Blue Gene/P. Zdaniem przedstawicieli IBM-a, serwery korzystające z zalet przetwarzania symetrycznego (jak Blue Gene) mają wiele zalet, dzięki którym nadają się do hostingu usług internetowych lepiej niż zwyczajne klastry (głównie ze względu na oszczędność miejsca i energii elektrycznej).

Z drugiej strony, klastry są dużo przyjaźniejsze dla kieszeni klientów i o wiele prostsze w rozbudowie. Dzieje się tak dlatego, że w dużej mierze składają się z powszechnie dostępnych na rynku podzespołów. To właśnie ta elastyczność w doborze mocy obliczeniowej do potrzeb spowodowała, że firmy takie jak Sun Microsystems, Amazon, Google czy Microsoft wykorzystują klastry w swoich internetowych centrach danych. Taki klaster stanął też w Politechnice Gdańskiej - superkomputer Galera ma 1344 procesory czterordzeniowe Intel Xeon, co daje łącznie liczbę prawie 5400 rdzeni. Jest to najszybsza maszyna w regionie CEE i dziewiąta co do wielkości w Europie.

W jednej z ostatnich dyskusji z przedstawicielami IBM-a padła opinia, że być może już za kilka lub kilkanaście lat wizja rzekomo wypowiedziana przez T. J. Watsona się sprawdzi. Po jednym komputerze mieliby mieć rząd i armia amerykańska oraz po jednym Ameryka Północna, Europa i Azja. Obok takiego komputera stanęłaby elektrownia atomowa, a sam obiekt byłby najlepiej strzeżonym miejscem na kontynencie. Dostęp odbywałby się oczywiście na żądanie - nie tylko ze stacji roboczych, ale także wszelkiego rodzaju urządzeń przenośnych.

Ale czy tak się stanie? Osobiście wątpię. Dyskusje z naukowcami korzystającymi z mocy obliczeniowej gdańskiej Galery uświadomiły mi, że ich potrzeby są praktycznie nieskończone. Przykład: do tej pory w jednym z tworzonych przez nich modeli siatka miała krawędzie o boku kilkudziesięciu centymetrów. Dzięki superkomputerowi można to zmniejszyć do kilku. Ale ideałem byłoby zejście na poziom mikrocząsteczek. A w obecnej chwili do tego nie wystarczą wszystkie stworzone do tej pory komputery razem wzięte..


TOP 200