Superkomputer oparty na 1-płytowych serwerach

W Los Alamos National Laboratory oddano ostatnio do eksploatacji kompaktowy superkomputer "Bladed Beowulf", któremu nadano roboczą nazwę Green Destiny

W Los Alamos National Laboratory oddano ostatnio do eksploatacji kompaktowy superkomputer "Bladed Beowulf", któremu nadano roboczą nazwę Green Destiny.

Superkomputer Green Destiny został oparty na technologii, której twórcą jest firma RLX Technologies. Jednopłytowe serwery ServerBlade (240 jednostek) tworzą jeden potężny klaster Beowulf. Jest to chyba pierwszy przypadek zastosowania supergęstej architektury wykorzystującej jednostki serwerowe do zbudowania tak silnego klastra.

Wu-Chun Feng (jeden z twórców tego projektu) powiedział, że serwery jednopłytowe pobierają dużo mniej prądu niż tradycyjne, dlatego można nimi dużo łatwiej zarządzać. I to nawet pomimo tego, że dochodzi tu dodatkowy element w postaci połączeń, przez które wszystkie serwery komunikują się między sobą.

Klaster składa się z serwerów, dostarczonych przez RLX Technologies, które zawierają niskoprądowe procesory Transmeta (taktowane zegarem 633 MHz). Projektując klastry oparte na jednopłytowych serwerach należy brać pod uwagę dwa istotne czynniki: oprogramowanie zarządzające klastrem i połączenia obsługujące komunikację między serwerami. W superkomputerze zbudowanym w Los Alamos zastosowano Ethernet 100 Mb/s (wbudowane w każdy serwer), które podłączono do przełącznika Ethernet 10/100. Jeśli chodzi o oprogramowanie, informatycy zdecydowali się na pakiet Control Tower 2 (firmowe rozwiązanie RLX).

W Los Alamos uruchomiono jakiś czas temu klaster Little Blue Penguin, składający się ze 128 układów CPU (oprogramowanie VALinux). Instalowanie trwało dość długo i inżynierowie musieli pokonać wiele problemów, a i zarządzanie klastrem nie jest najłatwiejsze. Obliczono też, że roczne utrzymanie klastra (opieka informatyczna) kosztuje 15 tys. USD.

W przypadku klastra Beowulf (i oprogramowania dostarczonego przez RLX) sprawa przedstawia się dużo lepiej. Klaster skonfigurowano w dwie godziny, a jego utrzymanie kosztuje tylko 200 USD.

Jeśli chodzi o połączenia między serwerami, to specjaliści oceniają, że łącza oparte na Ethernecie (zastosowane w tym projekcie) to jednak za mało. HP zamierza na przykład stosować w swoich produktach, opartych na architekturze jednopłytowych serwerów, technologię InfiniBand. Dell zapowiedział z kolei, że jego jednostki serwerowe będą się komunikować ze światem zewnętrznym przez połączenia InfiniBand 2,5 Gb/s.

Problem z technologią InfiniBand polega na tym, że prace nad standardem ciągle trwają. A perspektywy są obiecujące. IDC podaje, że w 2005 r. ponad 50 proc. serwerów będzie dysponować układami InfiniBand. Użytkownicy, którzy chcą już teraz stosować w klastrach połączenia pracujące szybciej niż Ethernet, mogą skorzystać z kilku firmowych rozwiązań, takich jak np. Myrinet (firmy Myricom).