Woda będzie chronić treści

Zdaniem specjalistów ewolucja systemów chłodzenia serwerów w kierunku technologii wykorzystujących płyny jest nieunikniona.

Zdaniem specjalistów ewolucja systemów chłodzenia serwerów w kierunku technologii wykorzystujących płyny jest nieunikniona.

Zużycie energii przez serwery i związaną z nimi infrastrukturę (w mld kWh)

Zużycie energii przez serwery i związaną z nimi infrastrukturę (w mld kWh)

Systemy chłodzenia wykorzystujące płyny wkrótce staną się standardem w i zastąpią klasyczną klimatyzację oraz mechanizmy wykorzystujące chłodzenie strumieniami powietrza. Jest to obecnie najbardziej efektywna metoda zapobiegania gwałtownie rosnącym kosztom zużycia energii, która jednocześnie umożliwia utrzymanie wzrostu gęstości mocy przetwarzania w najbliższych latach. Zdaniem Roberta Mitchella z Computerworld USA jest to tendencja, której popularyzacja nastąpi bardzo szybko.

Systemy bezpośredniego chłodzenia płynami nie są wielką nowością - już w latach 60. XX w. IBM zastosował je w swoich komputerach, a w połowie lat 80. były one standardowym wyposażeniem ponad 90% modeli komputerów mainframe. Ale w centrach danych stosujących klastry serwerów unixowych lub x86 standardem wciąż jest chłodzenie wykorzystujące nadmuch powietrza. Problemem jest przekonanie menedżerów IT, że wprowadzenie obiegu wody do ich systemu wyposażonego w cenne serwery i jeszcze cenniejsze dane nie grozi katastrofą.

Obecnie większość z nich słysząc o propozycji systemu wodnego chłodzenia serwerów wymagającego instalacji sieci rurek przechodzących przez wrażliwe na wilgoć systemy elektroniczne z reguły reaguje nerwowo. Ale IBM ma nadzieję, że jego doświadczenia związane z systemami mainframe pomogą przełamać te obawy. Zresztą nie tylko IBM, ale praktycznie wszyscy producenci serwerów już od kilku lat oferują własne systemy chłodzenia płynami. Jednocześnie należy zwrócić uwagę, że woda jest już obecna praktycznie we wszystkich centrach danych, bo jest ona podstawowym elementem systemów klimatyzacyjnych.

Więcej wydajności, więcej ciepła

W ciągu ośmiu lat moc obliczeniowa serwerów wzrosła średnio 75-krotnie, a ich wydajność w przeliczeniu na Wat zużywanej mocy elektrycznej - 16-krotnie (wg danych HP). Oznacza to, że producenci procesorów i sprzętu mają dobrą podstawę do twierdzeń, że postęp w budowie energo-oszczędnych układów i systemów jest zasadniczy. Ale jednocześnie liczba serwerów wykorzystywanych w centrach danych równie systematycznie rośnie i jest obecnie największa w historii, podobnie jak gęstość ich upakowania. W niektórych firmach już obecnie instalowane są szafy stelażowe wymagające ponad 30 kW mocy zasilania.

Optymalizacja jest ważna

Energooszczędny procesor, serwer i wydajny układ chłodzenia to tylko niektóre elementy infrastruktury centrum danych, na które należy zwrócić uwagę. Przy próbie optymalizacji zużycia energii przez system warto pamiętać także o innych czynnikach i możliwościach zwiększenia efektywności. Przede wszystkim zużycie energii przez serwery, których moc jest wykorzystana w 10 lub 80%, jest prawie takie samo, a więc konsolidacja i wirtualizacja mogą mieć duży wpływ na oszczędność energii. Natomiast przy rozważaniu opcji dla lokalizacji centrum danych może warto zacząć brać pod uwagę również takie czynniki, jak średnie lokalne temperatury. Pod tym względem najlepsza lokalizacja dla centrum danych w Polsce to chyba Suwałki...

Według producentów serwerów gęstość upakowania będzie w najbliższych latach nadal zwiększana i mimo stosowania nowych, energooszczędnych technologii moc niezbędna do zasilania szafy stelażowej lub kasetowej wzrośnie nawet do 50 kW. Ten kierunek rozwoju technologii serwerowych jest też nieunikniony. Jak mówi Christian Belady, inżynier z HP zajmujący się systemami chłodzenia w centrach danych: "Porównanie kosztów energii i eksploatacji w wypadku systemów o małej i wysokiej gęstości zdecydowanie świadczy na rzecz tych ostatnich i z punktu widzenia efektywności dążenie do zwiększania upakowania serwerów jest kierunkiem niemającym na razie alternatywy".

Ciemna stronaprawa Moore'a

Tak zwane prawo Moore'a mówi o dwukrotnym wzroście gęstości upakowania elementów półprzewodnikowych oraz wydajności procesorów co półtora roku. Przewidywanie to zostało sformułowane przez Gordona Moore'a, współzałożyciela firmy Intel w roku 1965 i do dzisiaj sprawdza się z zadziwiającą dokładnością. Do niedawna mało kto zauważał jednak, że prawo to można zastosować również do zużycia energii przez układy półprzewodnikowe, które rośnie podobnie jak wydajność. Kilkanaście lat temu nie było to problemem, bo wówczas nowe, 2-krotnie wydajniejsze od poprzedników modele wprowadzanych na rynek procesorów zużywały 8 W i nikt nie zwracał uwagi, że wymagają aż dwukrotnie więcej energii w porównaniu ze starszymi układami zużywającymi tylko 4 W mocy.

Ale gdy ostatnio typowy pobór mocy układów serwerowych osiągnął poziom 90-110 W, jego dwukrotne zwiększenie stwarza zasadniczy problem, bo klasyczne systemy chłodzenia przestają wystarczać. Dodatkowo sytuację pogarsza tendencja do zwiększania gęstości upakowania - liczby możliwych do zainstalowania w jednym serwerze lub szafie stelażowej czy kasetowej procesorów. Niektórzy administratorzy centrów danych lekceważą tego typu przewidywania, traktując je raczej jako marketing, teoretyczne rozważania analityków niemające dużego związku z rzeczywistością lub fanaberie "zielonych" ekologów. Wynika to m.in. z tego, że wzrost kosztów energii nie jest przez nich zauważany, bo koszty te z reguły nie są elementem budżetu IT. Czy to się jednak podoba czy nie, fakty mówią same za siebie. Według IDC, w USA w 2005 r. firmy wydały ok. 5,8 mld USD na energię do zasilania serwerów i 3,5 mld USD na systemy klimatyzacji, a jednocześnie 20,5 mld USD na zakupy nowego sprzętu.

Przez ostatnie lata ceny serwerów (przy wzroście wydajności) pozostają wciąż na podobnym poziomie, a nawet nieco spadają, a jednocześnie systematycznie wzrastają koszty dodatkowej infrastruktury niezbędnej do działania centrów danych i jej utrzymania. Uwzględniając te tendencje, prosta estymacja każe przewidywać, że już w przyszłym roku te ostatnie przewyższą koszt zakupu sprzętu, a jednocześnie koszty energii i eksploatacji systemów chłodzenia będą największą pozycją w rachunku TCO (całkowite koszty utrzymania). Potwierdzają to przykłady praktyczne. Google przyznaje, że w ostatnich latach trzykrotnie zmodyfikował infrastrukturę, wprowadzając nowe generacje bardziej energooszczędnego sprzętu do swoich centrów danych, a jednocześnie odnotował dwukrotny wzrost całkowitego zużycia energii.

Dlaczego płyny?

Aby sobie praktycznie uzmysłowić wzrost ilości ciepła generowanego przez serwery, warto włączyć piekarnik na pełną moc (ok. 3 kW) i po chwili otworzyć jego drzwi. A moc cieplna generowana przez w pełni wypełnioną serwerami szafę stelażową jest blisko 10-krotne większa. System chłodzenia musi stabilnie obniżać temperaturę w tych 10 piekarnikach do poziomu poniżej kilkudziesięciu stopni C.

Perspektywy popularyzacji systemów wykorzystujących do chłodzenia wodę lub inne płyny są nieuniknione, bo z punktu widzenia efektywności są one znacznie lepsze od systemów wykorzystujących powietrze. Wynika to z podstawowych praw fizyki - pojemność cieplna wody lub innych płynów, zwłaszcza w przeliczeniu na jednostkę objętości, jest znacznie większa niż powietrza. Można oczywiście dalej zwiększać intensywność chłodzenia powietrzem, ale okazuje się to drogą nieefektywną, bo przy wzroście gęstości generowanej mocy znacznie lepiej sprawdza się architektura wykorzystująca lokalne chłodzenie.

Dlatego też wszystko wskazuje na to, że za kilka lat standardem będą serwery wyposażone w dodatkowy "port" przeznaczony do podłączenia obiegu płynu chłodzącego umożliwiającego bezpośredni odbiór energii od procesora i ewentualnie innych elementów systemu generujących dużą ilość energii.

Pierwsze rozwiązania

Możliwości instalacji serwerów w klasycznej szafie stelażowej wyposażonej w standardowy system chłodzenia o nominalnej mocy 6 kW

Możliwości instalacji serwerów w klasycznej szafie stelażowej wyposażonej w standardowy system chłodzenia o nominalnej mocy 6 kW

Systemy wykorzystujące mechanizmy lokalnego chłodzenia płynami są już od kilku lat oferowane przez różnych producentów serwerów, np. IBM, HP lub Egenera, a także inne firmy, jak APC lub Liebert. Pewnym problemem jest to, że brakuje standardów, tzn. każde z dostępnych na rynku rozwiązań jest rozwiązaniem firmowym, praktycznie pod każdym względem niezgodnym z systemami innych producentów. HP zaprezentował nowe modele serwerów dla centrów danych wyposażone w system MCS (Modular Cooling System), wykorzystujący wodę do chłodzenia szaf stelażowych, Egenera - moduły CoolFrame, umożliwiające chłodzenie szaf kasetowych za pomocą specjalnego płynu. Wcześniej, już w połowie ub.r., wodny system chłodzenia serwerów o nazwie Cool Blue wprowadził IBM.

IBM eServer Rear Door Heat eXchanger (Cool Blue) to specjalne drzwi o grubości ok. 10 cm przeznaczone do instalacji w szafach stelażowych serwerów rodziny eServer Enterprise. Drzwi są wyposażone w zintegrowany system rurek, w których przepływa zimna woda pobierana z zewnętrznego systemu klimatyzacji. Zdaniem przedstawicieli IBM, tego typu rozwiązanie jest praktyczne, bo już obecnie 80-90% centrów danych jest standardowo wyposażonych w klimatyzację wykorzystującą wodę jako płyn chłodzący. Według IBM, testy Cool Blue przeprowadzone przy wykorzystaniu szafy zawierającej 84 serwery wykazały zmniejszenie emisji ciepła poza szafę o 55% oraz o 15% zmniejszenie zużycia energii przez system. Kosztuje ok. 4300 USD, a pierwszym zestawem serwerów IBM oferowanym wraz z Cool Blue jest eServer Cluster 1350.

Skala zużycia

Według IDC, w 2000 r. na świecie działało 14,1 mln serwerów, a w 2005 r. liczba ta wzrosła blisko dwukrotnie, tj. do 27,4 mln sztuk. Jednocześnie, jak ocenia Jonathan Koomey z Lawrence Berkeley National Laboratory, średnie zużycie energii wzrosło w 2005 r. do 218 W (ze 183 W w 2000 r.) w wypadku serwerów x86, do 638 W (423 W) dla serwerów klasy mid-range oraz 12 682 W (5322 W) w przypadku maszyn klasy high-end. Natomiast średnie zużycie energii przez wszystkie serwery (bez uwzględnienia klimatyzacji i infrastruktury, a także innych typów komputerów, jak PC) to obecnie ok. 0,8% całkowitego światowego zużycia energii.


TOP 200