Sposoby na tańszą serwerownię

Od 2009 spotyka się jednak inny schemat zasilania - z linii zasilającej średniego napięcia generuje się prąd stały o napięciu 575 V, który jest dystrybuowany do szaf. W każdej szafie znajduje się przetwornica, która dostarcza napięcia 48 V, którym zasilane są serwerów. Każde z tych przekształceń jest znacznie sprawniejsze od transformowania prądu przemiennego, co umożliwia zaoszczędzenie energii elektrycznej (większość ekspertów uważa, że uwzględniając efekt kaskadowy, można oszczędzić do 25%). Modernizacja może być dość prosta, w wielu serwerach wystarczy wymienić zasilacze i zabudować przetwornice do szaf. W przypadku serwerów kasetowych koszt modernizacji per serwer będzie niższy. Ponadto w przyszłości można będzie wykorzystać serwery przystosowane do zasilania z sieci 575V (na przykład IBM Power 750).

7. Rozważyć chłodzenie geotermiczne

W cieplejszych regionach free cooling nie będzie mieć zastosowania cały rok. Podczas gorącego lata można skorzystać z odprowadzenia ciepła do gruntu, który potrafi zmagazynować znaczne ilości energii latem i oddać je zimą. Technologia takiego chłodzenia jest prosta, ale wymaga rozległych instalacji, które muszą być obliczone pod kątem możliwości pochłonięcia ciepła przez cały rok, by uniknąć wysycenia. Należy także rozważyć zagadnienia związane z wpływem na środowisko naturalne przy większych mocach.

8. Chłodzić wodą z morza lub jeziora

W odróżnieniu od chłodzenia geotermicznego duże zbiorniki wodne są w praktyce data center praktycznie nieskończonym rezerwuarem energii. Jedyne ograniczenie polega na tym, by serwerownia znalazła się dostatecznie blisko, ponadto chłodzenie wodą z zewnątrz wymaga kosztownego wymiennika ciepła. Scenariusz ten nie jest wcale nowy, elektrownie korzystają z zasobów wody do chłodzenia od wielu lat, ale nadal rzadkością są serwerownie, które aktywnie korzystają z wody morskiej do chłodzenia maszyn na dużą skalę. Przykładem mogą być serwerownie Hamina firmy Google zlokalizowane w Finlandii, w zabudowaniach powstałych po przekształceniu starej papierni. Wykorzystano przy tym istniejące ujęcie wody z Bałtyku, co znacznie zmniejszyło koszty wdrożenia. Naturalna woda służy także do chłodzenia data center uniwersytetu Cornell University's Ithaca, gdzie wody z pobliskiego jeziora Cayuga Lake chłodzą nie tylko serwery, ale także wszystkie niezbędne instalacje w kampusie. Instalacja wybudowana w 2000 r. przepompowuje 132 m3 na godzinę, dostarczając wodę o temperaturze około 4 stopni Celsjusza do budynków kampusu, odległych o 4 km.

Na podstawie: 8 radical ways to cut data center power costs - Mel Beckman, Computerworld.

PUI - święty Graal data center

Jedną z metryk sprawności energetycznej serwerowni jest współczynnnik Power Usage Effectiveness (PUI), który określa odsetek ogółu pobieranej przez data center energii elektrycznej do ilości energii przeznaczonej na obliczenia. Im ten współczynnik jest mniejszy, tym lepiej, idealna wartość to 1.0, oznaczająca, że całość energii jest wykorzystana przez serwery i inne urządzenia IT, bezpośrednio biorące udział w przetwarzaniu danych. Często spotykana wartość to 2,0, co oznacza, że na każde dwa waty pobrane przez data center, tylko jeden jest użytecznie wykorzystany przy obliczeniach. Pozostały 1 W jest zużywany na odprowadzenie ciepła generowanego przez serwery oraz tracony w różnych miejscach infrastruktury. Wynik 1,5 jest uznawany za bardzo dobry, optymalizowane kontenerowe data center w polskich warunkach osiągają PUE 1,25, najsprawniejsze serwerownie Google osiągają średniorocznie 1,19.


TOP 200