Ekologia w centrum danych

Ostrożnie ze standardami

Większość z obszarów funkcjonalnych CPD ujęto w specyfikacji TIA-942 (Telecommunications Industry Association), która jako pierwsza podjęła próbę standaryzacji obiektów określanych mianem CPD. Została ona opublikowana w 2005 r., a zatem tylko względnie nowe budynki mogą być projektowane zgodnie z jej założeniami. Większość obecnie funkcjonujących rozwiązań to propozycje konkretnych producentów, oparte na ich własnych produktach i doświadczeniach.

Z obszarów funkcjonalnych CPD warto zwrócić uwagę na systemy klimatyzacji i wentylacji pomieszczeń, których wpływ na koszty związane z zużyciem energii systematycznie rosną.

Choć standardowe parametry temperaturowe i wilgotności dla CPD nie wydają się szczególnie trudne do spełnienia, to w zestawieniu z powierzchnią i liczbą źródeł ciepła w pomieszczeniach centrum danych nie są proste do osiągnięcia. Oprócz tego warto zwrócić uwagę, że proponowane przez TIA parametry temperatury i wilgotności są przez wielu ekspertów i producentów uznawane za przestarzałe, bo - jak wykazują praktyczne testy - serwery mogą bez uszczerbku dla ich niezawodności pracować w temperaturach wyższych o kilka lub nawet kilkanaście stopni i przy wyższej wilgotności. Dlatego projektanci odchodzą ostatnio od rygorystycznego przestrzegania klasycznych zasad budowy CPD, istotnie zwiększając temperatury środowiska CPD, a nawet proponując chłodzenie przy wykorzystaniu dostarczanego bezpośrednio z zewnątrz powietrza.

Aby lepiej zrozumieć problemy związane z planowaniem gęstości rozmieszczenia sprzętu komputerowego w CPD, warto przyjrzeć się jednemu z podstawowych parametrów używanych przez projektantów. Jest to ilość energii na metr kwadratowy powierzchni serwerowni, jaka musi być dostarczona do urządzeń. Najnowsze modele sprzętu (serwerów, pamięci masowych, urządzeń sieciowych) mogą wymagać zasilania na poziomie / 15 kW/m2, które w dużej części zostaje zamienione na ciepło. A jednocześnie szacuje się, że 3 zł wydane na energię elektryczną zasilającą urządzenia, już obecnie wymusza wydatek od 1,5 do 3 zł na zasilanie systemów klimatyzacji i wentylacji. Dlatego utrzymanie stabilnego środowiska produkcyjnego w takim kompleksie jest nie tylko trudne technicznie, ale również kosztowne.

Innym, ważnym obszarem są systemy zasilania bezprzerwowego. Stanowią one, obok systemów klimatyzacji, element o znaczeniu krytycznym dla sieciowej infrastruktury fizycznej - NCPI (Network Critical Physical Infrastructure). Bezpieczne zasilanie składa się najczęściej z zasilaczy UPS oraz zapasowych agregatów prądotwórczych, choć czasami wykorzystywane są też siłownie prądu stałego.

Zaprojektowanie odpowiedniej infrastruktury nie jest łatwym zadaniem. Na przykład zakładając, że do CPD dostarczana jest energia 15 kW/m2, a obiekt ma 1000 m2 powierzchni serwerowej, to trzeba zapewnić zasilanie na poziomie 15 MW. W efekcie niezbędna jest instalacja generatora (a właściwie dwóch), który będzie w stanie wytworzyć taką moc, aby zagwarantować redundancję na poziomie N+1. Ponadto należy przygotować oddzielne pomieszczenia do przechowywania akumulatorów dla systemu UPS oraz dokładnie oszacować zapotrzebowanie na energię pochodzącą z tego źródła, ponieważ przeciążone UPS-y działają znacznie krócej, natomiast niedociążone - mniej wydajnie.

Ciągłe wyszukiwanie

Trzeba zdawać sobie sprawę, że zasadnicza modernizacja CPD wykorzystująca konsolidację serwerów, wdrożenie mechanizmów wirtualizacyjnych, instalację energooszczędnych serwerów, pamięci masowych i przełączników oraz profesjonalny, nowoczesny projekt dla systemów zasilania i klimatyzacji, choć zwiększa efektywność i może rozwiązać problemy związane ze zużyciem energii, to daje efekt jednorazowy. Dlatego błędna byłaby wiara, że są to technologie zapewniające rozwiązanie problemów raz na zawsze - w rzeczywistości umożliwiają one tylko oddalenie potencjalnego kryzysu w czasie.

Dlatego też zdaniem niektórych specjalistów, ważnym warunkiem długofalowego sukcesu jest zatrudnienie menedżera IT, który potrafi i chce analizować ekologiczne parametry systemu, oraz stworzenie zespołu ludzi, mogącego realizować ciągły, niekończący się proces wyszukiwania i eliminowania słabych punktów infrastruktury. Bo nie zawsze trzeba budować nowe, "zielone" centrum danych, wyposażone w najnowsze modele energooszczędnego i efektywnego sprzętu. Czasem wystarczy zadbać o różne szczegóły.

Jak zmniejszyć zużycie energii

Najlepiej zacząć od wentylacji i klimatyzacji. Oszczędzanie ułatwią tu nowe rozwiązania zapewniające lepsze sterowanie systemem. Najciekawsze propozycje to większa integracja układów chłodzenia z szafami dystrybucyjnymi oraz czujnikami zarządzającymi przepływem powietrza. Wprowadzenie innowacyjnych rozwiązań chłodzenia cieczą, montowanych między szafami, umożliwia dostosowanie zakresu chłodzenia do faktycznych potrzeb, bez konieczności zwiększania ogólnej wydajności wszystkich urządzeń.

Równie ciekawym pomysłem wydaje się rozważenie zmian warunków środowiska - przesunięcie zakresu temperatury roboczej o kilka stopni w górę - nawet do poziomu 35oC pozwala na uzyskanie znacznych oszczędności i z reguły nie wpływa na wydajność i niezawodność systemu. Potwierdzają to praktyczne testy przeprowadzone i opublikowane przez Intela.

Innym proponowanym usprawnieniem w serwerowniach jest fizyczne odseparowanie stref zimnych od ciepłych. Takie rozwiązanie umożliwia swobodne poruszanie się w strefach ciepłych (za serwerami), a strefy zimne (z przodu serwerów) byłyby szczelnie zamykane. Podejście to pozwala na zapewnienie chłodzenia o takiej mocy, jakie jest faktycznie potrzebne w określonym, izolowanym segmencie.

Usprawnienia proekologiczne są również przygotowywane w systemach bezprzerwowego zasilania. Najlepszym ekologicznie rozwiązaniem byłoby uzyskiwanie potrzebnej energii ze źródeł odnawialnych (baterie słoneczne, wiatr itp.). Niestety koszt pozyskania energii w ten sposób jest jeszcze zbyt wysoki w stosunku do metod konwencjonalnych. Wskazane byłoby wprowadzanie kolejnych regulacji, zobowiązujących do uzyskiwania części energii z odnawialnych źródeł; inne rozwiązanie to dotacje państwowe do takich działań. Dlaczego to takie istotne? Centra przetwarzania danych pośrednio poprzez zużywaną energię przyczyniają się w dużym stopniu do emisji gazu cieplarnianego. Prognozowany na przyszłe lata rozwój branży IT jeszcze bardziej pogłębi ten problem.

Ekologicznego wyboru można również dokonać, kupując generatory mocy. W tym przypadku podstawowy wybór dotyczy paliwa, jakim są zasilane silniki urządzeń: ropa czy gaz. Ekologia w tej kwestii stawia wyraźnie na gaz.

Swoistym problemem przy korzystaniu z UPS-ów są akumulatory zawierające substancje toksyczne, które bezwzględnie muszą zostać poddawane utylizacji. Niemniej i w tej kwestii z roku na rok zauważa się poprawę. Ostatnio wprowadzane są nowe konstrukcje, zawierające mniej toksyczne lub minimalnie toksyczne substancje robocze, takie jak NiMH (niklowo-metalowo--wodorkowe).

Kluczowym obszarem, z jakim obecnie jest utożsamiane hasło green IT, są serwery kasetowe i proces wirtualizacji. Niewątpliwie wprowadzenie serwerów kasetowych zamiast starych rozwiązań daje profity ekologiczne. W pierwszej kolejności użytkownik uzyskuje zmniejszenie ilości okablowania (o ok. 80%), co podnosi skuteczność chłodzenia, upraszcza infrastrukturę, zmniejsza zapotrzebowanie na miejsce i energię elektryczną. Wdrażając na tym sprzęcie wirtualizację, zyskuje się też możliwość zoptymalizowania wykorzystania mocy obliczeniowych i zasobów, a także łatwiejszego niż w systemach klasycznych ich skalowania i dostosowywania do bieżących wymagań.

Umieszczenie serwerów w jednej obudowie kasetowej pozwala też lepiej spożytkować dostarczaną energię dzięki zmniejszeniu liczby zasilaczy do konwersji z prądu zmiennego na stały. Bo architektura systemów kasetowych wykorzystuje system centralnego zasilania wszystkich zainstalowanych w obudowie elementów. Daje to również lepszy współczynnik wydajności serwera na 1 KhW pobranej mocy. Zależność ta jest też doskonałym miernikiem, jak bardzo ekologiczne jest dane rozwiązanie.

Ale nawet jeśli nie ma planu tak daleko posuniętej modernizacji, to na pewno warto przeprowadzić inwentaryzację sprzętu i jako pierwsze wyeliminować stare energożerne urządzenia, które w większości działających obecnie centrach przetwarzania danych nie są trudne do znalezienia.

RimatriX5 - infrastruktura dla centrum przetwarzania danych

RimatriX5

Rosną koszty zasilania i chłodzenia. Wydajność energetyczna infrastruktury komputerowej odgrywa coraz większą rolę. Jednym z rozwiązań dla centrów przetwarzania danych zmniejszających wydatki na eksploatację systemów IT jest zintegrowana, modularna koncepcja Rittal RimatriX5. Główne jej elementy to: szafy rack (Flex Rack), systemy chłodzenia i wentylacji (w tym grodzie korytarzowe, systemy klimatyzacji powietrza obiegowego oraz wymienniki ciepła woda-powietrze LCP - Licquid Cooling Package); systemy dystrybucji zasilania i zasilania gwarantowanego (PDR, PDM - Power Distribution Rack) oraz system inteligentnego monitoringu infrastruktury IT i zarządzania nią oraz zapewnienia bezpieczeństwa CMC-TC (Computer Multi Control - Top Concept) - nadzór odbywa się tu przez bezprzewodową sieć czujników.


TOP 200