Ochłodzić gorące serwery

W dobie konsolidacji obciążeń, nowoczesnych wysoko wydajnych serwerów kasetowych i szybkich macierzy dyskowych do przeszłości należy klimatyzator naścienny i stare proste podejście do odprowadzenia ciepła.

Postęp technologiczny sprawia, że w serwerowniach wielu firm rozpoczął się proces konsolidacji i wdrożeń w wirtualizowanych środowiskach, korzystając z wysoko wydajnych serwerów. Komputery również się zmieniły - stosuje się serwery kasetowe o wysokiej gęstości upakowania podzespołów.

Starsze serwery, zajmujące do pięciu szaf, wydzielały około 12-15 kW ciepła, a nowoczesne serwery o znacznie większej mocy obliczeniowej od wszystkich starszych razem wziętych zmieszczą się w jednej szafie. Oznacza to, że przy modernizacji z serwerów wolnostojących lub rackowych o niskiej gęstości mocy do kasetowych niezbędne będzie przekonstruowanie zasilania i chłodzenia.

Zobacz również:

  • AI ma duży apetyt na prąd. Google znalazł na to sposób
  • OpenAI rozważa stworzenie własnych układów scalonych AI
  • Dell Technologies Forum 2023

Dużo ciepła w małej objętości

Gęstość mocy, typowo przyjmowana na około 15 kW na szafę dla lekkich konstrukcji przy pełnym obciążeniu maszyn, jest zbyt duża, by móc odprowadzić ją przez zwykły nawiew czy starsze koncepcje korytarzy o niedużym przepływie powietrza. Jeśli firma potrzebuje obsadzenia wszystkich szaf serwerami kasetowymi o gęstości rzędu 20 kW na szafę, niezbędna jest instalacja, która potrafi odprowadzić tak dużo ciepła z małej powierzchni. Wówczas najkorzystniejszym rozwiązaniem jest lokalne chłodzenie cieczą. Woda lodowa ma wysoką pojemność cieplną, dlatego też przy niewielkim przepływie potrafi odebrać bardzo duże ilości energii. Po umiejscowieniu wysokosprawnych wymienników ciepła w bezpośrednim otoczeniu serwerów i zapewnieniu dobrej cyrkulacji powietrza można odprowadzić 28 kW ciepła z każdej szafy (stosując rozwiązanie firmy Rittal zestawiane z szafą serwerową, pracujące przy przepływie powietrza przez serwery na poziomie rzędu 4800 m3/h). W miarę wzrostu gęstości mocy pojawiają się ograniczenia technologiczne wynikające z konieczności zapewnienia równomiernego chłodzenia wszystkich maszyn - próg pojawia się przy mocy około 30 kW na szafę. Jeśli potrzeby biznesowe związane z ograniczeniami miejsca w serwerowni wymuszają skrajnie głęboką konsolidację przy dużej gęstości mocy, obecna technologia potrafi odprowadzić nawet 80 kW ciepła z pojedynczej szafy. Są to jednak projekty dopasowywane do konkretnych serwerów i instalacji, związane z pracą mocno obciążonych, skonsolidowanych środowisk o bardzo wysokiej wydajności. Przy projektowaniu systemu należy wziąć pod uwagę nie tylko zalecenia i szczegóły konstrukcyjne urządzeń, ale także dodatkowe informacje na temat chłodzenia dostarczane przez producentów. Pomocne są być audyty termowizyjne - kamera FLIR umożliwia wychwycenie gorących punktów instalacji.

Nadążanie za zmianami

Serwery, wykazują dużą zmienność ilości wydzielanego ciepła, zależną od ich obciążenia. Zmiany związane z oszczędnością energii elektrycznej w procesorach oraz innych składnikach serwera jeszcze bardziej podwyższają różnicę między ilością generowanego ciepła pod obciążeniem i w stanie spoczynku. Znaczenia nabiera regulacja wydajności chłodzenia, która musi nadążać za zmianami wydzielanego ciepła.

Dodatkowym problemem jest sterowanie systemem - wykorzystanie pojedynczego czujnika dla całego pomieszczenia, zainstalowanego w zimnym korytarzu sprawia, że system będzie działać powoli, nie nadążając za zmianami. Jeśli mamy do dyspozycji wiele czujników i większą liczbę wymienników, system będzie bardziej elastyczny.

Chłodzimy tylko szafę

Przy ograniczeniu strefy chłodzenia do szaf z urządzeniami utrzymanie stałej temperatury staje się o wiele łatwiejsze, ale wymaga sterowania każdą ze stref z osobna. W przypadku chłodzenia cieczą regulacja wydajności może się odbywać przez zmianę szybkości przepływu wody lodowej przez wymienniki ciepła. To prosty i sprawny sposób, przy czym dobrze reaguje na wzrosty obciążenia, a dzięki obecności czujników temperatury w każdej szafie odpowiada szybko na wzrost ilości wydzielanego ciepła. Tak zbudowany system działa precyzyjnie, chłodząc intensywnie tylko te urządzenia, które wydzielają najwięcej ciepła. Uzyskanie takiej sprawności i szybkości reakcji przy instalacjach z zimnymi i gorącymi korytarzami jest trudne.

Gdy strefa chłodzenia jest ograniczona do szafy, nie ma potrzeby utrzymywania specjalnych urządzeń klimatyzacji precyzyjnej, mających za zadanie regulację wilgotności powietrza w chłodzonej strefie. Wynika to z niewielkiej ilości powietrza w zamkniętym obiegu.

Dodatkową zaletą zamknięcia obiegu powietrza w obrębie uszczelnionej szafy jest możliwość wyposażenia jej w autonomiczny moduł gaszenia pożaru. Jest on znacznie czulszy, działa bardzo szybko, a sam pożar nie zdąży się mocno rozwinąć dzięki niewielkiej ilości tlenu w zamkniętej strefie szafy. Rozwiązania gaśnicze mogą zajmować mało miejsca (1U), niezbędna ilość środka gaśniczego jest niewielka, a gaszenie działa szybko, w początkowej fazie pożaru. Zaletą jest też sprawne objęcie ochroną każdej z szaf, niezależnie od pomieszczenia, w którym się znajdują. Ma to niebagatelne znaczenie, gdy szafy są rozlokowane w różnych pomieszczeniach na terenie firmy.

Metoda chłodzenia pojedynczej szafy ma także zastosowanie w niektórych instalacjach przemysłowych - gdy urządzenia teleinformatyczne mieszczą się w niewielkiej szafie, można wykorzystać systemy chłodzące o niedużej mocy (do 5 kW), zapewniając zadane parametry powietrza wewnątrz, niezależnie od warunków otoczenia. Rozwiązania te są łatwe i szybkie we wdrożeniu, przy małych mocach nie wymagają żadnych prac budowlanych poza doprowadzeniem zasilania i wbudowaniem elementów mocujących.

Ciągłość działania

Systemy chłodzenia są niezbędne do pracy data center, ale mogą być podatne na awarie. Mimo że są to urządzenia zaprojektowane do długotrwałej pracy ciągłej, w praktyce stosuje się konfigurację nadmiarową postaci 2n lub n+1, obejmując nie tylko wymienniki ciepła, ale także przewody, zawory czy pompy. Przy dobrze dopracowanym projekcie z wymaganą redundancją awaria pojedynczego elementu nie powoduje przerw w pracy data center.

Przy zabezpieczeniu ciągłości działania data center istotna jest ochrona przed skutkami przerw w dostawach energii. Zasilanie całego systemu chłodzącego z zasilacza awaryjnego rzadko jest akceptowalne pod względem kosztów, zazwyczaj UPS-y podtrzymują pracę komputerów, wentylatorów i pomp, urządzenia chłodnicze są zasilane z sieci i agregatu prądotwórczego. Dzięki temu, że woda lodowa charakteryzuje się wysokim ciepłem właściwym, krótkotrwała przerwa w zasilaniu nie powoduje istotnego spadku wydajności chłodzenia - po starcie agregatu prądotwórczego agregat chłodzący uruchamia się szybko, a w tym czasie pewien nadmiar ciepła przejmuje płynny czynnik chłodniczy, zapewniając skuteczne chłodzenie.

Można sporo zaoszczędzić

W naszym klimacie często temperatura na zewnątrz jest na tyle niska, że można odprowadzić ciepło bez konieczności użycia agregatów chłodzących. Metoda odprowadzenia ciepła bez pośrednictwa agregatów i pomp ciepła, nazywana free cooling, jest niezwykle sprawna w Polsce zimą, działa podczas chłodnej części wiosny i zimniejszej jesieni, w praktyce może pracować przez co najmniej 150 dni w roku. Obecnie przyjmuje się temperaturę wchodzącego powietrza w zimnym korytarzu na poziomie + 24 st. wg skali Celsjusza, a zatem jeśli tylko temperatura powietrza na zewnątrz budynku nie przekracza tej wartości, free cooling przynosi istotne oszczędności. W odróżnieniu od rozwiązań chłodzenia mieszanym powietrzem atmosferycznym, wykorzystanie wymiany ciepła umożliwia odseparowanie serwerów od powietrza zewnętrznego, a zatem zbędne staje się dokładne filtrowanie wchodzącego powietrza i budowanie precyzyjnie sterowanej komory mieszającej. Dodatkowo można ją wykorzystać przy chłodzeniu szaf nawet o bardzo wysokiej gęstości mocy, a sama instalacja jest prosta i niezawodna.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200