IT: ekologicznie i ekonomicznie

Efektywność energetyczna sieci

Obecne prognozy mówią, że w dziesięcioleciu 2010-2020 nastąpi 88-krotny wzrost ruchu w sieciach bezprzewodowych, 10-krotny w kablowych sieciach dostępowych oraz 8-krotny w sieciach rdzeniowych. Dlatego też jeśli nie nastąpi zasadnicza zmiana technologii sieciowych to do 2020 roku zwiększenie zużycia energii przez infrastrukturę będzie ogromne. Według GreenTouch, istnieją potencjalne możliwości sprostania temu wyzwaniu. Na przykład, wykorzystywane obecnie sieci znajdują się w stanie ciągłej gotowości, nawet wtedy, gdy okresowo spadają wymagania na ich przepustowość.

Specjaliści z GreenTouch opracowali architekturę umożliwiającą rozwiązanie tego problemu i budowę sieci, której elementy lub kompletna infrastruktura mogą być wyłączane lub włączane zależnie od bieżących wymagań. Wykorzystuje ona mechanizmy podobne do stosowanych w systemach wirtualizacji serwerów, gdzie procesory, ich rdzenie obliczeniowe lub maszyny wirtualne można względnie łatwo wyłączać, gdy spada zapotrzebowanie na ich usługi. „Architektura taka w praktyce oznacza, że zasoby sieciowe stają się zbiorem klocków Lego, które można dodawać lub usuwać zależnie od bieżących potrzeb” – ocenił Klein. Jednocześnie proces włączania/wyłączania urządzeń jest na tyle szybki, że nie powoduje opóźnień, które byłyby trudne do zaakceptowania.

Zobacz również:

  • Architektura IT w postpandemicznym świecie

Pod względem zużycia energii najmniej efektywne są obecnie sieci bezprzewodowe. Według analiz przeprowadzonych przez GreenTouch, już obecnie dostępne są technologie i architektury, których zastosowanie pozwoliłoby na ponad 1000-krotną redukcję ich energochłonności. W tym wypadku, jednym ze sposobów jest rezygnacja z wykorzystywania dużych, wieżowych stacji bazowych na rzecz małych mikrokomórek instalowanych na ulicach miast lub wewnątrz budynków.

Ale to oczywiście powoduje, że pojawia się jeszcze więcej elementów infrastruktury, które wymagają zasilania. Uzyskanie efektu oszczędności energii w wypadku infrastruktury bezprzewodowej również wymaga zastosowania rozwiązań umożliwiających włączanie/wyłączanie jej pojedynczych elementów zależnie od bieżącego zapotrzebowania na transmisję danych lub nawet dopasowywania mocy zasilania indywidualnych anten. Jeśli chodzi o systemy przewodowe, to według raportu GreenTouch, do 2020 roku możliwe będzie 449-krotne zmniejszenie poboru mocy, a w przypadku infrastruktury rdzeniowej – 95-krotne.

Technologie optyczne powszechnie wykorzystywane w sieciach przewodowych już dziś powodują, że są one bardziej efektywne pod względem zużycia energii niż sieci bezprzewodowe. Dalsze możliwości zwiększenia ich energooszczędności są związane przede wszystkim z wdrożeniem Bi-PON (Bit-interleaved Passive Optical Networks), rozszerzeniem zakresu lokalnego przechowywania treści (content caching) oraz separacją sieciowych warstw kontrolnej i danych.

Podstawowe metody zwiększenia energetycznej efektywności centrów danych

• Zastosowanie procesorów najnowszej generacji. Kolejne rodziny wielordzeniowych układów Intela lub AMD z reguły wykorzystują ulepszone mechanizmy przetwarzania wielowątkowego i oferują wyższą wydajność przetwarzania w przeliczeniu na pobieraną moc zasilania.

• Serwery. Wykorzystanie nowoczesnych narzędzi programowych pozwala na zwiększenie efektywności nawet starszych modeli serwerów, a także identyfikację i eliminację komputerów „zombie”, które wciąż działają w centrach danych mimo, że nikt ich nie wykorzystuje.

• Wirtualizacja. Wirtualizacja umożliwia zwiększenie mocy przetwarzania typowego serwera, zmniejszenie liczby niezbędnych serwerów fizycznych, co w efekcie pozwala na uzyskanie istotnych oszczędności w zużyciu energii.

• Cloud computing. Skorzystanie z przetwarzania w chmurze zewnętrznego dostawcy usług eliminuje rachunki za energię zużywaną przez własne centrum danych. Nie oznacza to, że użytkownik przestaje płacić za nią, bo jest ona wliczona w cenę usługi. Ale efektywność energetyczna dużych centrów danych jest z reguły wyższa, a inwestycje w jej poprawienie bardziej opłacalne. Czy lub w jakim stopniu oszczędności te dotyczą użytkownika to już inna kwestia, ale w całkowitym bilansie daje to zmniejszenie zużycia energii.

• Systemy chłodzenia w centrach danych. Nowoczesne rozwiązania i architektury dotyczące systemów chłodzenia centrów danych umożliwiają istotne zwiększenie ich efektywności energetycznej. Nie należy ich lekceważyć, bo wraz ze wzrostem gęstości mocy przetwarzania i zastosowaniem technologii wirtualizacyjnych, wymagania na chłodzenie rosną do poziomu przewyższającego zużycie energii niezbędnej do przetwarzania danych.

Wirtualizacja jako źródło energooszczędności

Wirtualizacja i konsolidacja serwerów to jedna z najbardziej efektywnych metod zmniejszenia poboru energii przez system IT. Przemawiające za nią argumenty są powtarzane od lat i można przyjąć, że trafiły już do powszechnej świadomości. Jeśli w niektórych centrach danych nie wykorzystuje się jeszcze tej technologii to nie ulega wątpliwości, ze powinna być na pierwszym miejscu w planach modernizacji wykorzystywanego systemu IT.

Ale wirtualizacja serwerów daje praktycznie jednorazowy efekt i pojawia się pytanie: co dalej? Pojawiają się już oryginalne pomysły, takie jak „wirtualizacja” systemów chłodzenia. Jest to koncepcja wykorzystania jednej zewnętrznej „fabryki zimnej wody” do zasilania wielu centrów danych. Pomysł taki jest już praktycznie realizowany przez amerykański bank First National of Nebraska. Zdaniem jego przedstawicieli, współdzielenie systemu chłodzenia przez wiele centrów danych należących do różnych firm dobrze się sprawdza, bo pozwala na zwiększenie jego efektywności energetycznej i zmniejsza koszty.

Wyższa temperatura = mniej energii

Więcej kontrowersji wywołuje koncepcja istotnego zwiększenia dopuszczalnej temperatury w centrum danych. Warto tu przypomnieć że już w 2011 roku organizacja ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers), zmodyfikowała swoje rekomendacje dotyczące zakresu dopuszczalnych temperatur w centrach danych podnosząc ich zalecany poziom z 25 do 27 stopni Celsjusza. A według szacunków, zwiększenie temperatury w centrum danych o 1 stopień daje około 4% oszczędności w zużyciu energii przez system chłodzenia.

Wyższa temperatura zwiększa możliwości wykorzystania systemów chłodzenia powietrzem zewnętrznym. Choć zależy to od lokalnego klimatu, ale wpływa on tylko na poziom potencjalnych oszczędności.

Jednocześnie praktyczne testy przeprowadzone m.in. przez Intela, Facebooka i Microsoft w ich centrach danych wykazały, że wyższe temperatury nie mają szkodliwego wpływu na ich pracę. Co więcej Intel opublikował raport, w którym sugeruje, że oferowane na rynku masowym serwery mogą pracować w temperaturach sięgających nawet 35 stopni Celsjusza bez negatywnego wpływu na ich pracę i niezawodność.

Koncepcja podwyższenia temperatury nie cieszy się jednak dużą popularnością. Według badania ankietowego przeprowadzonego w 2013 roku przez Uptime Institute, zaledwie w 7% ankietowanych firm w centrach danych utrzymywana jest temperatura przekraczająca 24 C.


TOP 200