Serwery - wkrótce bardziej prądożerne niż telewizory

AMD postanowiło zostać sponsorem badań dotyczących poboru mocy przez serwery w Stanach Zjednoczonych. Szefem projektu został Jonathan Koomey z zasłużonego Lawrence Berkeley National Laboratory.

Koomey oparł swoje szacunki na aktualnych danych udostępnianych m.in. przez IDC. Wynikło z nich, iż 0,6 procenta z całej energii elektrycznej produkowanej w USA pochłaniają serwery. Gdyby wziąć pod uwagę również systemy chłodzące - w tym klimatyzację - liczba rośnie do 1,2 procenta. Dokładnie tyle samo konsumują rocznie telewizory.

W ciągu ostatnich pięciu lat zapotrzebowanie serwerów na energię elektryczną wzrosło ponad dwukrotnie; w 2005 r. pochłonęły one 5 milionów kilowatogodzin, co kosztowało amerykańskie firmy 2,7 miliarda dolarów. Jeśli trendy się utrzymają, już w przyszłym roku serwery będą potrzebować więcej energii elektrycznej niż telewizory.

Zobacz również:

  • Wielka inwestycja Atmana w przetwarzanie danych
  • AI ma duży apetyt na prąd. Google znalazł na to sposób

Jako ciekawostkę warto podać, iż olbrzymia elektrownia w Czarnobylu była w stanie produkować najwyżej 4 miliony kWh rocznie.

Wnioski płynące z badania skłoniły AMD do stworzenia specjalnego wskaźnika, który prezentuje światowe koszty płynące z braku zainteresowania procesorami firmy. Ponoć stawiając na rozwiązania konkurencyjne, firmy tracą obecnie miliard dolarów rocznie (patrz też: "Google porzuca AMD i wraca do Intela?").

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200