Superkomputer czy liczydło?
- Łukasz Bigo,
- 31.10.2005, godz. 12:29
Zgodnie z szacunkami agencji AFCOM centra obliczeniowe wielkich firm każdego roku pochłaniają o osiem procent więcej energii elektrycznej, a wzrost w największych ośrodkach wynosi ponad dwadzieścia procent rocznie. Wobec problemu z rosnącymi cenami ropy naftowej i wyższymi kosztami produkcji energii ich opłacalność staje się coraz bardziej palącą kwestią.
Dotychczasowe rachunki za energię elektryczną były w wielu firmach z branży IT na tyle niskie, by nie brano ich zbytnio pod uwagę podczas szacowania opłacalności firmy. Taka sytuacja ulega jednak powolnej zmianie.
W tej chwili koszt wyprodukowania prądu w Stanach Zjednoczonych to aż 90 procent jego ceny. W przeciągu pięciu ostatnich lat margines umożliwiający elektrowniom zarabianie na produkcji prądu bardzo się skurczył. Jedna z firm już zapowiedziała wzrost cen o blisko 30 procent.
Głównym problemem z dużym zapotrzebowaniem na prąd jest, paradoksalnie, postępująca miniaturyzacja urządzeń. Upakowywanie coraz potężniejszych serwerów w coraz mniejszych pomieszczeniach implikuje potrzebę montowania lepszych układów chłodzących oraz zwiększanie wydajności klimatyzacji.
Takie działania znacząco podnoszą zapotrzebowanie na energię. Szacuje się, że w chwili obecnej aż jedną piątą kosztów TCO dla serwera stanowi cena zużywanej przez niego i klimatyzację energii elektrycznej.