AI ma duży apetyt na prąd. Google znalazł na to sposób

Centra danych obsługujące AI mają podobny problem do tego, jaki dotyczy wydobywania Bitcoina na dużą skalę: ogromne zużycie energii elektrycznej. Google jest jedną z tych firm, której zależy na tym, aby zapobiec "bombie węglowej".

Data center / Fot. Meg Roussos, Bloomberg

Data center / Fot. Meg Roussos, Bloomberg

Technika Google'a zyskuje na popularności, gdy w sieci pojawia się coraz więcej energochłonnej AI. O co chodzi? Firma stosuje oprogramowanie do poszukiwania "czystej energii" w tych częściach świata, gdzie na sieci jest nadmiar wiatru czy słońca — czyli tam, gdzie można akurat aktywować data center i przenieść na nie odpowiednie obciążenia. Tym sposobem firma może zmniejszyć emisję dwutlenku węgla (korzystając z energii odnawialnej), ale też obniżyć rachunki za prąd.

Ryzyka klimatyczne wywołane przez obliczenia napędzane AI są dalekosiężne i pogorszą się bez dużego przesunięcia z elektryczności opartej na paliwach kopalnych na czystą energię. Dyrektor generalny Nvidia, Jensen Huang, powiedział niedawno, że AI osiągnęła "punkt zwrotny". Dodał, że koszt centrów danych podwoi się w ciągu pięciu lat, aby zasilić rozwój nowego oprogramowania.

Zobacz również:

  • Przeglądarka Chrome będzie jeszcze jakiś czas akceptować pliki cookie
  • Majowa konferencja Apple może być ważniejsza niż oczekujemy
  • AI a DC - oto jest wyzwanie

Natomiast już teraz centra danych i sieci transmisyjne odpowiadają za nawet 1,5% globalnego zużycia prądu. Razem to tyle samo dwutlenku węgla, co wytwarza rocznie Brazylia.

Hiperskalery mają sporo pracy do wykonania

Hiperskalery, tacy jak Google, Microsoft i Amazon, wyznaczyli cele klimatyczne i stoją przed wewnętrzną i zewnętrzną presją, aby je realizować. Do tych ambitnych celów należy dekarbonizacja ich operacji.

Wzrost AI wprowadza jednak chaos w tych celach. Jednostki przetwarzające grafikę były kluczowe dla rozwoju dużych modeli językowych, ale zużywają więcej prądu niż centralne jednostki, używane w innych formach obliczeń. Aby to zobrazować: szkolenie modelu AI zużywa więcej energii niż 100 gospodarstw domowych w ciągu roku.

Co więcej, zużycie energii przez AI jest zmienne i bardziej przypomina wykres zębatej piły niż gładką linię, do której większość operatorów centrów danych jest przyzwyczajona. To sprawia, że dekarbonizacja jest wyzwaniem, nie wspominając o zapewnieniu stabilności sieci.

Aby obniżyć emisję CO2 z centrów danych, hiperskalery i inni dostawcy centrów danych finansowali m.in. ogromne ilości farm słonecznych lub wiatrowych. To jednak za mało.

Operatorzy zwracają się obecnie do strategii stosowanej przez Google, nazywanej przesuwaniem obciążenia. Idea: zmniejszenie emisji poprzez zmianę sposobu funkcjonowania centrów danych.

Zadania realizowane tam, gdzie świeci słońce

Giganci technologiczni szukają możliwości przesunięcia codziennych lub nawet godzinnych operacji centrów danych na całym świecie w celu wchłonięcia nadmiaru produkcji energii odnawialnej.

W ostatnich latach Google i Amazon testowali przesunięcie użytkowania centrów danych dla własnych operacji i dla klientów korzystających z ich usług w chmurze.

"Centra danych Google działają na energii wolnej od węgla przez ok. 64% czasu, przy czym 13 regionalnych lokalizacji osiąga 85%, a siedem nieco ponad 90%" — powiedział Michael Terrell, który prowadzi strategię Google dotyczącą energii wolnej od węgla 24/7.

Dzięki wykorzystaniu oprogramowania do śledzenia dostępności czystej energii elektrycznej Google jest w stanie przesuwać operacje swoich centrów danych w taki sposób, aby maksymalizować wykorzystanie energii odnawialnej. To podejście, znane jako przesuwanie obciążenia (load shifting), pozwala na zmniejszenie śladu węglowego operacji i kosztów, a także wspiera globalne cele dekarbonizacji.

Podobne rozwiązania chcą już stosować inne firmy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200