Kolejna ciemna strona technologii AI

Jak dotąd, nikt nie zajął się na poważnie tematem wpływu sztucznej inteligencji na zanieczyszczenie naturalnego środowiska, ale pierwsze informacje dotyczące tego zagrożenia są wysoce niepokojące i powinny dać zwolennikom szybkiego rozwoju tej technologii dużo do myślenia.

Proces trenowania sztucznej inteligencji wymaga sporej ilości wody, która jest potrzebna do chłodzenia systemu obliczeniowego obsługującego taką aplikację. Badanie pokazało, że odpowiadając na 20 do 50 pytań zadanych sztucznej inteligencji, obsługujący ją serwer musi zużyć prawie pół litra wody potrzebnej do schłodzenia.

Chociaż butelka wody o takiej pojemności może się wydawać mało znaczącą wielkością, to biorąc pod uwagę dużą liczbę osób korzystających obecnie z usług konwersacyjnego bota ChatGPT, ilość zużytej wtedy wody robi już wrażenie. Szacuje się, że podczas szkolenia modelu GPT-3, serwery firmy Microsoft zużyły prawie 700 tysięcy litrów wody, czyli tyle samo, ile fabryka samochodów zużywa do wyprodukowania ponad 300 pojazdów.

Zobacz również:

  • Asystent AI Copilot wkroczył do platformy Azure SQL Database
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Sam Altman: AI nie jest „istotą”, a jednym z kolejnych narzędzi

Dlatego Microsoft informuje, że prowadzi już badania mające na celu określić, jak aplikacje wykorzystujące sztuczną inteligencję wpływają na zużycie energii i poziom emisji dwutlenku węgla do atmosfery. Na razie nie wiadomo, aby podobne kroki podjęły inne firmy rozwijające sztuczną inteligencję. Problem jest poważny, gdyż podczas trenowania systemów AI wytwarzane jest ciepło. Można przy tym przypuszczać, że kolejne wersje takich rozwiązań (mówi się tu o następcy modelu GPT-4) będą emitować jeszcze więcej ciepła i problem będzie narastać.

Szczególnie dużo ciepła mają emitować serwery obsługujące aplikacje AI bazujące na modelu opracowanym przez Google, który nosi nazwę LaMDA. Chociaż jak dotąd nie określonego tzw. śladu wodnego, z jakim będziemy mieli do czynienia w przypadku tej technologii, to znawcy problemu ostrzegają, że podczas treningu modelu LaMDA wielkość tę można mierzyć w milionach litrów wody. Dlatego naukowcy ostrzegają, że sztuczna inteligencja jest pod tym względem niebezpieczna i należy już zawczasu bić na alarm i podejść do tego zagadnienia holistycznie, tak aby nie być ponownie mądrym po szkodzie, tak jak to w przeszłości bywało z innymi technologiami IT.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200