Powstała petycja ostrzegająca ludzkość przed niekontrolowanym rozwojem sztucznej inteligencji

Ponad 1000 osób ze świata IT podpisało w tym tygodniu list otwarty, który wzywa do zaprzestania przez kilka najbliższych miesięcy prac nad rozwijaniem technologii sztucznej inteligencji. Autorzy uważają, że w tym czasie należałoby opracować jasne zasady, dzięki którym technologia ta nie wymknie się spod kontroli ludzkości.

Grafika: Jack-Moreh/freerangestock

Zainteresowanie sztuczną inteligencją osiągnęło bezprecedensowy poziom, a nowe aplikacje AI są udostępniane opinii publicznej niemal codziennie. Petycja odnosi się do braku planowania w kwestii wdrażania zaawansowanych modeli sztucznej inteligencji i tego, co nazywa niekontrolowanym przez nikogo wyścigiem. Dlatego na naszych oczach niemal codziennie powstają nowe systemy AI, których sami twórcy nie do końca rozumieją i trudno jest im przewidzieć, do czego to wszystko doprowadzi.

List podpisało wiele tuzów ze świata IT, w tym Elon Musk i Steve Wozniak, współzałożyciel firmy Apple. Ciekawe i znamienne jest to, że pod petycją nie widnieje podpis Sama Altmana, czyli dyrektora generalnego firmy OpenAI. W liście opublikowanym przez organizację non-profit Future of Life Institute sygnatariusze petycji wzywają laboratoria AI do wstrzymania rozwijania nowych wersji tej technologii, jeszcze potężniejszych niż ta opracowana przez firmę OpenAI. Uważają również, że rządy poszczególnych krajów powinny przyjąć moratorium na rozwijanie AI, do czasu uchwalenia odpowiedniego prawa regulującego tę kwestię.

Zobacz również:

  • GPW WATS – twarda podstawa do globalnego konkurowania
  • Musk ostrzega, że ludzkość nie docenia sztucznej inteligencji

Petycja wymienia potencjalne zagrożenia dla ludzkości i społeczeństwa ze strony AI, w tym możliwość szerzenia dezinformacji i powszechną automatyzację stanowisk pracy. W liście wezwano firmy zajmujące się sztuczną inteligencją do stworzenia i wdrożenia specjalnych protokołów bezpieczeństwa, które kontrolowałyby sztuczną inteligencję i były ciągle monitorowane przez niezależnych ekspertów.

Sugerowana przez petycję przerwa w rozwijaniu AI dałaby laboratoriom sztucznej inteligencji i niezależnym ekspertom czas na opracowanie protokołów bezpieczeństwa dla zaawansowanego projektowania AI, dzięki któremu systemy sztucznej inteligencji będą dokładniejsze, bezpieczniejsze, bardziej przewidywalne i godne zaufania.

Groźne je to, że uruchomienia chatbota OpenAI skłoniło szereg kolejnych firm do wprowadzenia własnych rozwiązań tego typu. Dlatego rozwój technologii AI przebiega chaotycznie i nikt nie wie, dokąd nas zaprowadzi.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200