Stephen Hawking ostrzega - sztuczna inteligencja może być groźna

Sztuczna inteligencja do wspaniałe osiągnięcie ludzkiego umysłu, ale coraz częściej rozlegają się głosy, że może ona również działać destrukcyjnie na wiele aspektów naszego życia, a nawet zagrażać naszej egzystencji, czy mówiąc bardziej ogólnie zdefiniować na nowo słowo humanizm. Obawy te podziela znany angielsko fizyk i kosmolog Stephen Hawking.

Chociaż konstruowanym obecnie maszynom, robotom i komputerom obdarzonym sztuczną inteligencją daleko jest do doskonałości, a prawdziwe humanoidy, myślące jak człowiek, pozostają dalej w sferze rozważań science-fiction, to niektórzy już snują różne teorie, jak dalece zmienią one w przyszłości nasze życie.

Stephen Hawking pisze w jednym ze swoich artykułów (opublikowanym w poczytnej brytyjskiej gazecie The Independent), że sztuczna inteligencja jest motorem rozwoju i przyczynia się do powstawania zupełnie nowych technologii. Znajduje ona zastosowanie np. w samochodach „self- driving”, czyli takich, które monitorują całe otoczenie i potrafią jeździć same. To samo można powiedzieć o komputerze Watson (IBM) biorącym udział w USA w teleturnieju Jeopardy, czy o takich urządzeniach, jak Siri (osobisty cyfrowy asystent), oprogramowaniu Google Now (inteligentny asystent stworzony przez firmę Google, dostępny w systemie operacyjnym Android) czy aplikacji Cortana (program napisany dla systemu Windows Phone 8.1).

Zobacz również:

  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Sophos pisze o cyberzagrożeniach w 2023 roku

Jednak Stephen Hawking dostrzega też zagrożenia, jakie niesie ze sobą sztuczna inteligencja, i pisze: „wszystkie te osiągnięcia są niczym w porównaniu do tego, co przyniesie nam przyszłość". A mogą to być takie rozwiązania z obszaru sztucznej inteligencji, które zmienią radykalnie sposób funkcjonowania rynków finansowych czy zdefiniują na nowo szereg pojęć z obszaru socjologii. Powstaną też zapewne nowe rodzaje broni, o których aktualnie nie mamy nawet pojęcia. I podczas gdy obecnie możemy sobie zadawać pytania, kto powinien kontrolować urządzenia obdarzone sztuczną inteligencją, to w przyszłości pojawi się problem, czy można je w ogóle kontrolować.

Naukowiec Steve Omohundro napisał ostatnio rozprawę, w której wymienia sześć podstawowych rodzajów zagrożeń, jakie przyniesie ze sobą sztuczna inteligencja. Wskazuje też, jak można im zapobiec. A można to robić według niego na trzy sposoby.

Po pierwsze: nie należy przystępować do projektowania urządzeń obdarzonych sztuczną inteligencją, wiedząc iż mogą one stwarzać zagrożenia, których skutków nie jesteśmy w stanie przewidzieć. Wygląda na to, że obecny stan technologii nie pozwala nam jeszcze projektować takich urządzeń, które mogą się wymknąć spod kontroli, ale lepiej jest dmuchać na zimne.

Po drugie: badać zawczasu – jeszcze w trakcie testowania urządzenia – czy nie będzie ono miało dostępu do zbyt wielu zasobów i w efekcie jego działania mogą się obrócić przeciwko nam i przynieść szkody. Pisząc oprogramowanie zarządzające takimi urządzeniami należy się też stosować do starej maksymy sformułowanej przez Hipokratesa, odnoszącej się co prawda do medycyny, ale mającej również zastosowanie w przypadku sztucznej inteligencji – po pierwsze nie szkodzić.

I wreszcie po trzecie: jeśli jednak urządzenie takie, posiadające swoją własną autonomię, pracuje już i zaczyna działać w obszarach, do których nie powinno mieć dostępu, należy domniemać, że może się to źle skończyć i natychmiast je wyłączyć. W przeciwnym przypadku może się to skończyć tak, jak to widać w niektórych filmach science-fiction, gdy jakiś humanoid zaczyna działać na własną rękę i nikt nie ma nad nim kontroli.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200