Samoświadome roboty: czy jesteśmy bezpieczni?

Ostatnie przełomowe doniesienia z obszaru sztucznej inteligencji sprawiają, że dotychczasowe apokaliptyczne wizje końca ludzkości nabierają realnych kształtów – a przynajmniej przestają wydawać się szalone.

Rychły koniec ludzkości wywołany rozwojem sztucznej inteligencji prognozują najsławniejsze umysły współczesnego świata nauki i technologii. Apokaliptyczne wizje szerzone przez m.in. Stephena Hawkinga, Nicka Bostroma, Elona Muska, Billa Gatesa i Steve’a Wozniaka jeszcze niedawno wydawały się być mocno przesadzone, wręcz dyktowane strachem przez nieznanym. Jednakże, za sprawą licznych doniesień potwierdzających stworzenie samoświadomych robotów, dziś nie wydaje się to już tak nierealne.

Jednym z takich doniesień jest informacja o przełomowym teście w zakresie sztucznej inteligencji opublikowana w magazynie popularnonaukowym „New Scientist”. Otóż, jeden z testowanych robotów był w stanie rozwiązać skomplikowaną zagadkę wymagającą umiejętności rozpoznania własnego głosu i przewidywania skutków wydarzeń.

Zobacz również:

  • Amazon do pracowników: roboty was nie zastąpią
  • Sztuczna inteligencja od Apple wymagać może nowych procesorów

W skrócie, trzy testowane roboty poinformowano o tym, że tylko jeden z nich nie został wyciszony i nadal wydaje dźwięki. Wszystkie trzy roboty próbowały powiedzieć „nie wiem” w odpowiedzi na pytanie o to, który z nich nie został wyciszony, ale tylko jeden był w stanie zwokalizować swoją wypowiedź. Gdy robot usłyszał własny głos, zmienił odpowiedź i stwierdził, że to on jest rozwiązaniem zagadki.

Co ważne, opisany wyżej test był wcześniej wielokrotnie przeprowadzany na tych samych robotach, ale po raz pierwszy jeden z nich był w stanie rozwiązać zagadkę w oparciu o dotychczasowe samodzielnie uczenie się i doświadczenie. Ta umiejętność „zgadywania” tudzież „myślenia” robotów jest dużo bardziej niepokojąca niż ich samoświadomość.

Przeciwnicy apokaliptycznej wizji końca świata wywołanego przez roboty powtarzają, że nie tylko komputery, ale też ludzie potrafią „zwariować”. To niewątpliwie prawda, ale pamiętajmy, że ludzka społeczność kieruje się mimo wszystko pewnymi wytycznymi, ustanawiając mechanizmy kontrole gwarantujące równowagę i ograniczające szkody wyrządzane przed pojedyncze jednostki. Przykładem takich mechanizmów jest chociażby wojskowa struktura dowodzenia czy próby powstrzymywania napastników przez policję lub przechodniów. Wystarczy spojrzeć na to, co działo się podczas ataku terrorystycznego z 11 września – ruch lotniczy we wszystkich stanach USA został uziemiony w ciągu kilku minut.

Zależność człowieka od komputerów – asystujących lub przejmujących kontrolę nad niektórymi czynnościami – zwiększa się. Inteligentne systemy stanowią dziś integralną część programów zbrojeniowych, elektrowni jądrowych, sygnalizacji świetlnej, pojazdów wyposażonych w technologie bezprzewodowe, samolotów i wielu innych urządzeń. Wszyscy obawiają się, że terroryści mogliby przejąć kontrolę nad tak kluczowymi systemami. Ale dużo gorszy scenariusz to zyskanie przewagi przez komputery za pośrednictwem rozwiązań sztucznej inteligencji i odebranie ludziom kontroli nad systemami z użyciem siły. Oczywiście, taki rozwój zdarzeń przypomina klasyczną fabułę filmów science-fiction, w których maszyny samodzielnie kalkulują i wybierają inne rozwiązania niż te podsuwane im przez człowieka.

Rozważając taki scenariusz, warto zwrócić uwagę na fragment wspomnianego wyżej artykułu opublikowanego w „New Scientist”. Badanie rzuca bowiem światło dzienne również na definicję ludzkiej świadomości. Subtelna różnica między świadomością robota i człowieka zawiera się w umiejętności poznania fenomenologicznego, czyli „doświadczenia świadomej myśli z pierwszej ręki”, jak twierdzi Justin Hart z Uniwersytetu Kolumbii Brytyjskiej w kanadyjskim Vancouver. Ta różnica odzwierciedla się na przykład przy obserwowaniu wschodu słońca – czym innym jest faktyczne doświadczanie takiego zjawiska, a czym innym posiadanie neuronów w korze wzrokowej zdolnych do odbioru takich bodźców. Bez umiejętności poznania fenomenologicznego roboty są jedynie „filozoficznymi zombie” zdolnymi do modelowania świadomości, ale faktycznie jej nieposiadającymi.

Takie rozumowanie wydaje się być ukłonem w stronę ludzkości – dzięki pełnej świadomości człowiek zawsze będzie o krok przed robotami. Niemniej jednak, istnieje też druga strona medalu. Równie prawdopodobne jest bowiem to, że koniec końców maszyny będą posiadać umiejętność myślenia na sposób ludzki, ale bez moralnej busoli. Przykładowo, skonfrontowane z falą głodu i maksymalną eksploatacją systemy rolnego, mogą wywnioskować, że rozwiązaniem problemu jest redukcja populacji – na przykład poprzez eksterminację ludzi z wykorzystaniem elektrowni jądrowych znajdujących się pod kontrolą tych maszyn.

Można więc zapomnieć o trzech prawach robotów stworzonych przez Isaaca Asimova. Organizacja Narodów Zjednoczonych już raz próbowała wyznaczyć zasady dla robotów stosowanych na polu walki, które mogą samodzielnie decydować o tym, kiedy zabijanie ludzi jest odpowiednim rozwiązaniem.

Powyższe przykłady pokazują, że istnieje jednak cienka granica, która nigdy nie powinna zostać przekroczona przez sztuczną inteligencję. Czym innym jest bowiem doskonalenie Siri tak, by lepiej rozumiała mowę ludzką i generowała trafniejsze odpowiedzi, a czym innym jest pozwolenie jej na usuwanie rzadko używanych aplikacji w oparciu o historię użytkownika. Co gdyby zechciała zablokować pobieranie gier w godzinach pracy albo przed ważnym deadlinem? Tragedia.

Mówi się, że inżynierowie nie najlepiej sprawdzają się w stawianiu ograniczeń – dużo lepiej wychodzi im przesuwanie granic i sprawdzanie, jak daleko można się posunąć. To świetna cecha, o ile nie prowadzi do powstania takich tworów, jak chociażby android Lore w Star Treku. Czy to oznacza, że innowacyjne systemy tworzone przez najwyższej klasy inżynierów mogą sprawić, że apokaliptyczna wizja przedstawiana w produkcjach science-fiction stanie się faktem?

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200