Inteligencja nie naszych maszyn

Hasło „sztuczna inteligencja” urosło tego lata do symbolu apokaliptycznych cywilizacyjnych zagrożeń. Grupa znamienitych amerykańskich liderów rynku nowych technologii i naukowców sformułowała apel o zdefiniowanie bezpiecznych zasad dla badań nad sztuczną inteligencją.

Ostrzeżenie przed niekontrolowanym rozwojem systemów sztucznej inteligencji należy uznać za rzecz niebłahą, bo w chórze wątpiących znaleźli się tacy jak Elon Musk, jeden z najbardziej znaczących inwestorów w Krzemowej Dolinie, najgłośniejszy kosmologiczny celebryta Stephen Hawking czy twórca potęgi Microsoftu Bill Gates.

Postęp mocy obliczeniowej komputerów, w tym przede wszystkim rozwój cyfrowych metod analizowania danych, sugeruje, że wkrótce będziemy mieli do czynienia z systemami mogącymi podejmować złożone decyzje bez udziału człowieka. Maszyny mogłyby stać się dla człowieka zagrożeniem, gdyby decyzje przez nie podejmowane skutkowały ograniczeniem naszej wolności lub bezpieczeństwa. Chodzi tu nie tyle o błędy w oprogramowania lub konstrukcyjne, ile o wyposażenie robotów w cechy pozwalające przejąć wobec ludzi inicjatywę.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • ONZ rekrutuje roboty, aby osiągnąć globalne cele rozwoju
  • Sophos pisze o cyberzagrożeniach w 2023 roku

Wojsko rekrutuje roboty

Media podchwytujące w sezonie ogórkowym żwawo takie tematy uwypukliły wojskowy wątek badań nad sztuczną inteligencją i robotyką. Apel grupy autorytetów świata nowych technologii i nauki skierowano głównie do rządów finansujących badania i prace wdrożeniowe związane ze sztuczną inteligencją. Istotnie, amerykańska wojskowa agencja DARPA wspiera w tej dziedzinie dziesiątki programów, a zastosowanie systemów autonomicznych to nie jakaś odległa perspektywa. Aktywności badawczej innych państw najczęściej możemy się tylko domyślać, ale każde, które na to stać, z pewnością próbuje zbytnio nie odstawać w światowym wyścigu zbrojeń. Argumenty za użyciem robotów w działaniach wojskowych są dosyć istotne. Chodzi o szybkość i skuteczność kontrolowania sytuacji w czasie operacji wojskowych oraz o bezpieczeństwo żołnierzy. W najogólniejszym sensie tego rodzaju rozważań, jeżeli maszyna może zrobić coś lepiej niż żołnierz, trudno się spodziewać, by z niej zrezygnować z powodu hipotetycznych problemów.

Problemem jest jednak rządowe finansowanie badań nad systemami, które będą wymykać się ustalonym naszym doświadczeniem systemom wartości i uregulowań. Debata o pojawieniu się w przestrzeni publicznej robotów dowodzi, jak wiele należy wprowadzić nowych rozstrzygnięć natury prawnej lub etycznej. Wypracowane razem z rozwojem nowoczesnego przemysłu uregulowania dla transportu drogowego, kolejowego, lotniczego, morskiego, uregulowania kształtujące rozwój systemów komunalnych w miastach, czy też uregulowania dla urządzeń medycznych – wszystkie muszą podlegać obecnie rewizji w związku z pojawieniem się urządzeń mogących działać autonomicznie.

Państwowa inteligencja

Systemy sztucznej inteligencji będą miały trudny do ogarnięcia, wręcz nieograniczony potencjał zastosowań cywilnych. Tym bardziej ich rozwój w tajnych wojskowych laboratoriach może budzić obawy. Należy wziąć pod uwagę przynajmniej dwie zasadnicze kwestie. Po pierwsze, w przypadku systemów sztucznej inteligencji mamy do czynienia ze zjawiskiem nazywanym niekiedy w rozwoju technologii efektem kumulacji. Trzeba zainwestować ogromne pieniądze, by przełamać istniejące bariery, a efekt jest wciąż niepewny. W przypadku takich przedsięwzięć zwykle potrzeba potężnego inwestora, który podejmie ryzyko niekonwencjonalnej porażki. Państwo, działając w interesie publicznym, posługuje się inercyjną biurokracją. Przez to nie jest zbyt sprawnym programatorem innowacji i złożonych zadań badawczych. Wystarczy zauważyć, jak niemrawo przebiega tworzenie zasad funkcjonowania w przestrzeni publicznej systemów bezzałogowych, oczywiście poza standardowymi pomysłami na prewencyjne restrykcje.

Po drugie, wciąż stosunkowo niewiele wiemy o funkcjonowaniu ludzkiego mózgu, więc trudno jest odpowiedzialnie diagnozować, jak powinna być skonstruowana maszyna zdolna do podejmowania decyzji w sposób, który będzie przypominał myślenie człowieka. Stan rozwoju psychiatrii, psychologii, neurologii, a również socjologii pokazuje, że trzeba na to czasu. Istnieje spore ryzyko, że twórcy systemów określanych jako „inteligentne” będą próbować tworzyć specjalnie dostosowane kategorie „inteligencji” bardzo różne od tego, czego oczekiwalibyśmy od myślącego człowieka. Czy jesteśmy w stanie pisać specjalizowane kodeksy określające zasady prawne dla społecznych ról myślących po swojemu maszyn?

Widzieć dalej, skakać wyżej, myśleć szybciej

Obecne komputery i roboty są już dzisiaj wystarczająco zaawansowane, by konkurować z człowiekiem w niektórych dziedzinach. Dzięki ich zastosowaniu zmieniły się bardzo istotnie nasze codzienne życie i praca, krajobraz przemysłu, biur, handel, świadczenie usług. Nie prowokuje to, przynajmniej na razie, zbyt spektakularnych protestów związków zawodowych, zatroskanych o utracone miejsca pracy, ale wiele tradycyjnych zawodów staje się niepotrzebnych lub przynajmniej zmienia charakter.

Możemy się posługiwać zaawansowanymi technologicznie narzędziami wspomagającymi nasze własne zdolności przetwarzania informacji, zapamiętywania, analizowania, no i oczywiście przesyłania w sieci na odległość. Również w tej dziedzinie skutki badań dla potrzeb wojska mogą rodzić obawy osób zatroskanych ryzykiem niekontrolowanego rozwoju systemów sztucznej inteligencji. Żołnierz przyszłości przypomina cyborga, który ma zwyciężyć przeciwnika nie tylko dzięki lepszemu wyszkoleniu i broni, ale również dzięki sprzętowi poprawiającemu jego zdolności fizyczne, motoryczne, funkcjonowanie wszystkich zmysłów. W tym przypadku Stephen Hawking ma szczególne powody, by wiedzieć, o czym mowa. Maszyny pomagają mu komunikować się ze światem przez całe dorosłe życie, chociaż trochę łagodząc jego fizyczną ułomność. Zastosowania medyczne, egzoszkielety, protezy, urządzenia wspomagające zmysły wzroku, słuchu potrzebne niepełnosprawnym rodzą jednak pytania o granice udoskonalania zdolności osób zdrowych.

Skoro moglibyśmy się obawiać sztucznej inteligencji robotów, to czy nie powinniśmy również brać pod uwagę ryzyka sztucznego poprawiania inteligencji ludzi?

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200