Maszyny do zabijania

Sztuczna inteligencja i wykorzystujące ją roboty zaczną wkrótce znajdować groźne zastosowania militarne ostrzegają eksperci, którzy podpisali list otwarty do ONZ nawołujący do kontroli rozwoju takich technologii.

Prototypowy robot do wspomagania działań żołnierzy opracowany Google Boston Dynamics. Źródło: Eric Keenan/DOD, IDG News Service.

„Jeśli pojawi się nowa generacja robotów zastępujących żołnierzy, może to doprowadzić do wojen o skali większej niż kiedykolwiek, które będą wybuchać szybciej niż ludzie są w stanie zareagować” napisano w otwartym liście adresowanym do ONZ. Broń taka może zostać wykorzystana przez terrorystów lub despotyczne państwa, a jeżeli nawet będzie kontrolowana przez instytucje krajów demokratycznych, to włamanie do systemu sterowania może doprowadzić do nieprzewidzianych, groźnych konsekwencji.

„Nie mamy wiele czasu na podjęcie odpowiednich działań. Gdy puszka Pandory zostanie już otwarta to bardzo trudno będzie ją zamknąć” ostrzegają autorzy listu. Trzecia rewolucja w sposobie prowadzenia działań wojennych, czyli autonomiczne roboty jako zabójcza broń o niespotykanych dotąd możliwościach zaczyna nabierać realnych kształtów.

Zobacz również:

  • ONZ rekrutuje roboty, aby osiągnąć globalne cele rozwoju
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Copilot Pro czyli subskrypcja na AI - wkraczamy w nową erę usług?

W ogólności broń autonomiczna to taka, która sama wybiera cele i atakuje je bez bezpośredniego udziału i kontroli przez człowieka. Są to na przykład uzbrojone drony, które można wysłać by strzelały i zabijały każdą osobę znajdującą się na zdefiniowanym obszarze. Do kategorii broni autonomicznej nie są zaliczane drony zdalnie sterowane przez człowieka, których aktywność jest kontrolowana i odpalenie pocisku w kierunku zarejestrowanych obiektów wymaga jego decyzji.

Rzeczywistość dogania science fiction, a ONZ dopiero zaczyna dyskusję

„Inaczej niż w przypadku innych zaawansowanych urządzeń wykorzystujących sztuczną inteligencję, które często wciąż należą do kategorii science fiction, systemy broni autonomicznej są już prawie gotowe do użytku i możliwość ich zastosowania to bardzo realne zagrożenie dla ludzi zwłaszcza w obliczu niestabilnej sytuacji politycznej w wielu regionach świata. To nie jest jakiś hipotetyczny scenariusz, a rzeczywista sytuacja, która wymaga szybkiego podjęcia działań zapobiegających zagrożeniu” mówi Ryan Gariepy, założyciel i CTO w firmie Clearpath Robotics.

Podobne obawy ma profesor Mary-Anne Williams z University of Technology (Sydney), która widzi przerażającą przyszłość: „uzbrojone roboty atakujące ludzi podobnie jak welociraptory z filmu Park Jurajski, zwinne i podejmujące błyskawiczne decyzje przy wykorzystaniu precyzyjnych sensorów wspomaganych przez systemy komputerowe”.

Stąd też wziął się list otwarty do ONZ zwracający uwagę na takie problemy. Jest to już druga taka inicjatywa. Pierwszy list został opublikowany w 2015 roku i podpisany m.in. przez tak znane osoby jak Stephen Hawking, Steve Wozniak i Noam Chomsky.

Obecnie 116-tu uznanych na świecie specjalistów zajmujących się technologiami robotycznymi i sztuczną inteligencją podpisało kolejny list otwarty nawołujący do wprowadzenia zakazu badań i rozwoju militarnych, uzbrojonych robotów, które mogą działać autonomicznie.

Trzeba przyznać, że organizacja ONZ potraktowała sprawę poważnie. Podjęła decyzję o powołaniu zespołu GGE (Group of Governmental Experts – grupa ekspertów reprezentujących rządy) do wypracowania opinii o autonomicznych systemach zabójczej broni (Lethal Autonomous Weapon Systems) i zaproponowania odpowiednich działań.

W grudniu 2016 roku przedstawiciele 123 państw, członków ONZ, podczas konferencji dotyczącej przeglądu przestrzegania zasad traktatu o broni konwencjonalnej (UN Review Conference of the Convention on Conventional Weapons), jednogłośnie zaakceptowali wniosek o rozpoczęciu formalnej dyskusji na temat broni działającej autonomicznie. Ale warto zauważyć, że tylko 19 państw opowiedziało się jednoznacznie za wprowadzeniem zakazu jej rozwijania.

Oprócz tego już na początku pojawiły się problemy. Pierwsze spotkanie tego zespołu GGE miało się odbyć w sierpniu 2017 roku, ale przesunięto je na listopad ze względów organizacyjno-finansowych.

Pojawia się pytanie, czy potencjalne wprowadzenie przez ONZ przepisów prawa międzynarodowego zakazujących opracowywania technologii dotyczących broni wykorzystującej autonomiczne roboty do zabijania ludzi spowoduje, że będą one powszechnie przestrzegane.

Można mieć poważne wątpliwości czego najświeższym przykładem jest Korea Północna, która nie tylko rozwija technologię związaną z bronią atomową, ale również bombami wodorowymi. Te ostatnie technologie zostały już dawno temu zakazane przy poparciu zdecydowanej większości państw. Bo wielkość zniszczeń wywoływanych przez takie odpalenie takich ładunków może być nawet kilkaset razy większa od skutków wywoływanych przez bomby atomowe i spowodować unicestwienie życia na Ziemi. Z wojskowego punktu widzenia jest to broń nie mająca większego sensu.

Pomysły całkowitej likwidacji arsenałów broni atomowej i wodorowej są powszechnie uznawane za warte wsparcia, ale ich praktyczna realizacja jest trudna do przeprowadzenia, a ostatnie działania Korei Północnej dobitnie to potwierdzają dostarczając mocarstwom atomowym argumentów przeciwko likwidacji własnych arsenałów.

Z drugiej strony można przypomnieć, że około 200 państw podpisało traktat o zakazie rozwijania broni chemicznej (Chemical Weapons Convention), co, od początku lat 90., doprowadziło do likwidacji 93% znanych zapasów takiej broni oraz 97% zakładów w których ją wytwarzano. Można to uznać za duży sukces, choć dane nie dotyczą broni potencjalnie opracowywanej w utajnionych ośrodkach wojskowych, których istnienie nie zostało jeszcze ujawnione.

Podobna sytuacja występuje w przypadku technologii związanych z robotami i sztuczną inteligencją. Jak efektywnie kontrolować ich zastosowania? Czy państwa demokratyczne, przestrzegające zasad prawa międzynarodowego nie staną się wówczas ofiarą tych rządów, które do takich zasad się nie zastosują?

Za i przeciw zakazom

Niektórzy z sygnatariuszy listu otwartego nawołują do podjęcia bardziej zdecydowanych działań niż zaprezentowane w tym dokumencie. Proponują wprowadzenie ograniczeń podobnych do zakazu rozwijania broni chemicznej, biologicznej lub atomowej.

Od kilku lat działa też niezależna grupa aktywistów pod nazwą Kampania przeciw zabójczym robotom (Campaign to Stop Killer Robots), która żąda wprowadzenia międzynarodowych traktatów mających zakazać prac nad rozwojem tego typu technologii.

Przedstawiciele tej organizacji twierdzą, że do państw prowadzących najbardziej zaawansowane badania nad wykorzystaniem autonomicznych robotów do zastosowań militarnych należą USA, Chiny, Izrael, Południowa Korea, Rosja i Wielka Brytania.

Nie wszyscy jednak podzielają te krytyczne opinie. „Autonomiczne roboty wojskowe mogą zmniejszyć szkody wyrządzane niewinnym ludziom występujące, gdy działania militarne są prowadzone przy wykorzystaniu klasycznego arsenału broni. Dlatego systemy takie nie powinny być traktowane jako z zasady niezgodne z prawem i zakazane” uważa prof. Anthony Finn, dyrektor Defence and Systems Institute na uniwersytecie South Australia.

Teoretycznie można się zgodzić, że konflikt zbrojny może się przekształcić w wojnę robotów jeśli obie strony będą nimi dysponowały. Mogłoby to ograniczyć liczbę ofiar w porównaniu do działań wykorzystujących standardowe bomby, pociski itd., nie mówiąc już broni masowego rażenia. Ale jednocześnie trzeba przyznać, że zastąpienie oddziałów żołnierzy przez roboty może spowodować, że podejmowanie decyzji o działaniach wojennych będzie łatwiejsze, a konflikty militarne mogą być częstsze.

Skąd biorą się obawy przed zabójczymi robotami

Jeśli komuś się wydaje, że autonomiczne roboty służące do zabijania ludzi są systemami, które pojawią się dopiero w dalekiej przyszłości, to się myli. Na targach i wystawach taki sprzęt się nie pojawia, a w publikacjach prezentujących najnowsze osiągnięcia w rozwoju systemów robotycznych i technologii AI brak informacji o tego typu militarnych robotach. Ale wydaje się, że można wierzyć ekspertom, którzy twierdzą, że prototypy zabójczej broni autonomicznej są gotowe, a szybki rozwój technologii daje podstawy do założenia, że ich wdrożenie do masowej produkcji to kwestia najbliższej przyszłości. Choć praktycznie nikt się otwarcie nie przyznaje do rozwijania technologii autonomicznych, uzbrojonych robotów, ale modyfikacja już istniejących urządzeń tak by stały się zabójczą bronią nie stwarza zasadniczych problemów. Pośrednio mogą o tym świadczyć niektóre fakty.

Maszyny do zabijania

Autonomiczny robot- żołnierz zaprezentowany podczas testów w bazie Camp Pendleton w Kaliforni. Źródło: John Baker/DOD, IDG News Service.

Australijski rząd ogłosił w lipcu 2017 roku decyzję o przyznaniu 50 mln USD na utworzenie ośrodka badawczego Defence CRC (Defence Cooperative Research Centre) zajmującego się opracowywaniem bezpiecznych, autonomicznych systemów robotycznych (Trusted Autonomous Systems). Defence CRC ma przygotować nową generację autonomicznych platform zapewniających niezawodną i efektywną współpracę ludzi z autonomicznymi robotami podczas dynamicznych działań militarnych. To ogólne założenia, które wywołują pytania, co w praktyce będzie oznaczać „bezpieczny system autonomiczny” w perspektywie konfrontacji zbrojnej.

Przykładem producenta robotów znajdujących zastosowania w wojsku może być firma QinetiQ, która wprowadziła tego typu produkty, rodzinę urządzeń TALON już w 2000 roku i systematycznie rozwija technologię. Ponad 3800 robotów TALON zostało już sprzedanych na świecie. Są przeznaczone m.in. do unieszkodliwiania ładunków wybuchowych, ale również wielu innych zadań, które mogą znaleźć zastosowania militarne. Szczegóły dotyczące rozwoju technologii nie są oczywiście ujawniane, a prezentowane modele robotów z reguły nie służą do wykonywania aktywnych ataków skierowanych przeciwko ludziom.

Z kolei firma Raytheon (producent m.in. systemów Patriot) opracowuje wykorzystujące sztuczną inteligencję systemy do zarządzania współpracującymi grupami robotów (np. dronów). Jej przedstawiciele podkreślają, że rozwiązania te będą zawsze pod kontrolą człowieka. “Obecnie do kontroli jednego drona zaangażowanych jest 10 osób, chcemy doprowadzić do sytuacji, gdy jedna osoba będzie zarządzała dziesięcioma dronami” mówi Jim Crowder, inżynier z Raytheon zajmujący się technologiami sztucznej inteligencji.

Jeśli chodzi o zarządzanie robotami wyposażonymi w funkcje umożliwiające ich autonomiczne działanie to ważne są szczegóły. Najprawdopodobniej kontrola dotyczyć będzie głównie podstawowych funkcji: wprowadzenia planu działania, określenie celów, uruchomienie urządzenia lub przerwanie jego aktywności. Trudno sobie bowiem wyobrazić by zrezygnowano z podstawowych zalet robotów: szybkości i precyzji działania, zdecydowanie przekraczających możliwości człowieka sterującego maszyną.

Niestety każdą nową technologię można wykorzystać nie tylko dla dobra ludzi, ale również przeciw nim. Sztuczna inteligencja i roboty nie są tu wyjątkiem.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200