Robot, który uciekł z laboratorium

Robot „uciekł” z laboratorium w Perm, Unia Europejska chce przygotować regulacje dotyczące praw i obowiązków „elektronicznych osób”, a naukowcy z Google nawołują do opracowania standardów dotyczących maszyn autonomicznych.

żródło: Promobot

Jesteśmy dopiero na samym początku robotycznej rewolucji, ale już widać, że na drodze do masowej popularyzacji autonomicznych robotów wyposażonych w sztuczną inteligencję jest wiele przeszkód i nowych problemów, z którymi trzeba się zmierzyć.

Ostatnio w internecie pojawiły się filmy przedstawiające robota, który zapragnął wolności i “uciekł” z laboratorium w Perm (Rosja) powodując zamieszanie na ulicach tego miasta.

Zobacz również:

  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Palo Alto wzywa pilnie użytkowników jej zapór sieciowych, aby jak najszybciej zaktualizowali zarządzające nimi oprogramowanie

Do Komisji Europejskiej wpłynął wstępny projekt dokumentu Civil Law Rules on Robotics, który ma prawnie regulować zasady, które będą musiały spełniać dopuszczone na rynek europejski systemy autonomiczne.

Z kolei naukowcy z Google opublikowali nowy raport prezentujący podstawowe zagrożenia jakie niesie za sobą wdrożenie systemów sztucznej inteligencji.

Krótka, ale samodzielna wycieczka robota z Perm

IR77 to autonomiczny robot opracowany przez firmę Promobot. Został wyposażony w mechanizmy sztucznej inteligencji umożliwiające modyfikację zachowania maszyny na podstawie wcześniejszych doświadczeń m.in. dotyczących rejestracji i analizy otoczenia.

Według wyjaśnień przedstawicieli producenta, Promobot IR77 wykorzystał przypadkowo niedomknięte drzwi laboratorium i po 45 minutach samodzielnego poruszania się po mieście zatrzymał się na środku ulicy, bo wyczerpały się zainstalowane w nim akumulatory.

Twórcy robota nie planowali wprowadzenia do oprogramowania funkcji „dążenia do wolności”, a jedynie mechanizmy unikania i omijania pojawiających się przeszkód. Co ciekawe, sprawiający kłopoty model jest jedynym z serii zbudowanych, identycznych i wyposażonych w takie samo oprogramowanie prototypów, który zaczął uciekać.

Jak sugeruje Keyan Milanian z brytyjskiego portalu Mirror, była to już druga ucieczka tego modelu robota. Po pierwszej, jego oprogramowanie zostało zmodyfikowane, ale okazało się, ze nie przyniosło to skutku.

Rosyjska firma Promobot opracowuje i testuje nową generację autonomicznych robotów, które według zapowiedzi jej przedstawicieli mają pojawić się na rynku już jesienią tego roku. Dlatego też niektórzy dziennikarze wątpią, czy ucieczka robota z laboratorium była przypadkowa i sugerują, że cała historia jest marketingowym chwytem reklamowym.

Faktem jest jednak, że maszyna przez 45 minut samodzielnie poruszała się po ulicach miasta powodując zamieszanie i korki.

Czy w Europie pojawią się “elektroniczne osoby”

W Unii Europejskiej pojawiła się propozycja przygotowania regulacji prawnych dotyczących praktycznych zasad funkcjonowania robotów w społeczeństwie. Mają one m.in. zdefiniować wymagania stawiane producentom takich urządzeń wprowadzanych na europejski rynek. We wstępnej wersji dokumentu Civil Law Rules on Robotics skierowanego do Komisji Europejskiej pojawiła się sugestia rozważenia, czy “najbardziej zaawansowanym modelom robotów autonomicznych nie należałoby przydzielić statusu “osób elektronicznych”, które miałyby pewne specyficzne prawa i obowiązki”.

Na razie jest to tylko wstępny pomysł, ale dowodzi rodzącej się świadomości, że już dziś należy się przygotowywać do rozwiązywania nie tylko technicznych, ale również prawnych i etycznych problemów, które zaczynają się pojawiać w coraz bardziej zautomatyzowanym i zrobotyzowanym świecie.

Google proponuje stworzenie jednolitych norm bezpieczeństwa dla systemów AI

Google opublikował niedawno raport prezentujący podstawowe, znane obecnie zagrożenia jakie niesie za sobą wdrożenie systemów sztucznej inteligencji.

Pojawiają się w nim m.in. pytania o konsekwencje ubocznych skutków działania autonomicznych robotów. Jeśli na przykład doskonale i szybko funkcjonujący robot sprzątający w ferworze pracy stłucze drogocenną wazę, kto będzie za to odpowiedzialny? To ważne z punktu widzenia prawa (a także firm np. oferujących ubezpieczenia).

Inne istotne pytania przedstawione w publikacji Google to: jaki powinien być zakres swobody robotów w podejmowaniu autonomicznych decyzji, w jakim stopniu można i trzeba go zmniejszyć, jak ograniczyć obszar w którym robot może być aktywny oraz zapewnić, że nabyta przez samouczącą się maszynę wiedza zostanie odpowiednio wykorzystana w nowych sytuacjach.

“Obecnie wiele pojawiających się problemów związanych z bezpieczeństwem jest rozwiązywane ad hoc lub na podstawie doświadczeń wynikających z wcześniejszych podobnych przypadków. Postępy w tworzeniu nowych, w pełni autonomicznych systemów uświadamiają, że niezbędne jest opracowanie jednolitych, uniwersalnych reguł, których stosowanie mogłoby zapobiec szkodom jakie mogą wyrządzić maszyny wyposażone w sztuczną inteligencję” uważają analitycy z Google.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200