Moralność automatu: algorytmizacja etyki maszyn

Postęp technologiczny dotyka tak wielu dziedzin życia, że wymaga także definiowania jego ram pozatechnologicznych. Muszą być one jednak przełożone na postać algorytmiczną z uwagi na postępującą automatyzację.

W najbliższych latach nadal będzie rosła liczba urządzeń zautomatyzowanych w wielu sferach: publicznej (transport), przemysłowej (robotyka) czy domowej (smart home). Jednocześnie coraz wyraźniejsze stają się związki między automatyką czy robotyką a sztuczną inteligencją. Prowadzi to do nowych wyzwań i dylematów w związku z pytaniem: ile władzy dla komputerów? Pozornie odpowiedź wydaje się prosta: ostateczne decyzje zawsze powinny być podejmowane przez człowieka. Tyle że tę zasadę odrzuciliśmy w systemach działających w tzw. czasie rzeczywistym (systemy RTC – Real Time Computing), a więc tam, gdzie reakcje urządzenia muszą być bardzo szybkie – w praktyce, z punktu widzenia człowieka, wręcz natychmiastowe. To z kolei oznacza, że prawa robotyki Asimova mogą stanowić tylko bardzo ogólne wskazanie, dotyczące kierunku poszukiwania odpowiedzi na wcześniej sformułowane pytanie.

Cała władza w ręce komputerów

Praktyka pokazuje, że komputery są znacznie bardziej niezawodne niż człowiek. Nie dotyczy ich np. syndrom tzw. szarej godziny – najcięższe wypadki komunikacyjne zdarzają się nad ranem, zwłaszcza między trzecią a czwartą w nocy, kiedy kierowca statystycznie jest najbardziej podatny na zaśnięcie za kierownicą. Komputery nie chorują, nie strajkują, nie odczuwają emocjonalnych wahań nastroju. Pomyłka któregoś z nich może być automatycznie wyłapana przez inne maszyny przy użyciu mechanizmu redundancji, czyli sprzętowej nadmiarowości układów głosujących (majority-voting system). Stąd np. dążenia międzynarodowych organizacji lotniczych do przesuwania decyzyjności podczas lotu – od człowieka w stronę samolotu, czyli jego układów sterujących. Do dokładnie opisanej katastrofy lotniczej nad Jeziorem Bodeńskim 1 lipca 2002 r., w której zderzyły się pasażerski samolot Moskwa–Barcelona i transportowy DHL, doszło dlatego, że szwajcarski kontroler lotu podważył prawidłowo podjętą decyzję komunikujących się ze sobą komputerów dwóch samolotów na kolizyjnym kursie (system TCAS – Traffic Alert and Collision Avoidance). Również analizy problemów powodowanych przez pojawiające się na drogach samochody autonomiczne prowadzą do wniosku: autonomia pojazdu nie wyeliminuje wypadków komunikacyjnych, ale znacząco zmniejszy ich liczbę.

Zobacz również:

Postępująca antropomorfizacja komputerów powoduje, że z czasem użytkownik przestanie uczyć się sztucznych języków techniki. Alternatywą dla takiego rozwoju jest sytuacja obecna, prowadząca do swego rodzaju digitalizacji ludzkiej świadomości.

Jednak skrajna propozycja „cała władza w ręce komputerów” nie rozwiązuje problemu. Na deskach projektowych robotyków kreślone są plany wszechobecnych urządzeń nowej generacji – ubibotów (ubiquitos robot). Mają one połączyć zalety robotów softwarowych (softbot), hardwarowych embotów (embedded robot) oraz robotów mobilnych (mobot). Tak zaprojektowany robot miałby być także robotem sieciowym (netbot) – połączony z internetem dysponowałby zawsze najnowszym oprogramowaniem i aktualną wiedzą wszędzie dostępnej sieci (evernet).

Urządzenie samo jest zdolne do tworzenia indywidulanej mapy przestrzeni, niezbędnej do wykonywania zleconych zadań. Jednocześnie podczas weryfikacji swojego położenia, napotykając przeszkody czy zagrożenia, robot nie jest sam. Może bowiem korzystać z potężnych baz informacji, zawierających np. dane o najnowszych modelach pralek, jakie ma obsługiwać, czy topografii gruntu, po którym się porusza, albo umiejscowienia wszelkiego rodzaju niewidocznych instalacji infrastrukturalnych.

Kolejny krok rozwoju „ruchomej informatyki” to współpraca robotów komunikujących się ze sobą w lokalnie (ad hoc) tworzonych zespołach (sieciach). Znajdą się w ich zasięgu także skomputeryzowane urządzenia stacjonarne. Obrazowo można powiedzieć, że prędzej czy później mikro- bądź nanoprocesory znajdą się w każdej cegle czy każdym guziku od koszuli. W ten sposób powstaje planetarne tworzywo dla nowego rodzaju sztucznej materii – nie tylko inteligentnej, ale także mobilnej.

Własna śmierć nie może być wymówką

Tu pojawiają się pytania: czy ta nowa materia jest dla nas bezpieczna? Czy inteligentne cegły nie zaczną spadać nam na głowę, duszoną dodatkowo inteligentnym morderczym kołnierzykiem? Tak sformułowane pytania to wariant klasycznego już problemu Stuarta Russella: „jak przyrządzić kawę, będąc martwym“ (It’s just hard to fetch the coffee after you’re dead). Tyle że tu pytającym miałby być robot. W innej formie problem pokazany jest w „Odysei kosmicznej 2001” Stanleya Kubricka, gdy spokojnym i grzecznym głosem, „na uśmiechu”, superkomputer mówi do człowieka: Przykro mi, Dave. Obawiam się, że tego nie mogę zrobić (I’m sorry, Dave, I’m afraid I can’t do that). A przecież chodzi tam o kwestię – dla człowieka – życia i śmierci. Krótko mówiąc: nie wystarczy, aby inteligentny automat był zdolny do samouczenia się (self learning) w sensie klasycznej algorytmiki sztucznej inteligencji. Może się wówczas okazać, że robot dosłownie zrozumie satyryczne hasło: „Własna śmierć nie jest wymówką dla gentlemana” i dążąc do realizacji zadanego celu, gotowy będzie nawet zabić, a nie dać się odłączyć od prądu. Urządzenie musi zatem działać zgodnie z systemem ludzkich wartości. To oznacza, że agregacyjny łańcuch informatyki dane → informacje → wiedza → inteligencja powinien zostać rozszerzony o kolejne ogniwa – uczucia i moralność.

Robot musi działać zgodnie z systemem ludzkich wartości. To oznacza, że agregacyjny łańcuch informatyki: dane → informacje → wiedza → inteligencja powinien zostać rozszerzony o kolejne ogniwa – uczucia i moralność.

Tym pierwszym składnikiem zajmuje się tzw. uczuciowa informatyka – AC (affective computing). Celem tej dziedziny jest tworzenie bardziej naturalnego interfejsu użytkownik–komputer, z uwzględnieniem sfery emocji. Jest to jednak obszar trudny do algorytmizacji. Komputer można było nauczyć grać w szachy czy japońskie go, ale czy maszynę można nauczyć smutku bądź radości? AC podejmuje taką próbę. Komputer może wyrażać wówczas swoje uczucia np. za pomocą awatara, sygnalizując cyfrową mimiką, że jego zasoby są zbyt obciążone. Taki sposób dialogu odpowiada zatem bardziej komunikacji między ludźmi, gdzie sygnały niewerbalne odgrywają często istotną rolę.

Mamy zatem do czynienia z kluczową zmianą informatycznego paradygmatu: postępująca antropomorfizacja komputerów powoduje, że z czasem użytkownik przestanie uczyć się sztucznych języków techniki. Alternatywą dla takiego rozwoju jest sytuacja obecna, prowadząca do swego rodzaju digitalizacji ludzkiej świadomości. Dialog między maszyną a człowiekiem może odbywać się tylko we wspólnym języku. Jeśli zatem nie zmusimy komputerów do przyjmowania naszych cech, będziemy zmuszeni do przejmowania ich sposobu działania.

Wybrane problemy i trendy moralności automatyki

Prawo

- kwestia odpowiedzialności za wypadek spowodowany przez pojazd autonomiczny

- rejestracja i licencje pilotażu dla dronów (podobnie jak dla samochodów i

samolotów) w zależności od zasięgu, wielkosci, funkcjonalności

Wojskowość

- list otwarty (styczeń 2015 r., m.in. Stephen Hawking, Elon Musk) apelujący o zakaz

produkcji broni autonomicznej

- etyka wojny cybernetycznej (cyberwar) – „Law of War Manual”, Pentagon, USA,

2015

Informatyka

- apele o prowadzenie tylko „pozytywnie ukierunkowanych” badań w zakresie

sztucznej inteligencji

- algorytmizacja moralności na podstawie rozmytych zmiennych lingwistycznych

„dobry” lub „zły” (fuzzy logic)

Algorytm moralności

Jak zatem uczyć automaty moralności? Dr Mark Riedl, szef EIL (Entertainment Intelligence Lab, Georgia Tech College of Computing), uważa, że roboty powinny być wychowywane software’owo podobnie jak dzieci. Problem w tym, że taka nauka w naturze zajmuje co najmniej kilkanaście lat. Po drugie należy zapytać, czy etyka jest przekładalna na algorytmy, którymi mogą posłużyć się komputery? Istnieje przecież wiele systemów etycznych. Jedynym wyjściem jest zatem przyjęcie obowiązujących norm prawa stanowionego, bo to obowiązuje wszysatkich. Pod warunkiem, że prawo istnieje i jest jednoznaczne (patrz: „Cyfrowa sprawiedliwość”, Jakub Chabik, „Computerworld”, 10/2017).

Jeśli chcemy, aby komputer rozumiał ludzkie uczucia i ludzką moralność, musimy wyposażyć precyzyjną maszynę w pewien stopień niepewności decyzyjnej. Czy zgodzilibyśmy się jednak, aby taki „niepewny” automat miał władzę podejmowania decyzji kluczowych dla naszego życia i zdrowia?

Klasyk w branży autonomicznych pojazdów to pytanie: czy auto może w sytuacji awaryjnej wjechać na chodnik, gdzie znajduje się kilka osób, czy też raczej ryzykować śmierć jednego kierowcy, dla potencjalnego uratowania kilku osób. Znamiennej odpowiedzi udzielił tu niemiecki Trybunał Konstytucyjny (wyrok BvR 357/05 z 15 lutego 2006 r.) zapytany przed dowództwo lotnictwa po zamachach na World Trade Center 11 września 2001 r., czy można prewencyjnie zestrzelić samolot z terrorystami dla uniknięcia większej liczby ofiar. Odpowiedź sędziów była jasna: życia ludzkie nie są mierzalnymi wartościami, które można arytmetycznie ważyć, jedne wobec drugich – w konkretnej sytuacji wojskowi wraz z kierownictwem politycznym muszą podjąć decyzję w zależności od sytuacji, a potem ponosić konsekwencje każdej decyzji bądź jej braku.

Wynikałoby z tego, że moralność jest niekwantyfikowalna, a więc nie dałoby się jej klasycznie zalgorytmizować. Przez analogię do fizyki dochodzimy tu do swoistej granicy nieoznaczoności (moralnej) Heisenberga. Jeśli chcemy, aby komputer rozumiał ludzkie uczucia i ludzką moralność, musimy paradoksalnie wyposażyć precyzyjną maszynę w pewien stopień niepewności decyzyjnej. Czy zgodzilibyśmy się jednak, aby taki „niepewny” automat miał władzę podejmowania decyzji kluczowych dla naszego życia i zdrowia? W każdym razie nie mielibyśmy już wtedy do czynienia z klasycznym algorytmem. Ten bowiem, z definicji, dla takich samych danych wejściowych daje zawsze przewidywalny oraz identyczny wynik na wyjściu.