Etyka maszyn, czyli komputer z systemem wartości

Postęp technologiczny wymaga definiowania jego ram pozatechnologicznych. Urządzenia muszą działać zgodnie z systemem ludzkich wartości. Kto ma takie działanie zagwarantować? Firmy, użytkownicy, ustawodawca?

Rozwój informatyki, w szczególności gospodarczej, prowadzi na coraz wyższe poziomy złożoności przetwarzanych informacji, wspomagających zarządzanie coraz bardziej zaawansowanymi technologicznie przedsiębiorstwami (patrz: tabela). Ten postęp dokonuje się według schematu: dane -> informacje -> wiedza. Postępy w obszarze sztucznej inteligencji w połączeniu z przetwarzaniem wielkiej ilości danych pozwalają także mówić o inteligencji algorytmicznej tj. typu słabego (weak).

Opisany schemat przybiera zatem stopniowo postać: dane -> informacje -> wiedza -> inteligencja. Wydawałoby się, że to już wszystko, że teraz wystarczy tylko przejść na maszynowy poziom inteligencji tzw. silnej, działającej podobnie jak naturalna inteligencja ludzka.

Zobacz również:

  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Informatycy z Polski nagrodzeni za rozwiązanie problemu logiki algorytmów

Tymczasem człowiek nie jest robotem czy algorytmem, rozumianym klasycznie tzn. posiadającym cechę determinizmu: dla tych samych danych wejściowych, wynik ich przetwarzania zawsze jest taki sam. Owszem, możliwe jest stosowanie - w ramach algorytmów - generatorów liczb losowych, ale i te w rzeczywistości są jedynie pseudolosowe tzn. generowane algorytmicznie. Także algorytmy biologiczne (genetyczne, rojowe, mrówkowe) w efekcie sprowadzają się jedynie do prób naśladowania naturalnych mechanizmów ewolucyjnych przy pomocy metaheurystyk, które również posiadają cechy algorytmów.

Pięknie brzmiący postulat komputerowego samouczenia się jest w gruncie rzeczy wewnętrznie sprzeczny – wymagałby bowiem nowego rodzaju informatyki: niealgorytmicznej. A takiej jeszcze nie mamy. Już dziś potrzeba nam jednak rozwiązań informatycznych, uwzględniających unikalnie ludzką cechę: uczuciowość. Stąd nowa dziedzina wiedzy i technologii: informatyka emocjonalna.

Poziomy złożoności przetwarzania informacji

Rodzaje złożoności organizacyjnej

Czas powstania (zgrubnie dekadowo)

Cechy gospodarczych systemów IT

Przykłady zastosowań (modele)

Poziom agregacji informacji

funkcyjna prosta

lata 50. XX w.

zastosowania punktowe

proste kalkulacje

dane proste

funkcyjna złożona

lata 60. XX w.

wspomaganie pojedynczych funkcji

drukowanie statystyk sprzedaży

dane złożone

grup funkcji

lata 70. XX w.

wspomaganie wydziałów

zarządzanie zapasami w gospodarce magazynowej

informacje

procesowa

lata 80. XX w.

przejście do organizacji procesowej

całościowe pakiety ERP

wiedza

wielosystemowa

lata 90. XX w.

integracja wielu przedsiębiorstw

standardy EDI, e-commerce, CRM, customer replenishment

inteligencja

sieciowa

1. dekada XXI w.

globalna ekonomia sieciowa

rozproszone usługi webowe, ontologiczne bazy danych, cloud computing

emocje

Nasz schemat rozwija się zatem do postaci: dane -> informacje -> wiedza -> inteligencja -> emocje. Współczesne technologie dążą do tego aby radzić sobie nie tylko z naszymi zachowaniami o charakterze racjonalnym, np. „z dwóch podobnych towarów klient wybierze tańszy”. Istotne są także reakcje emocjonalne, np. „kolor samochodu może być istotny dla niektórych klientów”. Co więcej: ludzkie uczucia są zmienne a zatem zadaniem maszyny jest także identyfikacja nastroju człowieka w komputerowym dialogu. Algorytmizacja uczuć to trudne zadanie. Dlatego łatwiej było stworzyć program wygrywający z każdym człowiekiem w szachy niż w pokera.

W tym ostatnim przypadku występuje dodatkowo wymiar psychologiczny. Ale jest on także istotny w biznesie. Gracze giełdowi podejmują decyzje nie tylko w oparciu o analizę fundamentalną czy techniczną akcji. Kierują się także wartościami etycznymi, stąd np. fundusze inwestycyjne gwarantujące wspieranie technologii ekologicznych. Ludzkie wartości wiążą się jednak z moralnością. Nie unikniemy zatem przedłużenia naszego schematu do postaci: dane -> informacje -> wiedza -> inteligencja -> emocje -> etyka.

Moralność automatu

W tym miejscu praktyk zapyta: czy musimy zajmować się już teraz aż tak złożonymi kwestiami? Odpowiedź jest twierdząca a jej konsekwencje można zaobserwować we współczesnym oprogramowaniu.

Oto przykład. W telefonicznych systemach komercyjnych (handel, turystyka, doradztwo finansowe, serwisy informacyjne) możliwe jest pozyskiwanie tzw. danych prozodycznych, opisujących dynamikę melodii głosu a więc nastroju człowieka, zmieniającego się podczas rozmowy. Bez uwzględniania czynników emocjonalnych może być wkrótce zagrożona funkcjonalność typowo komercyjnego oprogramowania.

Kolejny przykład: klasyczne komputerowe symulacje zachowań grupy ludzi w sytuacji paniki pokazują, że przy dwóch wyjściach z pomieszczenia grupa równomiernie się rozdzieli i je opuści. W rzeczywistości często dochodzi jednak do całkowitego zablokowania któregoś z wyjść i niekorzystania z drugiego. Taki przebieg ewakuacji można również przewidzieć na drodze software’owej, jeśli uwzględni się właśnie nieracjonalność ludzkich zachowań, modelowaną funkcjami reakcji, w zależności od prędkości przemieszczania się osób oraz zmian odległości między nimi.

Etyka informacji nie jest już dziedziną teoretyczną. To praktyczne i aktualne wyzwanie. Lawinowo rośnie ilość urządzeń zautomatyzowanych w wielu sferach: publicznej (transport), przemysłowej (robotyka) czy domowej (smart home). Prowadzi to do dylematów w związku z pytaniem „ile władzy dla komputerów”.

Tylko pozornie odpowiedź wydaje się prosta: ostateczne decyzje zawsze powinny być podejmowane przez człowieka. Ta logiczna zasada zawodzi jednak w systemach działających w tzw. czasie rzeczywistym a więc tam gdzie reakcje urządzenia muszą być bardzo szybkie – w praktyce, z punktu widzenia człowieka, wręcz natychmiastowe. To z kolei oznacza, że prawa robotyki Asimova mogą stanowić tylko bardzo ogólne wskazanie, dotyczące kierunku poszukiwania odpowiedzi na wcześniej sformułowane pytanie.

Innymi słowy: potrzebujemy algorytmizacji etyki informacyjnej. Dla autonomicznych pojazdów, dla systemów unikania kolizji w lotnictwie czy robotów wkraczających do naszych mieszkań. Dziś ci „mali pomocnicy” są jeszcze dość prości funkcjonalnie. Potrafią samodzielnie odkurzyć dywan, wyczyścić podłogę na mokro czy umyć okno, wspinając się pionowo po szybie, z wykorzystaniem próżniowych gąsienic. Tymczasem przed nami kolejny krok rozwoju „ruchomej informatyki”: współpraca robotów komunikujących się ze sobą w lokalnie tworzonych zespołach (sieciach).

Znajdą się w ich zasięgu także skomputeryzowane urządzenia stacjonarne. Ten proces jest już bardzo wyraźnie widoczny w przedsiębiorstwach wytwórczych przechodzących do technologii Przemysłu 4.0.

Jak przyrządzić kawę będąc martwym

Obrazowo możemy powiedzieć, że wkrótce mikro- bądź nanoprocesory znajdą się w każdej cegle czy każdym guziku od koszuli. W ten sposób powstaje planetarne tworzywo dla nowego rodzaju sztucznej materii - nie tylko inteligentnej ale także mobilnej. Czy wówczas te inteligentne cegły nie zaczną spadać nam na głowę, duszoną dodatkowo inteligentnym a morderczym kołnierzykiem? Tak sformułowane pytanie to wariant klasycznego już problemu Stuarta Russella: „jak przyrządzić kawę będąc martwym”.

Tyle, że pytającym jest tu robot. W praktyce może się, że automat bardzo dosłownie zrozumie satyryczne hasło „własna śmierć nie jest wymówką dla gentlemana“ i dążąc do realizacji zadanego celu, gotowy będzie, w skrajnym przypadku, nawet zabić a w każdym razie nie dać się odłączyć od prądu.

Urządzenie musi zatem działać zgodnie z systemem ludzkich wartości. To jasne, ale kto ma takie działanie zagwarantować? Firmy, użytkownicy, ustawodawca? Ta kolejność odpowiedzialności odpowiada praktyce. Niestety, ponieważ w idealnym przypadku powinna być odwrotna. Najpierw dobre ramy prawne w interesie użytkowników i w porozumieniu z nimi a dopiero na końcu implementacje technologiczne dostarczane przez konkretne przedsiębiorstwa.

Życie jednak nie znosi próżni i prawo często nie nadąża za nowymi rozwiązaniami. Otwarte są takie kwestie jak np. odpowiedzialności za wypadek spowodowany przez pojazd autonomiczny, względnie rejestracja i licencje pilotażu dla dronów, podobnie jak dla samochodów i samolotów, w zależności od zasięgu, wielkości, funkcjonalności. Pojawiają się apele o prowadzenie tylko „pozytywnie ukierunkowanych” badań w zakresie sztucznej inteligencji. List otwarty o zakazie produkcji broni autonomicznej w 2015 r. podpisali m.in. Elon Musk i Stephen Hawking. W tym samym roku etykę wojny cybernetycznej opracował Pentagon.

Wydaje się, że te przykłady są z „wysokiej półki” i dotyczą nas, „zwykłych zjadaczy chleba” w niewielkim stopniu. Chciałoby się powiedzieć: niech się tym zajmą politycy, rządy, odpowiednie instytucje. Tymczasem wpływ na nas mają także technologie pozornie nieznaczące, jednak ich rosnąca powszechność może stopniowo nas zmieniać. Na przykład asystentki głosowe takie jak Cortana, Siri czy Alexa. Produkty znanych firm naszego, zachodniego, kręgu kulturowego – Microsoftu, Google’a czy Amazonu. Posiadają zatem określoną logikę dialogu i związanych z nim priorytetów, wartości.

A jeśli świat zdominują takie inteligentne głośniki jak Xiaoyu czy Xiaowei? Fonetyka tych nazw każe domyślać się ich chińskiego pochodzenia. Faktycznie, stoją za nimi potężne koncerny Kraju Środka – Baidu, Tencent czy AliBaba Group (AliGenie). Czy używając tych produktów będziemy stawać się bardziej „chińscy“? Dialog między maszyną a człowiekiem może odbywać się tylko we wspólnym języku.

Jeśli zatem nie zmusimy komputerów do przyjmowania naszych cech, będziemy zmuszeni do przejmowania ich sposobu działania, co prowadziłoby do swego rodzaju „digitalizacji” ludzkiej świadomości.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200