Uczuciowy agent

Technologie sztucznej inteligencji, udoskonalające dialog człowieka z maszyną cyfrową, koncentrują się głównie na zagadnieniach matematyczno-technicznych. Tymczasem komputerowe wspomaganie ludzkich decyzji wymaga także uwzględnienia naszego wymiaru emocjonalnego.

Technologie sztucznej inteligencji, udoskonalające dialog człowieka z maszyną cyfrową, koncentrują się głównie na zagadnieniach matematyczno-technicznych. Tymczasem komputerowe wspomaganie ludzkich decyzji wymaga także uwzględnienia naszego wymiaru emocjonalnego.

Jednym z największych sukcesów nowożytnej nauki jest spektakularne połączenie teorii matematycznego opisu z praktyką fizycznego doświadczenia. W ten sposób zeszliśmy w głąb materii - do poziomu mechaniki kwantowej i bez międzygwiezdnych statków badamy kosmologiczne struktury. Owo spostrzeżenie jest ważne także w sferze technologii informatycznych. I tu obowiązuje nas zasada weryfikowania założeń modelowych empirią. Niemniej, sporo obszarów informatyki dostarcza wyniki o wiele mniej jednoznaczne. Dotyczy to np. aplikacji w sferze produkcyjno-usługowej, w zarządzaniu i ekonomii czy statystyce (informatyka gospodarcza). Trudno mierzalne pozostają efekty stosowania informatyki, a sprawdzalność numerycznie przygotowanych przewidywań - od giełdy do meteorologii - nadal pozostawia wiele do życzenia.

Wspólną cechą wymienionych problemów jest ich związek ze sferą społeczną, a w szczególności z człowiekiem. Tu zawodzą narzędzia matematyki i fizyki, które znakomicie sprawdzają się w odniesieniu do przyrody, pozbawionej cech świadomości i wolnej woli. Naukowe prawo jest prognozą, mówiącą np. jaką prędkość końcową osiągnie ciało spadające w określonym środowisku. To ciało jednak nie myśli, nie podejmuje decyzji i nie ma szans na nieracjonalne zachowanie. Musi zachować się zgodnie z prawami natury, które człowiek może poznawać. Gdyby giełda zachowywała się podobnie, byłaby całkowicie przewidywalna i racjonalna. Historia ekonomii nie zna jednak przypadku całkowicie racjonalnej i przewidywalnej giełdy.

Zodiakalna statystyka

Nauki ścisłe mają charakter aksjomatyczno-dedukcyjny. Niewielka ilość przesłanek wystarczy, aby tworzyć regularny gmach poznania w ramach danego modelu, według schematu: założenie, teza, dowód. Ten paradygmat w ekonomii ma tylko częściowe zastosowanie, gdyż do głosu dochodzi tu metodologia aposterioryczno-indukcyjna. Na podstawie wielkiej ilości zdarzeń ze świata rzeczywistego staramy się formułować uniwersalny sąd, mający jednak istotne znamiona subiektywizmu - wznoszona budowla jest o wiele mniej regularna. Do której z tych grup należy informatyka? W sferze matematyczno-narzędziowej do pierwszej, natomiast w obszarze zastosowań społeczno-gospodarczych, prawnych czy medycznych - do drugiej. Stąd mieszany typ IT.

Warto o tym pamiętać, aby formalnej precyzji aparatu matematyczno--informatycznego nie stosować do przetwarzania danych o wątpliwej wartości, w połączeniu z ich dowolną interpretacją, zgodnie z "jedynie słuszną" hipotezą. W ten sposób da się udowodnić naprawdę wszystko, a to z kolei nie przyczynia się do wzrostu wiarygodności nauki i techniki. Co jakiś czas epatowani jesteśmy zatem doniesieniami typu "witaminy przedłużają życie" albo twierdzeniami dokładnie odwrotnymi. W obu przypadkach analizy statystyczne nie budzą wątpliwości, nie można jednak tego wykluczyć w odniesieniu do zbieranych danych. Jak zagwarantować, że ktoś będzie zażywał określone witaminy w określonej ilości, postaci, rytmie i połączeniu z naturalną dietą oraz indywidualnymi czynnikami genetycznymi i to przez długi czas, tzn. aż do śmierci, bo tylko wtedy można pewnie wypowiadać się na temat długości życia osoby.

Nawet gdyby tak było, to pozostaje błąd zupełnie podstawowy, często jednak popełniany w praktyce: nadinterpretacja wyników. Przecież korelacja zmiennych na określonym poziomie nie musi automatycznie oznaczać ich związku przyczynowo-skutkowego. Te dwie zmienne mogą być zależne od trzeciej, a ilość czynników, które należałoby rzeczywiście uwzględnić, może być dużo większa. Absurdy, do jakich może prowadzić nieumiejętne stosowanie metod numeryczno-statystycznych, pokazał niedawno Peter Austin podczas tegorocznego kongresu w San Francisco (Journal of Clinical Epidemiology, vol. 59 (9)). Uczony powiązał przypadłości pacjentów z ich znakami zodiaku i "wykazał", że np. kobiety urodzone w znaku Wagi mają częściej złamania miednicy niż Byki bądź Koziorożce. Oczywiście stosując odpowiednie poprawki w modelu statystycznym można, na podstawie tych samych danych, dojść do innych wniosków. Przecież wiemy, że otrzymany wynik jest "głupi".

A gdybyśmy nie wiedzieli? Gdybyśmy szukali potwierdzenia, że osoby urodzone w określonej porze roku (np. latem) są bardziej odporne na pewne choroby ze względu na częstszy kontakt ze świeżym powietrzem w niemowlęctwie bądź sposób odżywiania się matki (dostępność do świeżych warzyw i owoców). Czy wówczas z równym zapałem staralibyśmy się wykazać absurdalność uzyskanych wyników? Postawą otwartości i sceptycyzmu, bliższą ideałom naukowym, jest ta, przyjęta przez grupę badaczy wokół Martina Riedmillera, którzy w pracy "Daily Prediction of the Foreign Exchange Rate" przedstawili wyniki swoich wieloletnich doświadczeń z użyciem sieci neuronowych. Szansa trafienia trendu kursowego wyniosła zaledwie 54%. Wynik bliski jest więc temu co można uzyskać i bez inteligentnego algorytmu, rzucając monetą, która, w zależności od długości serii, pokaże orła czy reszkę też z prawdopodobieństwem ok. 50%.

Komercyjna uczuciowość

Czy zatem nie warto prowadzić takich badań? Wręcz przeciwnie. Po pierwsze, w sposób naukowy pokazują one granice możliwości systemów informatycznych. Po drugie, na słabości jednej metody można zbudować siłę innej. Rokuje to powstanie nowej dziedziny wiedzy: ekonofizyki, proponującej analogie do równań Hamiltona, opisujących ruch obiektu, dla opisu zachowań giełdowych. Naukowy trik polega tu na konstatacji, że wolna wola przekładająca się na konkretne działania człowieka, w związku z jego chwilowymi emocjami, ma niewielkie znaczenie w sytuacji zachowań grupowych. Człowiek działa wówczas jak układ z niewielką ilością tzw. stopni swobody. Nie da się zatem przewidzieć, jak zachowa się jednostka, ale można ważyć się na kwalifikowaną prognozę zachowań zbiorowych.

Także i tu informatyka w służbie socjoekonomii korzysta z dziesiątek lat doświadczeń fizyki kwantowej. Nieokreśloność Heisenberga, paradoks kota Schrödingera czy interpretacja kopenhaska nie wykluczają istnienia zasady przyczynowości w mikroświecie, a jedynie wskazują na jej inny, statystyczny charakter, niepozwalający na precyzyjny opis stanu pojedynczego obiektu.

Jednocześnie musimy odejść od przedstawiania bezduszności maszyn jako ich wyłącznej zalety. Wiemy, że komputer o krzemowych nerwach nigdy nie straci cierpliwości i w nieskończoność potrafi być tak nieludzko grzeczny. Ale komputerowa bezuczuciowość przestaje już być tylko kategorią czysto estetyczną, traktowaną jako rodzaj gadżetu, bez którego można się znakomicie obejść. Okazuje się wręcz, że bez uwzględnienia czynników emocjonalnych może być wkrótce zagrożona funkcjonalność typowo komercyjnego oprogramowania. Tak się bowiem składa, że człowiek nie zawsze postępuje czysto racjonalnie. Klasyczne komputerowe symulacje zachowań grupy ludzi w sytuacji paniki pokazują, że przy dwóch wyjściach z pomieszczenia grupa równomiernie się rozdzieli i je opuści. W rzeczywistości często dochodzi jednak do całkowitego zablokowania któregoś z wyjść i niekorzystania z drugiego. Taki przebieg ewakuacji można również przewidzieć na drodze software'owej, jeśli uwzględni się nieracjonalność ludzkich zachowań, modelowaną funkcjami reakcji w zależności od prędkości przemieszczania jednostek oraz zmian odległości między nimi.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200