Dlaczego nie ma sztucznego intelektu

Inteligencja w ruchu

We wczesnych pracach w dziedzinie robotyki nie uwzględniano podstawowego faktu przyrodniczego, że inteligencja jako taka jest połączeniem sensoryki z motoryką, że musi mieć jakieś "ciało". Ponadto, że inteligentne działanie jakiegokolwiek zresztą układu odbywa się zawsze w określonym środowisku, że bez wzajemnego sprzężenia z nim jest to tylko imitacja inteligentnego działania. Dopiero w latach 70. teza ta została przez teoretyków sztucznej inteligencji przyjęta i poddana pod dyskusję. Myślę jednak, że nie wszyscy należycie zrozumieli ten podstawowy fakt z historii naturalnej człowieka.

O wspomnianych problemach wypowiada się sugestywnie Hans Moravec, dyrektor Instytutu Robotyki w Carnegie Mellon University, autor takich książek, jak Mind Children. The Future of Robot and Human Intelligence z 1988 r. czy Robot - Mere Machine to Transcendent Mind z 1998 r. Autor przedstawia w nich nie tylko historię robotyki, ale także kreśli wizję jej rozwoju, formułując przy tym wiele kontrowersyjnych tez.

Według Moravca dotychczasowe osiągnięcia prac nad sztuczną inteligencją są niekompletne, gdyż nie uwzględniają, że "umysł musi być w ruchu". Inaczej mówiąc, prawdziwa inteligencja to aktywność dowolnego systemu (naturalnego czy sztucznego) wobec swojego środowiska, ciągła w nim aktywność, zmiana, ruch. W przypadku człowieka jest to aktywność coraz mocniej wspomagana maszynami i robotami. Cała historia ludzkiego umysłu to ewolucja genetyczna organizmu połączona ze stymulującą ją rewolucją techniczną - stwierdza Moravec. Z tej perspektywy roboty są etapem ewolucji gatunku ludzkiego. Jest to etap "postbiologiczny", w którym tempo przemian rośnie w postępie geometrycznym. Ludzie przekształcają się pod wpływem techniki z organizmów całkowicie zdeterminowanych genetycznie w podmioty zależne w coraz większym stopniu od informacji zawartej poza genami, poza ciałem - w bibliotekach, w komputerach, w robotach. Umysł i inteligencja coraz bardziej uniezależniają się od skończonego i niedoskonałego ciała.

Ludzka inteligencja może zatem wcielić się w mobilne roboty, które będą same się projektować, naprawiać i reprodukować - wyrokuje Moravec. W ten sposób powstaną nie tylko nowe narzędzia, lecz zasadniczo zostanie przyśpieszony i ukierunkowany proces naturalnej ewolucji gatunku ludzkiego. Roboty staną się nie tylko naszymi narzędziami, lecz naszymi potomkami, "dziećmi naszego umysłu". Będą lepszym wcieleniem naszej inteligencji - a nawet ogółu cech, które stanowią to, co nazywamy "ludzkością" - niż nasze biologiczne potomstwo. Będziemy mogli zatem lokować w takiej sztucznej progeniturze wszystkie nasze najlepsze cechy, jak również nadzieje, łącznie z oczekiwaniami opieki ze strony inteligentnych robotów. Moravec spełnienie takiej wizji widzi już mniej więcej za pięćdziesiąt lat, najpóźniej pod koniec przyszłego stulecia. Trzeba przyznać, że ma on odwagę, jeśli nie nadmiar fantazji, w snuciu takich wizji. Co z nich tak naprawdę wynika?

Trudne życie z robotami

Wizja Moravca to science fiction, z tą tylko różnicą w stosunku do klasyki tego gatunku literackiego, że jej autor nie tylko snuje fantazje, lecz buduje kolejne generacje inteligentnych robotów. Ma na to duże środki finansowe i odnosi, co trzeba przyznać, znaczne sukcesy, choć sam przyznaje, że zapotrzebowanie na jego roboty podlega zmiennej koniunkturze gospodarki rynkowej. Myślę, że tego faktu nie docenia. A to właśnie może być znacznym ograniczeniem lub podważeniem jego wizji.

Czy ludzkości potrzebne są takie inteligentne roboty? Czy chcemy żyć ze sztuczną inteligencją w najbliższym sąsiedztwie? Wchodzić z nią w społeczne, emocjonalne i etyczne stosunki? Więcej jest tu wątpliwości i ograniczeń niż argumentów przemawiających za spełnieniem takiej wizji.

Mobilny robot, który np. w szpitalu administrowałby przypadkami nieuleczalnie chorych czy podejmował ryzykowne decyzje dotyczące ubezpieczenia na życie kogokolwiek z nas, musiałby nie tylko rozwiązywać konkretne problemy, lecz powinien także, jako istota inteligentna, radzić sobie z każdym nowym i nieoczekiwanym problemem, który nie byłby w nim zaprogramowany. A to byłyby już nie tylko kwestie informatyczne, lecz również społeczne i moralne. Sztuczny intelekt musiałby mieć nie tylko rozum, lecz również zmysł moralny, co oznacza (przez analogię do dotychczasowego doświadczenia całej ludzkości), że musiałby formułować prawa etyczne dotyczące swej "robociej", jeśli można tak to nazwać, moralności. Robot musiałby być odpowiedzialny za siebie i przed człowiekiem, którego miałby (jak prorokuje Moravec) przewyższyć. Bez rzeczywistej, pełnej dylematów, rozterek i konfliktów moralności nie ma etyki. Etyki nie da się wymodelować na najszybszym nawet komputerze, gdyż wyrasta ona z życia. Wszystko więc wskazuje na to, że etyka robotów jest niemożliwa.

Kwestie te podjął przed laty Isaac Asimov, który sformułował tzw. trzy prawa robotyki: 1. robot nie może skrzywdzić człowieka, nawet na skutek bezczynności; 2. robot musi słuchać rozkazów ludzi (chyba że sprzeciwia się to prawu pierwszemu); 3. robot winien chronić siebie samego (chyba że i to stoi w sprzeczności z pierwszym i drugim prawem). Taka aprioryczna "moralność" robotów miała zabezpieczyć i ludzi, i roboty przed wszelkimi konfliktami, jakie mogłyby między nimi powstać. Lecz czy ma ona szansę zrealizować się w praktyce?

Zdaniem Stanisława Lema, wyposażenie robotów w namiastkę osobowości wcale nie czyni je bezpiecznymi dla otoczenia w sytuacji, gdyby z jakichś względów chciały one zaszkodzić lub zniszczyć swoich konstruktorów. Cechą wszelkiego skutecznego działania jakiegokolwiek układu jest bowiem względne niezdeterminowanie, losowość, wysoki stopień prawdopodobieństwa dokonywania wyborów. Ma to dotyczyć zarówno ludzi, jak i robotów. Gdyby więc wyposażyć roboty w aksjologiczną wrażliwość, umiejętność i wolę rozróżniania dobra i zła i jednocześnie oczekiwać od nich pełnej wiedzy o skutkach ich działania - swoistej moralności i etycznych kodeksów - to w efekcie trzeba się liczyć z tym, że roboty takie "znieruchomiałyby, porażone niepewnością" - stwierdza Lem. Sytuacja taka w znacznym stopniu dotyczy działań człowieka, który przecież rzadko ma poczucie pewności swoich wyborów czy pełnej znajomości ich skutków. W tym niezdeterminowaniu i niepewności leży istota moralności i etyki. "Demonizm homunkulicznego mitu - pisze Lem - nie zagraża nam ani trochę; tylko rachuba ekonomiczna, względy natury materiałowej, stosunki podaży, popytu, jednym słowem - gradienty cywilizacyjnego wzrostu będą decydowały o tym, czy, kiedy, jak wiele i jakich androidów oraz robotów będzie się wytwarzało w przyszłości".

Gdybym miał uzupełnić zdanie Stanisława Lema, który genialnie przewidział niespełnialność wizji autonomicznego świata robotów, dodałbym to, że poza względami technicznymi i finansowymi, które już stoją (i stać będą w każdym okresie rozwoju ludzkiej cywilizacji) na przeszkodzie rozwoju technologii informatycznych, nie mniej istotne bariery tkwią w człowieku. Wizja sztucznego intelektu, który miałby wziąć w paternalistyczne panowanie, wręcz opiekę, całość ludzkości, to marzenie inżynierów i programistów, którzy mają niejaki sentyment do swoich robotów. Nie podzielają go wszakże inni, masowi użytkownicy wytworów technologii informatycznych, których najczęstszym doświadczeniem w obcowaniu z nimi jest niekompetencja, obawa czy wręcz frustracja. Nieumiejętność obsługi czy lęk w powierzeniu zbyt wielu decyzji inteligentnym produktom komputerowym, które stale będą obecne w szerokich masach, zdecydowanie przeważą wyrafinowane i kontrowersyjne wizje badaczy i teoretyków sztucznej inteligencji. Technika zawsze powstawała ze społecznego przyzwolenia i na

powszechne zapotrzebowanie.


TOP 200