Infoczłowiek czyli następny krok ewolucji

Wróżą nam niektórzy zależność od robotów: mają one wziąć ewolucję we własne ręce i uczynić z ludzi istoty podległe. Według Kevina Warwicka, będą mogły uczynić z nas niewolników za 30 lat, natomiast Hans Moravec przesuwa tę granicę o jeden wiek. Co sądzić o tych przepowiedniach? Niniejszy szkic poddaje je krytyce i daje przeciwstawną wizję ewolucyjnych przekształceń inteligencji. Jest to wizja gigantycznego spotęgowania intelektu człowieka w wyniku sprzężenia mózgu z superminiaturowymi komputerami. Tak powstanie infoczłowiek, jako nowa odmiana homo sapiens.

Wróżą nam niektórzy zależność od robotów: mają one wziąć ewolucję we własne ręce i uczynić z ludzi istoty podległe. Według Kevina Warwicka, będą mogły uczynić z nas niewolników za 30 lat, natomiast Hans Moravec przesuwa tę granicę o jeden wiek. Co sądzić o tych przepowiedniach? Niniejszy szkic poddaje je krytyce i daje przeciwstawną wizję ewolucyjnych przekształceń inteligencji. Jest to wizja gigantycznego spotęgowania intelektu człowieka w wyniku sprzężenia mózgu z superminiaturowymi komputerami. Tak powstanie infoczłowiek, jako nowa odmiana homo sapiens.

Straszenie ludzi robotami ma swoją tradycję. Zaczęło się w 1818 r., gdy Mary Shelley napisała powieść Frankenstein or the Modern Prometheus, gdzie szalony uczony powołuje do istnienia koszmarny stwór. Po współczesnych jednak autorach można by się spodziewać więcej wyrafinowania. Ten, kto pisze dziś o tych sprawach, powinien wyjaśnić, czy (1) będziemy mieć do czynienia z robotami w technicznym tego słowa znaczeniu, a więc maszynami, które są bez reszty sterowane wpisanym w nie przez człowieka algorytmem, czy też (2) z wytworzoną na drodze technologicznej odmianą istot rozumnych.

W przypadku pierwszym rewolta robotów jest tak samo prawdopodobna jak to, że pewnego dnia pralki czy lodówki zechcą przejąć rządy nad ludzkością. W drugim chciałoby się zapytać wróżów, na jakiej podstawie przypisują wyższej odmianie umysłów mentalność łowców czaszek. Czy należy z góry zakładać, że im wyższa inteligencja, tym gorszy charakter? Czyż zawsze silniejszy bije słabszego, dlatego że tamten jest słabszy, zaś mądrzejszy wykorzys- tuje głupszego? Owszem, są może nierzadkie te godne pożałowania przypadki, ale mieć to za regułę absolutną to nadmiar pesymizmu.

Zastanowienie się nad naturą inteli- gencji prowadzi raczej w kierunku przeciwnym. Jeśli wziąć pod uwagę rdzeń inteligencji, którym jest twórcza intuicja, inwencja prowadząca do odkrywania światów matematycznych czy praw przyrody, to - jak świadczą biografie wielkich odkrywców - jest u jej podłoża potężna motywacja aksjologiczna, to znaczy nakierowana na wartości, jak prawda czy piękno (jak ważny jest motyw piękna, mamy świadectwa Poincarego, Einsteina, Heisenberga i wielu, wielu innych). Często też wielkim talentom towarzyszy troska o dobro ogółu.

Kto więc prorokuje, że superinteligentne komputery przyszłości będą olbrzymami intelektu o karłowatym sumieniu, powinien zdać sprawę z powodów, dla których ewolucja przybrałaby charakter tak złowieszczy. Czy powód tkwi w jakichś właściwościach krzemu (jeśli to będą istoty krzemowe)? A może w tym, że mają rację ci moraliści, którzy głoszą, iż w każdej kolejnej epoce moralność stoi niżej niż w poprzedniej?

Gdy uznamy doniosłość czynnika aksjologicznego w tym, co jest twórczością, a więc inteligencją par excellence, prowadzi to do frapującej kwestii: jakiego ta inteligencja wymaga sprzętu? Czy wystarczy np. krzem, czy może niezbędne jest białko? Związek tych dwu spraw bierze się stąd, że sądy aksjologiczne są nieodłączne od procesów dążenia, chęci, motywacji czy jak to jeszcze nazwać. Owe procesy mają u człowieka komponent emocjonalny (czasem bardzo silny i decydujący o sukcesie inteligencji), ta zaś ma podłoże organiczne - związki białka (stąd roboty u Lema przezywają ludzi bladawcami).

Powstaje więc problem: czy konstruktorzy inteligencji nadludzkiej wyobrażają ją sobie bez tego czynnika dążeniowego i emocjonalnego, czy też zamierzają ów czynnik wbudować w umysł, tak by powstała struktura wzajemnych zależności wzorowana na ludzkiej? Przyjrzyjmy się tym zależnościom.

Czy istota inteligentna musi oceniać i chcieć?

Są dwa konstytutywne elementy ludzkiej świadomości rozważanej jako konieczny warunek inteligencji.

Jednym z nich jest AUTOREFLEKSJA, tj. myślenie o własnych myślach. Jej rolę wydobyła na pełne światło logika matematyczna w słynnych wynikach z lat 30. (G?del, Tarski, Turing, Church). Dotyczą one sytuacji, w których algorytm dowodzenia twierdzeń okazuje się bezsilny, podczas gdy rozumowanie oparte na autorefleksji pokonuje tę barierę od razu.

Granicznym niejako przypadkiem autorefleksji są wypowiedzi mówiące o samych sobie, np.

[1] "zdanie opatrzone w tym akapicie numerem 1 nie da się dowieść w sposób algorytmiczny z pozostałych zdań tegoż akapitu".

Oznaczmy ogół tych pozostałych symbolem Z. Widać, że 1 musi być prawdą, o ile tylko Z nie zawiera sądów fałszywych. Gdyby bowiem 1 dało się dowieść, byłoby fałszem to, co ono o sobie powiada (iż nie da się dowieść), a fałszu można by dowieść z Z tylko wtedy, gdyby Z zawierał zdania fałszywe. Ponieważ prawdziwe zdanie 1 stwierdza bezradność algorytmu dowodowego, znaczy to, że są przypadki, gdy algorytm nic o prawdziwości nie powie, podczas gdy dla intuicji jest ona oczywista.

Powstaje jednak pytanie, czy powyższe rozumowanie, stwierdzające, czego pewien algorytm nie może, nie dokonuje się samo według innego algorytmu, zapisanego nie na papierze wprawdzie, ale gdzieś w tkance neuronowej. Entuzjaści sztucznej inteligencji na to pytanie odpowiadają zdecydowanie twierdząco. Może i mają rację. Żeby ją wykazać, trzeba by taki algorytm odkryć i opisać. Pozostaje więc czekać na odpowiednie badania, podjęte wspólnymi siłami logiki i neurobiologii. Dotąd nie słychać o takim projekcie. A byłby on dla naszego problemu kluczowy. Jego sukces prowadziłby do programów symu-lujących autorefleksję, a więc ów istotny czynnik inteligencji.

Drugim istotnym czynnikiem jest OCENA myśli ujmowanych w autorefleksji. Oceniamy dowód jako mniej lub bardziej elegancki, hipotezę jako rzetelną lub ,,na wodzie pisaną", napisane zdanie jako trafne lub nie, frazę jako jasną lub niejasną i tak dalej. Każda z takich ocen występuje w podwójnej postaci: jako sąd wartościujący i jako odczucie, motywujące dalsze postępowanie.

Jak te dwa czynniki, oceny i sprzężone z nimi uczucia, mają wpływ na sprawność inteligencji? Krytyczne ocenianie własnych myśli, i to nieustanne, w każdym kroku procesu poznawczego, należy do samej istoty efektywnego myślenia; nie znajdziemy go w schizofrenicznej gonitwie myśli czy w paranoicznych urojeniach; im bardziej zaś jest myślenie racjonalne, tym więcej w nim samokrytycyzmu.

Czy równie istotne są towarzyszące ocenom uczucia?

Rolę nasyconego emocjonalnie wartościowania jako czynnika inteligencji wymownie opisał Charles Sanders Peirce, twórca pragmatystycznej metodologii i pionier logiki matematycznej. W eseju The Fixation of Belief (w Popular Science Monthly, 1877 r.) za punkt wyjścia w rozwiązywaniu problemów uznaje on rozdrażnienie wątpliwością (the irritation of doubt). Pobudzająco działa też przykrość z popełnionego błędu, a więc emocjonalny ekwiwalent wartościowania logicznego. Motywują również uczucia pozytywne, nagradzające wysiłek poznawczy, jak radość z rozwiązania problemu, poczucie zrozumienia, osiągnięcia prawdy, podziw dla piękna struktur logicznych czy przyrodniczych.

W tych spostrzeżeniach kryje się dyrektywa sterowania ewolucją inteligencji. Trzeba albo znaleźć tworzywo zdolne do irytacji i innych uczuć napędzających inteligencję (gdy krzem nie rokuje nadziei), albo zbadać możliwość stworzenia oprogramowania symulującego owe sądy wartościujące i ekwiwalentne im odczucia.

Ta druga droga wyda się wielu osobom obiecująca. Przecież produkuje się już zabawki elektroniczne udające kocie uczucia, ale że dystans między kotem a Peircem nie jest tak wielki (gdy go mierzyć liczbą bajtów pamięci, szybkością ich przetwarzania czy liczbą połączeń neuronowych) - wywodzą zwolennicy tej drogi - to niebawem powstaną programy wiernie symulujące rozdrażnienie Peirce'a bez potrzeby użycia białka.

Nie zamierzam atakować tego poglądu. Lepiej nie spieszyć się z konkluzją, zaś szanse jej osiągnięcia zwiększać przez stawianie stosownych pytań. Czy skala takich poznawczych reakcji wartościujących wyrazi się zbiorem liczb o mocy kontinuum, czy jakimś zbiorem nieciągłym, np. skala interwałowa? Tylko w tym drugim przypadku możliwa jest adekwatna symulacja za pomocą algorytmu.

Czy zachodzi zawsze przypadek nieciągłości? Matematyczna teoria decyzji, stosowana w ekonomii, w strategii wojskowej itd., odpowiada przecząco, przyjmując, że wchodzą tu w grę liczby rzeczywiste, a więc zbiór możliwych wartościowań ma moc kontinuum. Ta sama teoria uwzględnia oszacowania prawdopodobieństwa, które też się wyrażają w liczbach rzeczywistych.

Czy mamy już zatem rozstrzygnięcie oparte na wynikach i powadze tak liczącej się teorii, jak teoria decyzji, wsławiona pochodzeniem od Johna von Neumanna, zwanego także ojcem komputerów? Niekoniecznie. Oponent może powiedzieć, że mamy tu do czynienia z teorią idealizacyjną, która odnosi sukcesy dzięki umiejętnej idealizacji, ale one nie przesądzają o naturze opisywanej przez tę teorię rzeczywistości. Można się bronić i tak, trzeba jednak podać argumenty, że realne procesy umysłowe, także wartościowania w procesach poznawczych, mają zawsze charakter nieciągły, co jest konieczne, by mogły być wiernie symulowane przez algorytmy.

Jeśli zaś algorytm wszystkiego nie załatwi, trzeba przyjąć inną strategię, mianowicie wykorzystanie już istniejących elementów biologicznych. Jest to kierunek poniekąd odwrotny do tego, który całkowicie stawia na algorytm. Zamiast uczłowieczać maszynę przez dostarczanie jej algorytmów coraz lepiej symulujących myśl człowieka, udoskonalmy człowieka przez wzmocnienie jego umysłu za pomocą maszyn. Jest to kierunek na infoludzi.

Połączyć nanotechnikę implantów mózgowych z techniką sieciową

Wyrażony tą frazą program daje szansę wejścia w tak jakościowo inny etap ewolucji inteligencji, że przekroczy to wszelką fantazję. Kluczem jest nanotechnika.

Nazwa ta oznacza taką miniaturyzację narzędzi, że rząd ich wielkości jest w okolicach rozmiaru atomu (nano, od gr. dziewięć, oznacza wielkość wyrażaną przez ułamek z jedynką i dziewięcioma zerami w mianowniku). Procesory wielkości atomu można umieszczać w mózgu; można też będzie, zapewniają specjaliści, jak Ray Kurzweil, łączyć je siecią bezprzewodową.

Już teraz wykorzystujemy wszczepiane chirurgicznie implanty neuronowe w przypadku głuchoty czy choroby Parkinsona. Do roku 2030 można będzie umieszczać takie nanokomputery wewnątrz organizmu bez chirurgicznej interwencji. Wprawdzie obecne procesory krzemowe nie mają szansy sprostania tym zadaniom, ale są już w drodze nowe technologie. Jedna z nich to obwody złożone z heksago- nalnych łańcuchów atomów węgla; jeden cal sześcienny takiego obwodu będzie milion razy potężniejszy od mózgu ludzkiego, jeśli chodzi o szybkość przetwarzania danych.

O podobne rzędy wielkości będzie mogła się zwiększać pamięć operacyjna mózgu i pamięć do przechowywania zasobów wiedzy; mieć w głowie wielotomowe encyklopedie z natychmiastowym dostępem do każdej informacji to coś, co wprawić może w ekstazę nie tylko moli książkowych. A wyciągać wnioski z tych informacji w ułamku sekundy nawet wtedy, gdy będą to tysiące kroków rozumowania, to kolejny powód do zachwytu nie tylko dla logików.

Zważmy, że wszystko to nie umniejszy ludzkiej pomysłowości, która człowieka tak wyraźnie odróżnia od sterowanego algorytmem robota. Przeciwnie, ponieważ inwencję blokują stresy oraz obciążenia energetyczne spowodowane przez konieczność prac mniej inwencyjnych, jak liczenie, przypominanie sobie (tj. docie- ranie do mózgowych baz danych) itp., to odciążenie od tych prac przez nanokomputerowe implanty jeszcze zwiększy możliwości inwencji i sfery emocjonalnej. Tak nastąpi stworzenie infoczłowieka.

Infoludzie będą stanowić społeczeństwo w innym niż dotąd sensie, gdyż nanokomputerowe implanty pozwolą na łączenie mózgów w sieci, które to sieci można sobie wyobrażać na wzór dzisiejszego Internetu, ale niepomiernie bardziej zaawansowane.

Ta niewyobrażalna rewolucja stworzy też niewyobrażalnie wielkie problemy etyczne i prawne. Już dzisiaj jest problemem rozpad społeczeństwa na tych, którzy uczestniczą w nowej technice i ekonomii, oraz wyrzuconych poza jej obręb. Ale obecne trudności okażą się drobne wobec spiętrzonej góry problemów, które wywoła pojawienie się infoludzi. Komu będą przysługiwać nanoimplanty? Komu jakie? Czy będą o tym decydować tylko możliwości nabywcze jednostek, czy wzgląd na dobro społeczne reprezentowany przez specjalne komisje?

Będą to zmartwienia naszych wnuków, ale że troska o nich nie jest naturze ludzkiej obca, warto im pomóc, przygotowując tamte wspaniałe i trudne czasy. Pomóc przez namysł tak gruntowny, by sprostał rozmiarom tego gigaproblemu w sprawie nanotechniki.

--------------------------------------------------------------------------------

Profesora Witolda Marciszewskiego próby (daremne) algorytmizacji rozumowań filozoficznych doprowadziły do problemu automatycznego dowodzenia twierdzeń i innych zagadnień informatyki: Mechanization of Reasoning, Amsterdam 1995, Tajniki Internetu 1995, Sztuczna Inteligencja 1998. Tym zagadnieniom poświęcona jest prowadzona przezeń domena www.calculemus.org. Witold Marciszewski zajmuje się też tematyką przekonywania i dyskusji: Podstawy logicznej teorii przekonań, Sztuka dyskutowania, Logic from a Rhetorical Point of View, Berlin 1994 oraz edytorstwem encyklopedycznym (m.in. Dictionary of Logic: Concepts, Methods, Theories, Haga 1981). Inspiracje filozoficzne zawdzięcza wierze Leibniza, że świat jest nieskończonym zbiorem obiektów porównywalnych do software'u.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200