Instrukcja czy przepis

Wojenny czas jego tajnej pracy nad ostatecznym złamaniem szyfrów niemieckiej Enigmy zaowocował wizją ludzkiego umysłu w kontekście specyfiki rozwiązywania zadań o formalnym charakterze. A. Turing, deszyfrując maszynę, miał do czynienia zaledwie z fragmentami kodów na wejściu i wyjściu, które musiał odtworzyć na podstawie domniemanego algorytmicznie mechanizmu maszyny. Jak pokazuje powoli odtajniana historia prac w Bletchley Park, osiągnął na tym polu istotne rezultaty (nie bez ważnego uprzedniego wkładu polskich inżynierów). To może tłumaczyć wiarę A. Turinga w mechaniczną naturę umysłu i możliwość zbudowania myślącej maszyny.

Siła abstrakcyjnego uroku jego maszyny matematycznej oraz poglądowość testu do dzisiaj na niejednym robią duże wrażenie. To urzeczenie kontrastujące z siłą kontrargumentów (nawet z arsenału A. Turinga) powinno się chyba stać przedmiotem jakiejś psychoanalizy, której trzeba byłoby poddać zbiorowość wyznawców sztucznej inteligencji. Mity informatyczne są, jak się okazuje, nie mniej trwałe, jak te o seksualnej proweniencji.

Na to wskazała już przed laty Sherry Turkle w książce The Second Self. Computers and the Human Spirit, kiedy analizowała od strony psychologicznej poglądy programistów i konstruktorów robotów, głównie z MIT. Obraz, jaki powstał, był jednoznaczny - ludzie ci, pochłonięci zadaniem symulacji naturalnej inteligencji w komputerowych systemach, o sobie samych zaczynali myśleć jako o maszynach.

Człowiek jako maszyna

Wyraził to najdobitniej Marvin Minsky, mówiąc: "Czasami zadaję sobie pytanie, jaką maszynę musiałbym zbudować, by potrafiła rozwiązać mój problem". Słowem, istotę i granice jego myślenia określają maszyny - lecz tylko takie, trzeba dodać - które jest on w stanie zaprojektować. Narzędzie pracy wyznacza nie tylko zakres poznania, ale także współdecyduje o charakterze badanego zjawiska, w tym przypadku - umysłu. Inaczej jeszcze mówiąc, dla konstruktora sztucznej inteligencji świat wokół niego i on sam to maszyna. Turkle wyraziła tę zależność następująco: "Spory o to, co komputery mogą, a czego nie mogą zrobić, pomijają jednak istotny element. Nie mówią o tym, co jest istotne dla kultury sztucznej inteligencji: budowania nie maszyn, lecz stwarzania nowego paradygmatu myślenia o ludziach, myślenia i rzeczywistości. [...] To, czy sztuczna inteligencja może lub nie może zbudować robotów o ponadludzkiej sile, ma ważne materialne znaczenie. Chociaż teraz nam jednak do tego daleko, obecnie powinno być wyzwaniem nowej filozofii".

Paradygmat myślenia o człowieku jako maszynie jest dzisiaj mocno zakorzeniony w wielu środowiskach technicznych i intelektualnych. Nie jest nowy, gdyż już w czasach Kartezjusza i La Mettriego owładnął niemałą częścią kultury zachodniej. Dzisiaj jest trwalszy i ma rzeczywistą podbudowę technologiczną - wszak żyjemy pośród coraz bardziej sprytnych maszyn. Jednak dwudziestowieczne oblicze mitu człowieka-maszyny jest szczególne, jego istotę wyznacza bowiem przekonanie o prostocie konstrukcji myślących maszyn. Zadanie jest sformułowane prosto - trzeba wziąć chyżą maszynę i bogaty program symulacji dowolnej czynności umysłowej człowieka, a dzieło stworzenia znajdzie swój szczęśliwy koniec. Inaczej jeszcze mówiąc, bardziej fachowo, trzeba zbudować hierarchiczny, zaplanowany w szczegółach program dowodzenia algorytmicznego i implementować go w maszynie cyfrowej. Jest to sprawa jednolitej, zupełnej, doskonałej, choć niezwykle złożonej recepty. Jest ona zbiorem instrukcji, krok po kroku wskazujących, w jaki sposób należy odtworzyć ludzką inteligencję w maszynie liczącej.

Stwarzanie inteligencji

Na realizację tego zadania czekano jednak zbyt długo i pierwsza euforia konstruktorów sztucznej inteligencji minęła. Po okresie stagnacji pojawiła się w końcu nowa idea - odejścia od wyłącznie algorytmicznego programowania i uzupełnienia go heurystycznymi strategiami rozwiązywania problemów.

Nieskuteczność wielkich programów, złożonych wyłącznie z algorytmów i stanowiących skończoną całość, pozwoliła zrozumieć, że to złe podejście. Pogląd taki głosi Daniel Hillis, współzałożyciel i główny teoretyk firmy Thinking Machines, autor książki The Connection Machine. Uważa on, że programowanie i projektowanie sprzętu komputerowego winno naśladować proces ewolucji. Mózg jest najdoskonalszą złożoną i jednocześnie niezawodną maszyną, która działa nie hierarchicznie, lecz modularnie, nie szeregowo, lecz równolegle. "Kluczowy pomysł polega"- pisze D. Hillis - "na rezygnacji ze skomplikowanych konstrukcji o strukturze hierarchicznej i wykorzystaniu kombinatorycznych możliwości komputera. W istocie, symulowana ewolucja jest rodzajem heurystycznej techniki poszukiwań w przestrzeni możliwych konstrukcji". Efektywność takiej równoległej maszyny jest zasadniczo odmienna od komputera szeregowego. Zamiast działania krok po kroku, algorytmicznie, a więc zawodnie i z dużym prawdopodobieństwem błędu, maszynie takiej należy pozwolić samoprogramować się w trakcie działania. Jej program może w specyficzny sposób wyewoluować z wcześniejszych stanów.

Istotą nowego podejścia w projektowaniu maszyn jest zatem nie recepta, ale przepis, nie przestrzeganie ścisłych instrukcji, lecz odejście w stronę wielokierunkowego i równoległego procesu samostwarzania się programów. D. Hillis mówi wręcz, że jest to sprawa analogiczna do przepisu pieczenia ciasta czy uprawiania ogródka - nie chodzi tam bowiem o sztywne instrukcje, lecz właśnie ogólny przepis. W tym miejscu warto przywołać przypadek Rogera Bacona, który w swoim projekcie też zastosował raczej proste czynności niż jakąś złożoną procedurę.

Tutaj pojawia się ciekawa analogia między ewolucyjnym programowaniem a magicznym stwarzaniem sztucznego człowieka: nie znamy całego mechanizmu powstania inteligencji, lecz tylko jego ogólny charakter. Taka też jest istota inteligencji, argumentuje D. Hillis. Jego zdaniem jest ona emergentnym (ewolucyjnym) zjawis-kiem i wyłania się z nie do końca poznanych procesów. Pełna wiedza o tak złożonym zjawis-ku, jak mózg czy umysł, nie jest ani możliwa, ani nawet konieczna, dlatego też szansa na uzyskanie sztucznego rozumu w bardzo złożonym i równoległym komputerze jest duża i całkiem realna. Zresztą wcześniej go stworzymy, niż zrozumiemy naszą naturalną inteligencję.

Chyba nie jesteśmy na razie w stanie ocenić zasadności takiego podejścia. Badania jeszcze trwają i mamy do czynienia zaledwie z pojedynczymi i fragmentarycznymi wynikami. Niemniej jedna rzecz w tych badaniach zastanawia - nowa wizja techniki i człowieka. W świecie rosnącej złożoności maszyn, których działania coraz mniej są dla nas zrozumiałe, oraz odkrywanych procesów przyrodniczych i społecznych pojawia się wizja projektowania i budowania układów, być może nie tylko komputerów, lecz także układów przyrodniczych czy społecznych, które mogą przebiegać inaczej niż dotychczas sądziliśmy. Prościej, samoczynnie, a co najbardziej istotne - bez konieczności jego pełnego rozumienia. To nowy aspekt poznawczy dotychczasowych technik informatycznych. Stwarza to intrygującą perspektywę, wartą szczegółowej analizy, której podejmę się w kolejnych esejach.

Dr hab. Marek Hetmański jest wykładowcą na Uniwersytecie Marii Curie-Skłodowskiej w Lublinie.


TOP 200