Czy sieci neuronowe pozwolą pokonać barierę turinga?

We wrześniu ub.r. rozpoczęliśmy cykl "Drogi ku sztucznej inteligencji". Aby podsumować całoroczne dociekania, autorzy artykułów - prof. Witold Marciszewski, dr Marek Hetmański i dr inż. Andrzej Buller oraz prof. Andrzej Grzegorczyk, wybitny logik i filozof - zgodzili się przyjąć nasze zaproszenie do dyskusji redakcyjnej o barierze Turinga. Prof. Witold Marciszewski postawił przed uczestnikami dyskusji pytanie: Czy można i czy trzeba pokonać barierę Turinga, czyli górną granicę możliwości obliczeniowych, podanych w definicji maszyny Turinga. Od odpowiedzi na to pytanie zależy stosunek do różnych metod tworzenia maszyn obdarzonych sztuczną inteligencją. Jedną z nich są sieci neuronowe. Dyskusję moderował dr Krzysztof Szymborski.

We wrześniu ub.r. rozpoczęliśmy cykl "Drogi ku sztucznej inteligencji". Aby podsumować całoroczne dociekania, autorzy artykułów - prof. Witold Marciszewski, dr Marek Hetmański i dr inż. Andrzej Buller oraz prof. Andrzej Grzegorczyk, wybitny logik i filozof - zgodzili się przyjąć nasze zaproszenie do dyskusji redakcyjnej o barierze Turinga. Prof. Witold Marciszewski postawił przed uczestnikami dyskusji pytanie: Czy można i czy trzeba pokonać barierę Turinga, czyli górną granicę możliwości obliczeniowych, podanych w definicji maszyny Turinga. Od odpowiedzi na to pytanie zależy stosunek do różnych metod tworzenia maszyn obdarzonych sztuczną inteligencją. Jedną z nich są sieci neuronowe. Dyskusję moderował dr Krzysztof Szymborski.

Krzysztof Szymborski: Czy logika formalna jest nauką opisową, czy normatywną, a może jest produktem naszego umysłu lub odkryciem praw przyrody? Człowiek nie musi sobie uświadamiać praw logiki, aby się nią posługiwać.

Andrzej Buller: Wobec tych wyżyn intelektualnych podejmę się roli "Marchołta grubego, a sprośnego" i zapytam przewrotnie, czy osobnik odziany w skórę, który potrafił w jakiś sposób zrobić pętelkę z korzonka lub łyka na zajęcze wnyki, był obdarzony inteligencją? Byłoby bezzasadne pytać go o aksjomaty logiki. Mimo to należał do istot rozumnych. Sądzę, że zdolność do rozważania zawiłości logiki formalnej i aksjomatów indukcji nie ma nic wspólnego z rozumnością. Rozumność to umiejętność przetrwania wobec różnych niebezpieczeństw i wyrafinowane formy radzenia sobie z różnymi przeciwnościami. Jej efektem ubocznym jest powstanie IX Symfonii Beethovena.

Witold Marciszewski: Nie czuję tu żadnego przeciwieństwa! Cenię wysoko inteligencję praktyczną. Nie odmawiam inteligencji ludziom pierwotnym ani psom i kotom, ani nawet pchłom i pająkom. One wszystkie racjonalnie walczą o przetrwanie. Miarą sukcesu konstruktorów sztucznej inteligencji będzie jednak wytworzenie umysłu nie pająka, ale Einsteina. Powiem to inaczej, nawiązując zarazem do wypowiedzi Krzysztofa Szymborskiego. Symulować komputerowo zachowania logiczne to żadna sztuka, bo nawet obwody elektryczne funkcjonują według praw logiki. Sztuką jest symulować takie procesy, jak tworzenie teorii logicznych czy matematycznych. Dopiero gdy to będą umieć konstruktorzy SI, skłonię głowę przed ich sukcesem. Kiedy więc wytworzycie Panowie sztucznego Leibniza?

Andrzej Buller: To kwestia wiary w pewną doktrynę tworzenia takich systemów. Konstruujemy system, który ma komputerowy genom. Wówczas może być replikowany, mutowany lub krzyżowany. Następne generacje będą coraz doskonalsze. Trudno jednak dzisiaj orzec, co zostanie osiągnięte. Jest to proces nieprzewidywalny, można jednak domniemywać, iż doprowadzi on do jakichś tworów, które dościgną rozumnością rozum ludzki.

W moim przekonaniu, można posługiwać się zasadami logiki wcześniej niż się je potrafi zdefiniować. To przypadek sprawił, że jaskiniowcowi udało się złapać królika. Pamiętajmy też, że wiele zachowań ludzi jest niezgodnych z logiką - człowiek wpada w panikę, stresuje się i popełnia błędy. Trzeba było dociekliwości Platona, Arystotelesa i innych greckich filozofów, aby obserwacje racjonalnych ludzkich zachowań zapisać w postaci zasad logiki.

Andrzej Grzegorczyk: Profesor Witold Marciszewski chciałby wykryć mechanizm rozwoju logiki od pierwotnego do współczesnego człowieka i później to samo zaprogramować w maszynie. Czy idea ta jest wykonalna? W historii mogły zadziałać elementy twórcze, skokowe, lecz Witold Marciszewski jest przekonany, że w gruncie rzeczy we wszystkim był jakiś algorytm. My tego nie wiemy. Pozostał wyłącznie fakt zaistnienia. Jeżeli już mamy aksjomaty logiki, to po co je znowu odtwarzać - możemy je przyjąć. Wszakże budujemy maszyny opierając się na aksjomatach logiki. Inaczej nie można konstruować urządzeń. Po co więc mamy podglądać Pana Boga i domyślać się, jak to powstało, skoro używamy narzędzi dawno wyprodukowanych?

Marek Hetmański: Nawiążę również do głównej kwestii postawionej przez profesora Witolda Marciszewskiego. Czy można odnaleźć na poziomie neuronalnym, a więc w strukturze molekularno-komórkowej organizmu ludzkiego, głównie mózgu, jakieś prawidłowości, które nazwiemy algorytmem. Takie, które dałyby się odtworzyć i implementować w maszynach, by potrafiły one robić to, czego my ludzie uczyliśmy się przez miliony lat ewolucji? Jest to ciekawe wyzwanie, ma swój silny motyw techniczny, ale od strony poznawczej - filozoficzno-logicznej - poszukiwanie algorytmu na poziomie neuronalnym w organizacji cielesnej jest zadaniem nie do wykonania. Współczesne badania neurofizjologiczne pokazują, że działanie mózgu jest bardzo zdeterminowane. Mózg jest układem fizycznym, najbardziej skomplikowanym bytem w kosmosie pod względem połączeń elementów składających się na sieć neuronalną. Nawet rozpatrując mózg w jego elementarnych działaniach, trzeba być świadomym, że prawidłowości tego układu są nie do opisania i nie do wyobrażenia. Ponadto badania na podstawie precyzyjnych technik monitorowania pracy mózgu podczas prostych czynności poznawczych, jak postrzeganie czy mówienie (a więc wnioskowanie), pokazują, że nie zachodzi ona wciąż w tych samych ośrodkach ani według tych samych schematów. Za każdym razem i ze względu na zmienne zewnętrzne warunki środowiskowe nasze działania na poziomie neuronalnym zachodzą w nieco odmienny sposób. Lecz nie tutaj zrodziła się logika czy algorytmiczność naszego działania - logika nie wyrosła z biologii mózgu. Stworzyły ją na podłożu cielesnym zewnętrzne (np. kulturowe) czynniki. Poszukiwanie algorytmu na tym poziomie jest bardzo trudne, nie wiadomo nawet czy wykonalne, nie jest też tak naprawdę potrzebne do budowy inteligentnych maszyn. Jeśli uwzględnimy wymogi sztucznej inteligencji jako przemysłu, to rzeczywiście wymusza ona poszukiwanie algorytmu. Nie musi być to jednak zagłębianie się w strukturę neuronalną ludzkiego mózgu.

Witold Marciszewski: Profesor Grzegorczyk trafnie odtworzył myśli, które przypisuję moim oponentom, kiedy próbuję się wczuwać w ich racje, jakby advocatus diaboli. Cieszę się, że ta symulacja okazała się tak dobra, iż została wzięta za mój pogląd. Chodzi o pogląd, że w gruncie rzeczy we wszystkim był algorytm. Naprawdę, to mam skłonność do sądzenia, że we wszystkim jest jakaś liczba, w myśl biblijnego wersetu "wszystko urządziłeś pod liczbą i miarą", ale nie musi to być liczba obliczalna, czyli dostępna naszym technikom rachunkowym. Inaczej mówiąc, nie zawsze musi to być algorytm.

Tu pora podjąć tok myśli Marka Hetmańskiego. Nieprzewidywalność zachowań mózgowych, którą on tak sugestywnie nakreślił, nie świadczy jeszcze o braku algorytmu. Może się też brać z tak wielkiej złożoności algorytmu, że wymyka się ona naszej wiedzy. Wychodząc naprzeciw moim adwersarzom, rzecznikom tzw. silnej sztucznej inteligencji, próbuję podreperować ich argumentację taką oto supozycją. Nierozstrzygalność logiki i większości teorii matematycznych polega na braku algorytmu, który dałby się sformułować w naszym języku służącym do komunikacji. Ale czy nie mogą istnieć silniejsze algorytmy w języku wewnętrznym systemu nerwowego?

Oto moja rada dla adwersarzy: niech idą tym tropem, w ścisłej współpracy z neurobiologami.

Krzysztof Szymborski: Jaka jest relacja między algorytmicznością i determinizmem operacyjnym a tym, co nazywamy wolną wolą? Co oznacza termin "inteligencja", tak niejednoznaczny w przypadku maszyn? Ray Kurzweil twierdzi, iż inteligencja jest automatycznym produktem ubocznym szybkości wykonywania operacji. Jeśli w roku 2020 komputery osiągną poziom szybkości i pamięci mózgu ludzkiego, to automatycznie staną się porównywalnymi istotami inteligentnymi. Inni futuryści przewidują, że kosmos zostanie skolonizowany przez maszyny jako nowy gatunek, który będzie w pewnym sensie naszym potomkiem. Czy zatem w algorytmiczności tkwi różnica między działaniem mózgu organicznego a krzemowego?

Witold Marciszewski: Wspomniany przez Krzysztofa Szymborskiego gatunek autorów świetnie opanował strategię sukcesu komercyjnego. Trzeba mówić rzeczy tyleż proste, co niedorzeczne, jak ta, że inteligencja jest produktem ubocznym szybkości wykonywania operacji. Jeśli chodzi o mnie, wolę maksymę: "Trzy razy pomyśl, potem zrób" aniżeli tę, która by zachęcała do szybkości: "Najpierw pomyśl, potem zrób". Raczej ta pierwsza sprzyja decyzjom inteligentnym. Ale taka niedorzeczność świetnie się sprzedaje (podobnie jak np. ta, że nastąpił już koniec historii), bo pozwala na tezy proste i wyraziste. Skoro decyduje szybkość, to jasne, że inteligencja komputerów będzie wzrastać niepowstrzymanie. I tak czytelnik ma poczucie logiki nieprzepartej, a przy tym nie wymagającej łamania sobie głowy.

Pozostaje tylko ten drobiazg: co z prawdziwością przesłanki? Tu wraca jak refren sprawa algorytmu, czyli problem, co w świecie jest obliczalne. Autor powyższej tezy musiał założyć z góry, że nie ma w tym względzie różnicy między człowiekiem a komputerem. I tak wziął przeszkodę jednym skokiem, uznawszy za załatwione to, z czym uporać się najtrudniej. Jest to kwestia, czy w przyrodzie, a więc może i w mózgu, występują funkcje nieobliczalne.

Pewien tekst Andrzeja Grzegorczyka na temat rozstrzygalności zawiera taką oto refleksję: "Badając przyrodę, próbuje się zwykle ująć jej zależności za pomocą funkcji obliczalnych, zwykle bardzo prostych. Funkcja przyjmowana na początku okazuje się często niedokładna. Być może pewnym zależnościom fizycznym odpowiadają dokładnie dopiero pewne funkcje nieobliczalne lub nawet niedefiniowalne za pomocą matematycznych pojęć. Wszelkie matematyczne wzory byłyby wtedy dalekimi przybliżeniami". Jeśli mózg ludzki zawdzięcza pewne osiągnięcia temu, że rządzą nim niezwykle subtelne prawa wymykające się funkcjom obliczalnym, a więc niealgorytmiczne, to żadna przewaga maszyny co do szybkości nie nadrobi tego, że jest ona zdana wyłącznie na algorytmy.

Andrzej Grzegorczyk: Czy ludzkie wytwory są rezultatem działań algorytmicznych w ogóle, czy też są wynikiem działań nie tylko algorytmicznych? To jest podstawowa alternatywa, na którą - moim zdaniem - nie będzie nigdy odpowiedzi. Wykryć działanie niealgorytmiczne jest zasadniczo niemożliwe. Wolność człowieka, której mamy poczucie na co dzień, jest też takim działaniem, którego algorytmiczności wykryć nie możemy. Gdybyśmy wykryli, to zrozumielibyśmy, czym jesteś-my zdeterminowani. Przecież żyjemy dzięki poczuciu, że możemy coś zrobić! To naturalne poczucie wolności jest istotą naszych możliwości życia. Nie można podjąć decyzji, wiedząc, że jest się zdeterminowanym. Podejmuje się decyzje, dlatego że się uważa, iż mogę np. wstać i wyjść do drugiego pokoju. Bez tego nic nie można zrobić. Stąd badanie naukowe jest wykrywaniem determinizmu. I tylko to ma sens. Jeśli coś nie jest zdeterminowane, to nie można tego badać. Wykrywanie prawa to nic innego, jak odkrywanie pewnego determinizmu, że w danych warunkach coś zawsze się stanie. Słowem - determinizm jest uznaniem istnienia algorytmów.

Andrzej Buller: Zdaje się, że milcząco zakładamy, iż determinizm równa się przewidywalności dla nas. A co z jakimkolwiek wzorem rekurencyjnym, który jest algorytmem, ale dopóki nie przeprowadzi się całego procesu iteracji, to nie ma szans wiedzieć, co z niego wyjdzie?

Marek Hetmański: Poszukiwanie zdeterminowania i algorytmiczności w zachowaniach człowieka jest ważnym zadaniem. Lecz one rzadko są zdeterminowane jednoznacznie, nie są też całkowicie algorytmiczne. Rzecz ma się już inaczej w przypadku wytworów tych działań. One są produktami gotowymi, mają więc już swój zrealizowany schemat, są zalgorytmizowane całkowicie. Prowadziło jednak do nich działanie nie całkiem algorytmizowalne. Istotą ludzkiego działania jest bowiem to, że chcąc być w pełni algorytmiczne (bo wtedy jest skuteczne, daje się odtworzyć w maszynach, które wyręczą człowieka), zaczyna od niealgorytmiczności i na niej też kończy, zwłaszcza gdy dotyczy twórczości. Największy zatem sens ma poszukiwanie algorytmiczności w wytworach człowieka - logika jest właśnie taką algorytmicznością.

Witold Marciszewski: Czy chciał Pan powiedzieć, że logika jest tym wytworem człowieka, który cechuje się algorytmicznością? To prawda, że pewne jej partie wzorowo reprezentują tę cechę. Ale już dla logiki predykatów nie ma algorytmu, który o każdej procedurze dowodowej mógłby powiedzieć, czy zakończy się ona dowiedzeniem rozważanego zdania, czy też nie. Jest to, przypomnijmy, ta właśnie bariera, którą na użytek naszej dyskusji nazwaliśmy barierą Turinga, gdyż to Turing udowodnił fakt nierozstrzygalności logiki. Nadzieja na jej pokonanie jest może w sieciach neuronowych, warto więc coś więcej się o nich dowiedzieć.

Krzysztof Szymborski: Wydaje mi się, że Andrzej Buller woli działać jak Kolumb niż zastanawiać się teoretycznie, jak pokonać barierę Turinga. Czy widzi Pan szansę na stworzenie maszyny mającej poczucie wolności?

Andrzej Buller: Tak. Ale zanim uzasadnię moje przekonanie, zastanówmy się jeszcze przez chwilę nad algorytmicznością. W moich pracach definiuję zachowanie pojedynczego neuronu - jakie sygnały na wyjściu pojawią się po podaniu określonych sygnałów na wejściu oraz jak się wówczas zmieni stan neuronu rozumiany jako zbiór wag, czyli wartości charakteryzujących ewentualne połączenia z innymi neuronami. Używam do tego w miarę prostego wzoru.

Andrzej Grzegorczyk: Ależ używa Pan zasad logiki, od której zamierza uciec...

Andrzej Buller: Rzeczywiście... Zgoda. Ale tak jest tylko na etapie definiowania pojedynczego neuronu. Potem definiuję konkretny system połączeń w jakiejś grupie neuronów...

Andrzej Grzegorczyk: Czyni to Pan za pomocą pojęć logicznych!

Andrzej Buller: Tak, ale stany początkowe tych neuronów ustawia już generator liczb losowych. I tutaj też kończy się moja rola, resztę przejmuje nauczyciel sieci. Podaje on przykłady pobudzeń na wejściu do sieci i jej oczekiwane reakcje. Na podstawie różnic pomiędzy reakcjami sieci tymi, które są, a tymi, co miały być, następują samoistne zmiany stanów neuronów. To, co się globalnie zmienia w sieci, jest już poza kontrolą. Jeśli pojedynczy neuron jest dobrze zdefiniowany, to wówczas następuje konwergencja - reakcje sieci będą coraz bliższe oczekiwanym.

Witold Marciszewski: To znaczy, że Pan nie zna algorytmu, ale to nie znaczy, iż go nie ma.

Andrzej Buller: Algorytm jest znany tylko na poziomie elementarnym. Jeśli sieć jest zbudowana prawidłowo, zaczyna reagować w sposób coraz bardziej zbliżony do oczekiwanego - nawet na przykłady, z którymi nie miała do czynienia (tak!) - i nikt nie wie dlaczego. Cóż nam po wydruku z kolumnami liczb oznaczającymi wagi połączeń? Nic te liczby nie mówią. Człowiek jest zatem w stanie zbudować działające zadowalająco urządzenie, nie rozumiejąc zasady jego działania!

Witold Marciszewski: Laplace widział rzeczywistość fizyczną w taki oto sposób. Człowiek nie wie wielu rzeczy. Ale gdyby był taki demon, który zna wszystkie prawa przyrody oraz stan każdej cząstki w kosmosie, to byłby w stanie przewidzieć nawet najbardziej odległy w czasie stan dowolnej cząstki. To jest obrazowa definicja determinizmu. Otóż, gdy pytam, czy działa algorytm w sieciach neuronowych, to nie interesuje mnie świadomość konstruktora, lecz świadomość owego demona, która symbolizuje obiektywne zdeterminowanie stanów rzeczy.

Andrzej Grzegorczyk: Pytanie się sprowadza do przekonania, czy wierzy się w absolutny determinizm, czy nie.

Krzysztof Szymborski: Słowem, czy wierzy Pan, że na drodze ewolucji sieci neuronowych powstanie istota, która będzie potrafiła dochodzić do aksjomatów?

Andrzej Buller: Nie mam powodu, aby nie wierzyć. Gdybym był konstruktorem statków powietrznych kilka wieków temu, nie miałbym powodów, aby upierać się przy pierzu na skrzydłach, bo tak jest w przyrodzie. Uważam więc, że system złożony z tych topornych, kanciastych neuronów, powstających w maszynie Korkina, będzie mógł samoistnie ewoluować metodą prób i błędów, niekoniecznie pod kontrolą ludzi.

Oczywiście trzeba też określić, co reprezentują sygnały na wejściu i sygnały otrzymywane. Wówczas można pokazywać różne przykłady zależnoś-ci logicznych i sieć neuronowa może zacząć odpowiadać zgodnie z logiką. Przykładowo - jeśli jej pokazujemy, że A to B, B to C, znaczy, że A to C. Po pokazaniu wielu przykładów sieć sama się skonfiguruje.

Andrzej Grzegorczyk: Ale to Pan zaprogramuje maszynę, żeby z tych dwóch wniosków wysunąć trzeci.

Andrzej Buller: Moim zadaniem jest wyłącznie zaprogramowanie pojedynczego neuronu. Podczas pokazywania przykładów i pożądanych odpowiedzi następuje iteracyjny proces stopniowej zmiany wag połączeń między tymi neuronami, którego intelektualnie nie jesteśmy w stanie pojąć. W miarę uczenia sieć reaguje prawidłowo na przykłady, których nie było w czasie nauki. Wiedza została odpowiednio zgeneralizowana. Nie ma jednak pewności, czy sieć się właściwie nauczy. Czasami zmiana kolejności podawanych przykładów decyduje o sukcesie lub porażce.

Jestem przekonany, że gdy ewolucję rozpoczniemy od sieci złożonej z ponad 30 milionów neuronów - tyle da się już "wyhodować" dzięki technologii CoDi w maszynie Korkina - sieci wyposażonej w kod genetyczny zapisany za pomocą zer i jedynek, zdolny do replikowania i mutowania, przy założeniu, iż będziemy dokonywać selekcji i pozwalać zdolniejszym wytworom na łączenie się w pary i posiadanie "potomstwa", to powstaną istoty rozumne.

Witold Marciszewski: W ostatniej wypowiedzi Andrzeja Bullera fundamentalne wręcz jest sformułowanie: "Będziemy dokonywać selekcji i pozwalać zdolniejszym wytworom na łączenie się w pary i posiadanie ÇpotomstwaČ". Selekcja wymaga kryteriów, które by określały, co zasługuje na przetrwanie i replikację. Nad tym fundamentalnym postulatem nie wolno się nam prześliznąć. Bo proszę zauważyć, że oto człowiek przejmuje rolę stwórcy wielkich obszarów przyszłego świata. I to nie jego twory będą "jako bogowie odróżniający (sami z siebie) dobre i złe", ale on swą polityką selekcyjną wytworzy w nich coś w rodzaju sumienia.

Marek Hetmański: Mówienie o moralności czy sumieniu sztucznej sieci neuronowej nie ma sensu. Poza tym, czy takie systemy "ewoluujące" spełniają minimalne czynności poznawcze? Czy mają one jakąkolwiek namiastkę inteligentnego, a więc twórczego, samodzielnego, nieprzewidywalnego, zachowania? Nie! Przecież ich zachowanie jest wysoce zaprogramowane, jest algorytmiczne, jak w urządzeniach (bardzo skądinąd użytecznych) rozpoznawania linii papilarnych czy przewidywania kursów giełdowych. Sieci należy rozpatrywać przez analogię z układem człowiek - ołówek. One są na poziomie ruchów ołówkiem - nie spełniają istotnych czynności poznawczych, porównywalnych z człowiekiem, są wciąż zależne od konstruktora. Wydaje się, że nigdy nie przekroczą bariery Turinga. Fakt, reagują na swoje błędy, ale czy spożytkowują tę naukę w taki sposób jak człowiek? Entuzjaści sieci mówią, że tak, lecz mamy tutaj chyba do czynienia z nadmierną ich antropomorfizacją. Człowiek w procesie poznania za każdym razem trochę inaczej reaguje: środowisko narzuca mu zmiany. Sieci niczego nowego nie poznają, są tylko protezą zbudowaną ze względu na nasze potrzeby.

Andrzej Buller: Jeśli to urządzenie będzie miało narządy zmysłu: kamerę i mikrofon, czujnik zapachu itd. i na podstawie zebranych tą drogą informacji będzie podejmowało decyzje, to przecież ewidentnie mamy do czynienia z procesami poznawczymi.

Andrzej Grzegorczyk: Kwestią umowy jest to, co nazywamy czynnością poznawczą. Tworzenie nauki jako czynność poznawcza jest odwzorowaniem wizji tego świata w utwory napisane symbolicznie, np. na papierze. Jeżeli mówimy o procesach psychologicznych, to w ich wyniku powstają utwory symboliczne. Maszyna może więc napisać utwór opisujący, to co widzi kamera. Można umówić się, że będzie to czynność poznawcza. Ale konstruktor programu opisowego dostarcza maszynie podstawowe narzędzia analizy rzeczywistości: jego wzory rozpoznawania rzeczy i ich klasyfikowania.

Dodajmy jeszcze jedno pojęcie - twórczości. Wiąże się ona z pojęciem wolności. Czy i kiedy następuje moment twórczości jest to kwestia w gruncie rzeczy nie do sprawdzenia. Uznanie istnienia twórczości jest przyjęciem innej niedeterministycznej wizji świata. Jesteśmy wolni, jesteśmy o tym praktycznie przekonani, ale nie możemy tego stwierdzić. W pewnym zakresie naszego postępowania jesteśmy wolni, natomiast dokładnie wskazać moment decyzji wolnej, którą podjąłem - pod jakim względem, w jakiej chwili - tego nie da się wskazać. Mogę mieć tylko ogólne przekonanie, że nastąpiło to właśnie mniej więcej wtedy, gdy np. oświadczyłem się swojej wybrance serca i zrobiłem to w sposób całkowicie wolny. Ale twórczość dotyczy nie tylko budowania relacji interpersonalnych.

W każdej prawdziwej twórczości artystycznej lub naukowej jest też moment wyboru wartości. Zdeprawowany autor wybierze hipotezę, która daje mu możliwość awansu finansowego, podejmuje badania, które mają sponsorów. Autor, który poważnie traktuje przysięgę doktorską (składaną po łacinie np. na Uniwersytecie Warszawskim), będzie najpierw zastanawiał się sam, jaki temat jest poznawczo ważny, a potem dopiero szukał lub przekonywał sponsora. Każdy jego wybór wartości jest wyborem wolnym. Wybór wartości jest elementem niealgorytmicznym w naszym poznaniu. Wszystko, co poza wyborem wartości wchodzi w zakres poznania, może być algorytmiczne. Jest to żmudne sprawdzanie poprawności wnioskowań, wyników obliczeń czy warunków eksperymentu. Wybory wartości przy sprawdzeniu też często mają miejsce. Można zlekceważyć możliwość błędu (przez lenistwo, zarozumialstwo lub niechęć do kolegów itp.). Można źle wybrać próbkę badaną (przez lenistwo, kumoterstwo itp.). Można wyprowadzać wnioski zbyt ogólne (dla efektu intelektualnego i własnej reklamy). Ostateczny wynik opisu jest skutkiem wielu wyborów wartości.

Andrzej Buller: Załóżmy, że postępujemy drogą ewolucji na skróty. Jeśli jakieś urządzenie techniczne ma komputerowy genom i jest zdolne, aby produkować swoje doskonalsze kopie, to czemu nie miałyby się pojawiać aż tak wyrafinowane formy zapewniania przetrwania, jak twórczość? Może być spontanicznym generowaniem różnych wzorców albo selekcją tych, którzy mają jakiś odbiór.

Andrzej Grzegorczyk: Ale kryteria selekcji będą zaprogramowane przez konstruktora.

Krzysztof Szymborski: Kiedy będzie można nazwać maszynę inteligentną? Czy będziemy chcieli mieć w ogóle maszynę inteligentną? Dla mnie inteligencja to dążenie do autonomicznych celów. Czy chcemy, żeby maszyny miały takie cele?

Witold Marciszewski: Autonomia celów to ważny czynnik inteligencji. Czy konstruktor sieci neuronowych będzie zmierzał, by jego twory były nią obdarzone?

Andrzej Buller: Te sztuczne twory, które nie przekażą własnych genów przyszłym pokoleniom, wyginą. Muszą się więc kierować własnym interesem, wyrażającym się poprzez chęć przetrwania i posiadania lepszego "potomstwa".

Krzysztof Szymborski: Przecież to eliminuje algorytm?!

Andrzej Buller: Przypominam, algorytm jest określany tylko na poziomie elementu składowego sieci. To, co dzieje się w całej masie tych elementów, jest praktycznie poza kontrolą.

Witold Marciszewski: A ja chciałem przypomnieć mój refren, że brak kontroli ze strony konstruktora to nie to samo co brak algorytmu. Ten może istnieć i być znany demonowi Laplace'a.

Andrzej Buller: Może się okazać, że zainicjowana przez nas ewolucja tworzy formy coraz bardziej złożone, ale dochodzi do kresu wyznaczonego przez "kanciastość" sztucznego neuronu. Wiadomo że w przypadku neuronu biologicznego przekaz impulsu następuje z pewnym prawdopodobieństwem. Może istnieje czynnik sprawczy, który potrafi takimi prawdopodobieństwami manipulować? Wchodzimy na grunt metafizyki, w której pomoże nam się poruszać teoria psychonów, gdzie psychon rozumiany jest jako rozkład prawdopodobieństwa, a suma psychonów jest duszą. Rozkład prawdopodobieństwa rozpięty na wiązce dendrytów jest w stanie powodować, że w takich, a nie innych obszarach mózgu w danej chwili potencjały zostaną przekazane. Tutaj sir John Eccles, twórca tej teorii, widział klucz do intencjonalności. Jeśli zbudujemy sztuczne neurony o takiej miniaturyzacji, że wkroczymy w rewiry określane przez zasadę nieoznaczoności Heisenberga, to może uwolnimy się od ograniczeń, jakie stwarza determinizm zachowań obecnie tworzonych sieci neuronowych...

Krzysztof Szymborski: Sądzę, że czas podsumować dyskusję.

Witold Marciszewski: To może ja podejmę się tego samozwańczo jako ten, który najmniej wniósł poglądów, a najwięcej pytań. Spróbuję określić, na ile te pytania przybliżyły się, w moim przypadku, do odpowiedzi.

Pytanie główne: czy sieci neuronowe pozwolą pokonać barierę Turinga? Dr Buller zdaje się dopuszczać taką perspektywę, gdy ukazuje otchłań teorii kwantów wzbogaconej o Ecclesa teorię psychonów. Warto je mieć na uwadze. To jednak, co powiedziano o nieprzewidywalności zachowań sieci, nie przekonuje do poglądu, że będzie ona czymś różnym od maszyny Turinga, czymś obdarzonym większą potencją twórczą. Nieprzewidywalność może się brać z niedostatku wiedzy o prawach rozwoju sieci. Nie wyklucza to domniemania, że rządzi tym rozwojem ścisły determinizm.

Istotnym nurtem naszej dyskusji był związek twórczości z wolnością, podniesiony przez Andrzeja Grzegorczyka. Skoro od prawdziwej inteligencji nieodłączna jest twórczość, to przynależy też do niej wolność, a ta z natury rzeczy nie podlega algorytmom. Wygląda więc na to, że jeśli istnieją istoty wolne, to pokonują one barierę Turinga. Czy istnieją? O to można zapytać tylko siebie samego i tylko od siebie uzyskać odpowiedź.

Dyskusję opracował Sławomir Kosieliński.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200