W obronie SILNEJ Sztucznej Inteligencji

Widmo krąży nad Europą, Ameryką Północną i Azją Południowo-Wschodnią - widmo artilekta, czyli myślącej maszyny... I nic to nie obchodzi przeciętnego zjadacza chleba, nawet większości świata nauki.

Widmo krąży nad Europą, Ameryką Północną i Azją Południowo-Wschodnią - widmo artilekta, czyli myślącej maszyny... I nic to nie obchodzi przeciętnego zjadacza chleba, nawet większości świata nauki.

Wśród tych, którzy o tym wspominają, większość robi to z pobłażliwym uśmieszkiem albo z grymasem niechęci, takim, jaki zdaje się przebijać z wywiadu, którego udzielił tygodnikowi Computerworld (nr 40 z 2 listopada 1998 r. "Przypuszczam, że wiem, czego nie wiemy o sztucznej inteligencji") profesor Witold Marciszewski - filozof i niekwestionowany autorytet w dziedzinie logiki formalnej. Tymczasem idea strong AI, czyli sztucznej inteligencji (artificial intelligence) w odmianie zwanej "silną", ma już pokrycie w sprzęcie i metodologii, które umożliwiają budowę sztucznego mózgu.

Inżynieria ewolucji

Projektowanie można zastąpić hodowaniem. Z utworzonych losowo "kodów genetycznych" rozwijają się programy komputerowe lub schematy układów elektronicznych, które są automatycznie testowane, a najlepsze mogą się łączyć w pary i mieć "potomstwo". Nowe pokolenie poddawane jest testowaniu, znowu najlepsze egzemplarze mogą się łączyć w pary itd. W którymś pokoleniu pojawia się kod genetyczny zadowalającego tworu.

Jeśli trudno sobie wyobrazić hodowanie nowej wersji Worda albo gry Red Alert, to tylko dlatego że problemem jest automatyzacja oceny jakości. Nie występuje ten problem w przypadku imitacji tkanki nerwowej. Maszyna skonstruowana w pracowni dr. Michaiła Korkina w Kolorado w swej obecnej wersji jest sprzętowym siedliskiem, w którym można wyhodować i połączyć w jeden zwarty system ponad 30 tysięcy modułów. Każdy z nich może imitować ponad tysiąc sztucznych neuronów. Dopóki nie było takiego sprzętu, dopóty o strong AI można było co najwyżej debatować. Teraz jest ją na czym wykonywać. Można także testować różne struktury sztucznego umysłu i strategie ich otrzymywania, nie wyłączając kontrolowanej samoorganizacji. Zastosowana przez Korkina technologia umożliwia nieograniczone dokładanie modułów. Któraś zatem wersja maszyny będzie pod względem liczby neuronów porównywalna z ludzkim mózgiem. Czy myślenie da się sprowadzić do impulsów wędrujących w labiryncie sieci neuronowej? Nie wiemy. Chcemy zatem coś takiego zrobić i zobaczyć, czy to coś myśli. I tak właśnie, w odróżnieniu od filozofa, rozumuje inżynier.

Ewolucja na skróty

Replikatory to byty zdolne do pozyskiwania z otoczenia konkretnego materiału i przekształcania go we własne kopie. Dzięki "niedoskonałości" kopiowania może nastąpić ich ewolucja. Z różnorodności replikatorów i ich otoczenia wynika mnogość różnych przebiegów ewolucji, a w rezultacie różnorodność wyewoluowanych form. Eksperymenty symulacyjne wykazały, że z różnych replikatorów można wyewoluować formy nie różniące się zachowaniem.

Postawmy zatem Wielką Hipotezę, że z replikatora zbudowanego z innego niż białko materiału może wyewoluować forma zachowująca się w określonych sytuacjach w sposób zbliżony do zachowań homo sapiens. Pogląd odrzucający Wielką Hipotezę a priori to "białkocentryzm", który obecnie wydaje się być równie popularny, jak geocentryzm jeszcze 500 lat temu. Ciekawe, kiedy biologia doczeka się swego Kopernika, który odbierze białku monopol na życie?

Słuszność Wielkiej Hipotezy można wykazać poprzez demonstrację sztucznego tworu, zachowującego się w sposób wskazujący na ludzkie zdolności umysłowe. Być może dojdziemy kiedyś do mocy obliczeniowych, które udźwigną wirtualny ekosystem i elektroniczną replikę ewolucji życia na ziemi. Ale niektórzy z pionierów strong AI nie mają cierpliwości czekać. Wymyślili więc ewolucję "na skróty". Niech pierwotnym replikatorem będzie forma wysoko rozwinięta i trochę już myśląca - jakiś "dziecinny" humanoid. Od tradycyjnych maszyn różniłby się przede wszystkim posiadaniem "genomu" - czegoś, co można mutować i krzyżować, a dzięki temu będzie możliwa dalsza ewolucja.

Jak zrobić mózg takiego replikatora? Być może na zasadzie intelektualnej piramidy. Wysiłek konstrukcyjny rozłożony na kilkuset projektantów, z których każdy z góry dostaje zadanie do rozpisania na kilka bądź kilkanaście podzadań dla projektantów niższego poziomu. Na najniższym poziomie inżynierowie ewolucji, uzbrojeni w maszyny Korkina, wyhodują moduły imitujące działanie sieci neuronowych zorientowanych na wykonywanie zadań, których nie ma sensu dzielić.

Dr Hugo de Garis twierdzi, że mając 2000 inżynierów ewolucji wyposażonych w odpowiedni sprzęt, byłby w stanie w latach 2001-2005 skonstruować mózg o inteligencji ludzkiego dziecka. Od takiego mózgu pierwotnego replikatora zacznie się ewolucja istot o niepoznawalnej dla ludzi strukturze wewnętrznej. Czy uda się doprowadzić w ten sposób do pojawienia się rozumnych maszyn? Może tak, może nie. Grupa dr. de Garisa zamierza sprawdzić Wielką Hipotezę empirycznie: stworzyć i zobaczyć.

Sztuczna inteligencja pod obstrzałem

Każde zamierzenie musi mieć przeciwników. Taka jest, była i będzie rzeczywistość społeczna. Ogłoś, że zamierzasz posadzić drzewko, zaraz usłyszysz chór malkontentów. A po co tu drzewko? Zasłoni widok. Psy będą pod nie sikać... A skąd pewność, że wyrośnie, że nie uschnie? Ile hałasu może być o głupie drzewko! A co dopiero, gdy w grę wchodzą duże pieniądze, które mógłby dostać kto inny na co innego!

"Jeśli jest mowa o ogólnym pojęciu, które nie ma własnej nazwy, lecz musi być określone obrazowo, przez porównanie, musimy wybrać od razu takie porównanie, które będzie korzystne dla naszego twierdzenia". Jest to "Sposób 12" z dziełka Erystyka, czyli sztuka prowadzenia sporów Artura Schopenhauera, z którego korzystają najbardziej zdeterminowani przeciwnicy strong AI.

I tak np. mówią "hard AI" (aby się kojarzyło z hard-porno), projekty zmierzające do wyhodowania myślącej maszyny nazywają "radykalnymi" (aby kojarzyło się ze skrajną lewicą), zwolenników poglądu, iż maszyna może myśleć, nazywają fundamentalistami (aby kojarzyło się z władzą ajatollahów). Zdarza się przypisywanie wszystkim zwolennikom strong AI jednakowych poglądów, przedstawianych w formie karykaturalnej. W kontekście "radykalnego projektu sztucznej inteligencji" można np. przeczytać, iż "entuzjaści tego projektu uważają, że z całą pewnością wiedzą, iż umysł NIE musi być kodowany w liczbach niewymiernych i NIE jest kodowany w liczbach nieobliczalnych, a materialne podłoże tego kodu NIE jest w swej naturze nieskończone" (cytaty z rozmowy z prof. Witoldem Marciszewskim). Uważają, że wiedzą! I to jeszcze "z całą pewnością"! Cóż, przypisywanie pewnej cechy czy poglądów całej grupie społecznej psychologia nazywa podstawowym błędem atrybucji.

Co mają liczby niewymierne i niepoliczalne do budowy maszyny myślącej? Kwestia to o tyle istotna, że przeciwnicy "wygórowanych ambicji kierunku radykalnego" używają ich jako koronny argument. Tyle, że nic nie wskazuje na to, aby istniały one gdziekolwiek poza słowami kogoś, kto o nich mówi. "Pi" jest liczbą niewymierną, określającą stosunek obwodu idealnego koła do jego średnicy, przy czym nic w przyrodzie nie jest idealnym kołem. Do obliczenia pojemności garnka wystarczy przybliżenie liczby "pi" z dokładnością do dwóch miejsc po przecinku. Co do liczb niepoliczalnych - gdyby dowód ich istnienia ogłoszono w czasach, gdy jeszcze nie było samolotów, zapewne znaleźliby się przeciwnicy budowania maszyn latających, motywowani wątpliwością, czy aby fenomen latania nie jest oparty na liczbach niepoliczalnych. Tymczasem podejście inżynierskie to próbować, próbować, i jeszcze raz próbować. I czasem wyjdzie coś, co autorytety uznały za niemożliwe.

Czy samolot może latać?

Dla wielu niemożliwe było dotarcie drogą morską do Indii - z powodu góry magnetycznej (wyciągającej gwoździe z pokładu), węża morskiego itd. Czy Kolumb "wiedział z całą pewnością", że nie ma góry magnetycznej i węża morskiego? Nie wiedział. Lecz zaryzykował i się udało. Dla wielu niemożliwe było zbudowanie maszyny latającej. Nie zainwestował w tę "mrzonkę" ani centa sławny wynalazca Tomasz Edison, wybitny astronom Simon Newcomb "udowodnił" zaś, że maszyna nie może latać. Teraz Amerykańskie Stowarzyszenie Sztucznej Inteligencji przyznaje doroczną nagrodę imienia Newcomba za... najgłupsze argumenty przeciwko sztucznej inteligencji.

Czytamy, że obóz strong AI (cały?) "nie ma już wątpliwości, że wszelkie stworzenie zostało ukształtowane na obraz i podobieństwo komputera" i "dopóki się tego podobieństwa nie udowodni, nie ma co ogłaszać, że jesteśmy o krok od inteligencji sztucznej, która w każdym wymiarze dorówna naturalnej". Z jednej strony zatem zarzut braku dowodu, a z drugiej usiłowanie pozbawienia obozu strong AI środków na przeprowadzenie takiego dowodu. Jak bowiem inaczej rozumieć zdanie: "Jeśli mamy skutecznie posuwać się do przodu, to nie inwestujmy w przedsięwzięcie, którego pomysłodawca zapowiada, że za 10 lat wyprodukuje Einsteina". Tak samo przed wiekami przekonywano możnych, że rozwijanie żeglugi przybrzeżnej - owszem, godne jest poparcia, ale ani grosza na przedsięwzięcie, którego pomysłodawca zapowiada, że za miesiąc dopłynie do Indii. Tak samo sto lat temu argumentowano, że rozwój linii kolejowych - owszem, ale nie inwestujmy w projekt, którego pomysłodawca zapowiada, że za 10 lat przeleci nad kanałem La Manche, albo w projekt, którego pomysłodawca zapowiada, że za 70 lat ludzie wylądują na Księżycu.

Eksperyment nade wszystko

Czy fenomen myślenia może mieć miejsce bez angażowania kontinuum światów Leibniza? Obóz strong AI - tutaj profesor W. Marciszewski ma całkowitą rację - dotąd tego nie udowodnił. Ale czy to jest powód do zaniechania prób zbudowania maszyny myślącej? Przecież w sztucznej sieci neuronowej też mogą zachodzić zjawiska kwantowe i interakcje pól. Że mało o nich wiemy? A czy do zbudowania pierwszej tratwy potrzebna była znajomość prawa Archimedesa? Historia odkryć i wynalazków pokazała, że można z pożytkiem wykorzystać prawa natury nie do końca je rozumiejąc. Czy ewolucja tworów sztucznych prowadzi do zachowań deklarowanych jako cel strong AI? Nie wiemy, bo i skąd! Ale żeby z tego powodu domagać się pozbawienia nas środków na badania? Panie Profesorze!

Dr Andrzej Buller uczestniczy w projekcie CAM-Brain, prowadzonym pod kierunkiem dr. Hugo de Garisa, zmierzającym do budowy drogą ewolucyjną sztucznego mózgu. Pracuje na Politechnice Gdańskiej.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200