Dlaczego nie ma sztucznego intelektu

Inteligencja bez ciała

Wszystko zaczęło się podczas letniego seminarium zorganizowanego w Dartmouth College w Hanowerze, w stanie New Hampshire, w 1956 r. Zebrali się na nim młodzi matematycy, logicy i programiści, by omówić problem komputerowego programu, który mógłby "zachowywać się lub myśleć inteligentnie". Wśród zebranych główną rolę odegrali - John McCarthy, matematyk, przyszły dyrektor instytutów sztucznej inteligencji w MIT i Stanford, Herbert Simon i Allen Newell z Carnegie Mellon University oraz Marvin Minsky, matematyk i neurolog z Harvardu, późniejszy (do dzisiaj) profesor w MIT. To McCarthy ukuł wówczas termin "sztuczna inteligencja", zaś Minsky najszerzej rozwinął potem zrodzone wówczas pomysły, przez co nazywany jest "papieżem sztucznej inteligencji".

Ranga tego spotkania polegała na jego długofalowych skutkach, na tym, że zainicjowano zespołowe i interdyscyplinarne badania nad konstrukcją złożonych systemów informatycznych, przeznaczonych do wykonywania tak różnych czynności, jak dowodzenie twierdzeń, rozpoznawanie obrazów, gra w szachy, rozwiązywanie problemów decyzyjnych itp. Twórcy tego nurtu zostali owładnięci ideą konstrukcji "myślących maszyn", które mogłyby naśladować i wyręczyć człowieka. Na tle tego entuzjazmu Herbert Simon ogłosił wprost swoim studentom: "Tuż po świętach Bożego Narodzenia wraz z Newellem wynaleźliśmy myślącą maszynę". Rzeczywiście, był to program nazwany "teoretykiem logiki", który uruchomiony na poczciwym JOHNIAC-u firmy Rand dowodził jedno z twierdzeń systemu logicznego. Zgoda, dowodził twierdzenie, ale czy faktycznie myślał?

Wkrótce do badań zdominowanych początkowo przez logików i informatyków dołączyli badacze i teoretycy psychologii poznawczej, psycholingwistyki i językoznawstwa stosowanego, badacze mózgu, zaś w latach późniejszych także biologowie, ekonomiści. Dla większości z nich komputer otwierał nowe horyzonty w nauce. W ten sposób użycie komputerowych narzędzi zaczęło nasuwać wyobrażenie o inteligencji komputera. Gatunkową cechę inteligentnych ludzkich poczynań zaczęto przypisywać narzędziom. Tak oto rodziły się nie tylko inteligentne maszyny, ale również mit o sztucznym intelekcie.

Niektórzy zaczęli wierzyć, że ludzie i komputery to dwie podklasy klasy ogólnej - fizycznych systemów przetwarzających informację w postaci znaków. O każdym takim systemie - wystarczająco złożonym oraz działającym według jakiegoś programu, którego wykonanie nie zależy od natury jego fizycznego podłoża - mówiono, że odznacza się inteligencją. Bez znaczenia jest to, na jakim podłożu ta zdolność się rozwija, ważne jest tylko to, że system taki wykonuje program. "Inteligencja nie jest sprawą substancji - protoplazmy, szkła czy drutu - lecz formy, którą substancja przyjmuje, i procesów, w niej zachodzących. Inteligencją jest umysł implementowany w każdy wymodelowany rodzaj materii" - pisał przed laty Herbert Simon. Marvin Minsky zaś dopowiadał: "Dla mnie inteligencja nie oznacza nic więcej niż kompleks działań, z którymi mamy do czynienia, ale którego nie rozumiemy. Z mojego punktu widzenia jest to raczej zagadnienie estetyki. Jeśli w przypadku człowieka, tak jak maszyny, zrozumiemy wreszcie strukturę i program, to uczucie tajemniczości i samouwielbienia zniknie". Spoza tych szokujących nieco wypowiedzi wyziera inżynierski i programistyczny punkt widzenia.

Dla ludzi z computer sciences wszystko zatem jest proste - przyroda to olbrzymi zbiór informacji do przetworzenia, zaś człowiek to złożenie (niczym w zgrabnie zaprojektowanej, wyprodukowanej i sprzedanej maszynie) ciała funkcjonującego niczym hardware komputera oraz umysłu, działającego jak jego software. W takiej perspektywie umysł człowieka to nic tajemniczego, to tylko zdolność wykonywania jakiegoś programu. Istotą umysłu jest inteligencja, która realizuje się na wiele sposobów, w różnych maszynach, a człowiek jest jednym z tego wariantów.

Czy da się rozwiązać wszelkie problemy

W badaniach nad sztuczną inteligencją od początku wyraźna była formalna, matematyczno-logiczna orientacja, która przez dłuższy czas określała ich charakter; do jakiegoś stopnia obecna jest ona do dzisiaj.

Badacze koncentrowali się wyłącznie na programach, które miały służyć do rozwiązywania intelektualnych zadań. Były to głównie programy do dowodzenia twierdzeń matematycznych i logicznych oraz do gry w warcaby i szachy. Myślę, że ten matematyczno-szachowy rodowód sztucznej inteligencji pokazuje, że dominował w niej od początku specyficzny intelektualizm małej grupki inżynierów i programistów. Uznawali, że co jak co, ale szachy i umiejętności dowodzenia są wystarczającą, a nawet jedyną, oznaką inteligencji.

Przekonanie to wspierała zresztą psychologia, która wypracowała wiele testów na inteligencję, zakładających możliwość mierzenia i oszacowania tzw. ilorazu inteligencji. Jeśli ocenia się inteligencję człowieka od ilościowej strony, to rzeczywiście łatwo wówczas dopuścić możliwość, że mogą mu dorównać w tym komputery.

W takim właśnie kontekście podjęto próby konstrukcji uniwersalnej maszyny cyfrowej do rozwiązywania wszelkich ogólnych problemów, w tym dowodzenia twierdzeń matematycznych jako najbardziej inteligentnej czynności. Pierwsze prace konstrukcyjne i programistyczne podjęto już w połowie lat 50. w USA. Były to prace prowadzone przez Allena Newella, Johna C. Shawa, Herberta Simona czy Harolda Gelerntera. Trzej pierwsi w 1958 r. napisali program zwany "teoretykiem logiki" (Logic Theory Machine), który na komputerze JOHNNIAC był w stanie, dzięki napisanemu przez nich pierwszemu językowi maszynowemu do przetwarzania zestawów symboli (IPL), udowodnić kilka z twierdzeń epokowego dzieła logiki matematycznej Principia


TOP 200