Dlaczego nie ma sztucznego intelektu

Mathematica autorstwa Bertranda Russella i Alfreda N. Whiteheada. Szybko okazało się jednak, że mimo całkiem dobrej skuteczności teoretyka logiki, klasa twierdzeń matematycznych niemożliwych do udowodnienia przez niego jest znacznie większa niż tych dających się udowodnić algorytmicznie. Badacze zdali sobie sprawę, że w sytuacji rosnącej złożoności i kosztów obliczeń, które maszyna cyfrowa ma algorytmicznie wykonać do rozpatrzenia dowolnego ciągu wyrażeń, musi ona stosować dodatkowo metodę heurystyczną. Inaczej mówiąc, maszyna musi testować tworzone ciągi pod kątem prawdopodobieństwa bycia właściwym twierdzeniem w dowodzie, a tego zwykły algorytm nie potrafi.

I tak powstał w 1958 r. słynny "rozwiązywacz ogólnego problemu" (General Problem Solver), który był dziełem A. Newella i H. Simona. Przez pewien czas był sztandarowym dziełem sztucznej inteligencji, potem zaś stał się znamiennym przykładem jej ograniczeń i wątpliwych założeń. Łącząc w swym działaniu metody algorytmiczne i heurystyczne był, jak wierzyli jego twórcy, nie tylko konkretną maszyną, lecz także maszynowym modelem inteligencji ludzkiej. To, że nie był modelem adekwatnym, dowiodły wkrótce dalsze badania.

"Zamiast poszukiwania silnych metod dedukcyjnych, które umożliwiłyby wyciąganie zdumiewających wniosków z ogólnych zasad, nowe podejście zakłada, że ludzie mogą myśleć, ponieważ czerpią z większego zbiornika specyficznie szczególnej wiedzy. Niektórzy badacze próbują zatem nadać programom inteligencję przez dodanie do niej takiej ilości wiedzy, że większa część rozwiązywania problemu staje się wydobyciem go gdzieś z pamięci" - podsumował celnie Seymour Papert, bliski współpracownik Minsky'ego, ale jednocześnie badacz o gruntownej wiedzy psychologicznej.

Inaczej mówiąc, naukowcy zaczęli "przykrawać" swoje programy nie do abstrakcyjnych (przez to dyskusyjnych) cech człowieka, lecz do konkretnych jego czynności w określonych zadaniach poznawczych. Tak otworzyła się nowa perspektywa przed sztuczną inteligencją. Sądzę jednak, że odejście od abstrakcyjnego i ogólnego podejścia (zaprogramować czy wymodelować wszystko, co człowiek czyni), choć pozwoliło jej na wybrnięcie ze ślepej uliczki, to jednak nadal pozostawiło ją narażoną na inne mistyfikacje ludzkiego działania oraz poznania. Przykładem są tzw. programy eksperckie, które stanowią jedną z ważniejszych gałęzi sztucznej inteligencji.

Poradzić się komputera

Pierwsze systemy eksperckie powstały na użytek medycyny i chemii i służyły do diagnozowania chorób o dużej liczbie zmiennych oraz badania złożonych substancji chemicznych. Zjawiskom tym poświęcone były pierwsze programy, takie jak MYCIN (diagnozowanie i terapia chorób zakaźnych), PIP (diagnozowanie chorób nerek) czy HEADMED (diagnozowanie psychofarmakologiczne). Ta pierwsza generacja systemów eksperckich była jednak jeszcze mało "inteligentna", gdyż wprawdzie analizowała rozległe bazy danych i wiedzy, wyprowadzając z nich wartościowe wnioski, lecz nie tworzyła zbyt nowatorskiej wiedzy. Niemniej pokazała, że inteligencja maszyn i programów bierze się z twórczego współdziałania z człowiekiem, który występuje jako inżynier informacji i wiedzy; komputer w takim układzie pełni rolę eksperta, z którego porad warto skorzystać.

Systemy eksperckie stały się szybko uznanym produktem rynkowym. W gospodarce społeczeństw postindustrialnych, społeczeństw informacyjnych, gdzie informacja przetworzona w wiedzę jest w cenie większej niż surowce i kapitał, takie systemy mają bezpośrednie zastosowanie. Warto przy tym zauważyć, że ich niewątpliwa "inteligencja" (może i "spryt", skoro potrafią się dobrze sprzedać) nie wywołuje zbytnich dyskusji, jakie są udziałem innych spektakularnych wynalazków z tej branży, jak roboty czy np. Deep Blue. Okazuje się, że lepiej jest, gdy maszyna od razu jest zaprojektowana pod kątem konkretnych potrzeb człowieka, niż gdyby miała spełniać zbyt szerokie i za bardzo ambitne zadania. Słowem, im mniej w wynalazku jest "wodotrysków" i wątpliwej ideologii, tym lepiej dla niego i ludzi, którzy go używają. Gdyby tylko rozumieli to wszyscy badacze sztucznej inteligencji...

W latach 70. zaczęto się skupiać nad pracami nad systemami eksperckimi. Miało to, moim zdaniem, wiele ciekawych konsekwencji filozoficznych i kulturowych. Zamysł był prosty - zautomatyzować główne czynności myślowe i praktyczne, dokonywane podczas naukowych odkryć. Prace poszły w dwóch kierunkach: rekonstrukcji pewnych, historycznie dokonanych odkryć (głównie w naukach przyrodniczych) oraz konstrukcji systemów mogących dokonać nowych eksperymentów i teoretycznych analiz.

Pierwszym systemem odkryć naukowych był BACON z 1980 r., autorstwa George'a Bradshawa, Patta Langleya i Herberta Simona, który dokonał wielu ponownych odkryć praw fizycznych i chemicznych. Jego zasadą działania było odkrywanie zależności funkcyjnej między dwiema wielkościami liczbowymi. Otrzymując na początku zbiór zmiennych niezależnych o wartościach mierzalnych (np. ciśnienie, temperatura, masa), "żądał" następnie podania wartości zmiennych zależnych, by na końcu, na podstawie procedur heurystycznego wnioskowania, formułować znane prawa fizyczne, np. Galileusza spadku swobodnego ciał. Nie miał jednak wbudowanych mechanizmów analizy tego, jak szeroko mogą być stosowane odkrywane prawa. BACON odkrywał tylko samą ich matematyczną formułę, ale nie analizował jej struktury i fizycznych konsekwencji.

Lepiej już radził sobie kolejny system - FAHRENHEIT, skonstruowany m.in. przez polskiego badacza sztucznej inteligencji, Józefa Żytkowa. FAHRENHEIT jest "inteligentniejszy" niż BACON, gdyż potrafi określić warunki graniczne (minimalne i maksymalne wartości) zmiennych niezależnych występujących w prawach empirycznych (bardzo nawet złożonych), które sam formułuje.


TOP 200