Nowi odkrywcy

Istotą wiedzy i nauki są odkrycia, wynalazki, nowe idee i pomysły. Zawsze było to domeną oryginalnych i twórczych umysłów, dokonywało się indywidualnie, często w aurze tajemnicy. Mechanizacja i automatyzacja poznania tak bardzo zmieniły już naukę, że wielu badaczy i teoretyków sztucznej inteligencji sądzi, iż poddadzą się im także odkrycia naukowe oparte na intuicji i geniuszu.

Istotą wiedzy i nauki są odkrycia, wynalazki, nowe idee i pomysły. Zawsze było to domeną oryginalnych i twórczych umysłów, dokonywało się indywidualnie, często w aurze tajemnicy. Mechanizacja i automatyzacja poznania tak bardzo zmieniły już naukę, że wielu badaczy i teoretyków sztucznej inteligencji sądzi, iż poddadzą się im także odkrycia naukowe oparte na intuicji i geniuszu.

W latach 70., głównie w USA, ale także w Europie, zaczęto koncentrować badania nad komputerowymi systemami ekspertowymi także w dziedzinie badań naukowych. Zamysł był prosty - zautomatyzować główne czynności myślowe i praktyczne, dokonywane podczas naukowych odkryć. Prace skierowano, i tak jest do dzisiaj, w dwu kierunkach: rekonstrukcji pewnych, historycznie dokonanych odkryć, głównie w naukach przyrodniczych, oraz konstrukcji systemów mogących dokonać nowych eksperymentów i teoretycznych analiz.

Równocześnie z powyższymi systemami zaczęto prowadzić także prace nad systemami dokonującymi "odkryć" w bazach danych. Problemem dla twórców i użytkowników olbrzymich baz danych zawsze było takie ich zaprojektowanie, by pozwoliło np. z bazy danych statystycznych uzyskać wiedzę o pożądanych tendencjach na giełdzie czy w ubezpieczeniach społecznych. W tym przypadku oszczędność kosztów i możliwość zarobienia dużych pieniędzy były motorem prac zainicjowanych przez wielkie korporacje.

Pierwszym systemem odkryć naukowych był BACON, autorstwa George'a Bradshawa, Petera Langleya i Herberta Simona z 1980 r., który dokonał wielu ponownych odkryć praw fizycznych i chemicznych. Jego zasadą działania było odkrywanie zależności funkcyjnej między dwiema wielkościami liczbowymi. Dostając na wejściu zbiór zmiennych niezależnych o wartościach mierzalnych (np. ciśnienie, temperatura, masa), "żądał" następnie podania wartości zmiennych zależnych, by na końcu, na podstawie procedur heurystycznego wnioskowania, sformułować znane prawa fizyczne, np. spadku swobodnego ciał Galileusza. Nie miał jednak wbudowanych mechanizmów analizy tego, jak szeroko można stosować odkrywane prawa. BACON nie "rozumiał", że np. prawo Blacke'a o bilansie cieplnym nie uwzględnia topnienia czy krzepnięcia, a więc faz przejściowych; innymi słowy, system odkrywał tylko samą matematyczną formułę, ale nie analizował jej struktury.

Lepiej już szło kolejnemu systemowi - FAHRENHEIT-owi, który został skonstruowany m.in. przez polskiego badacza sztucznej inteligencji Jana Żytkowa. FAHRENHEIT jest "inteligentniejszy" niż BACON, gdyż potrafi określić warunki graniczne (minimalne i maksymalne wartości) dla zmiennych niezależnych występujących w prawach empirycznych (nawet bardzo złożonych), które formułuje.

Kolejne prace prowadzone są w tym właśnie kierunku. Systemy nie tylko odtwarzają treść praw naukowych, lecz również analizują ich teoretyczną wartość. I tak, rekonstruują struktury dowolnego związku organicznego, tworząc dla niego wszystkie możliwe izomery, rozróżniają, które substancje chemiczne są pierwiastkami, które związkami, proponują skład atomowy molekuł substancji chemicznych, odkrywają także strukturę materii na elementarnym poziomie. Szczególnie ta ostatnia umiejętność jest ważna, gdyż ma już - jak sądzą niektórzy - znamiona prawdziwie twórczych odkryć. Na czym więc polega działalność komputerowych systemów odkryć naukowych?

Przeszukać przestrzeń problemową

Systemy te opierają się - podobnie jak większość systemów ekspertowych sztucznej inteligencji - głównie na metodach heurystycznych. Ich nieodzowność uświadomiono sobie już w trakcie konstrukcji algorytmicznie działającego "rozwiązywacza ogólnych problemów" Simona i Newella, któremu wkomponowano heurystyczne procedury redukcji przeszukiwania rozwiązań zadania do prawdopodobnego kierunku, stopniowej oceny uzyskiwanych wyników i wyboru wystarczających rozwiązań.

Z formalnego punktu widzenia zakłada się, że odkrycie maszynowe ma dokonać się w tzw. przestrzeni przeszukiwania, składającej się ze zbioru stanów S i z n-argumentowej relacji E określonej na S. Przeszukiwanie rozpoczyna się od jednego stanu (danej wejściowej), kolejne stany zaś, będące węzłami w drzewie lub grafie przeszukiwania, tworzone są poprzez operatory przeszukiwania, które zasadniczo są algorytmami. Skonstruowane stany są następnie oceniane za pomocą różnych testów. Tworzy się w ten sposób wiedza uzupełniana o nowe dane, powstaje stopniowa konstrukcja wiedzy nowej. Tak to wygląda przynajmniej z formalnego punktu widzenia, lecz czy jest to adekwatna symulacja rzeczywistego odkrycia naukowego? Czy uzyskanie wyniku podobnego do tego, który osiągnął już człowiek, jest podstawą porównywania obu systemów?