Nowi odkrywcy

Na tropie cząstek elementarnych

Systemem, który dokonuje nowej rzeczy w dziedzinie komputerowych odkryć naukowych, jest GELL-MANN opracowany przez Paula Fishera i Jana Żytkowa w 1990 r. To już dosyć inteligentny odkrywca, zobaczmy jednak, co robi innego czy lepszego niż jego ludzcy poprzednicy.

Gdy w 1964 r. amerykański fizyk Murray Gell-Mann zaproponował dla odkrytych przez siebie cząstek elementarnych - hadronów - pewne modele kwarkowe, to istotą jego odkrycia było znalezienie dla tych cząsteczek właściwej teorii. Fizyk stworzył teorię wyjaśniającą i porządkującą nowe empiryczne fakty (dostał za to w 1969 r. nagrodę Nobla). Twórcy GELL-MANN-a postawili systemowi (w istocie rzeczy - sobie samym) zadanie zanalizowania danych o hadronach i sformułowanie hipotezy na temat prostej, ukrytej struktury materii. Okazało się, że system zasadniczo potwierdził odkrycie swojego poprzednika, lecz zrobił to inaczej i ta właśnie różnica daje wiele do myślenia. Czy w czymkolwiek zasługuje ono jednak na nagrodę Nobla?

GELL-MANN, jak to robi każdy potężny system komputerowy, zaczął od przeszukiwania ogromnej przestrzeni (składającej się z różnych stanów i n-argumentowej relacji na stanach) możliwych modeli kwarkowych. Szukał modeli najprostszych, pasujących do empirycznych danych wejściowych. Działał ze zmiennym szczęściem. Szukał, a następnie testował modele dla trzech rodzin hadronów, z różnym jednak skutkiem. Dla jednego z układu cząstek elementarnych szukał w przestrzeni rozwiązań adekwatnego modelu nawet przez... pięć dni, aż jego twórcy wreszcie go wyłączyli. Nic dziwnego - jak każda maszyna "wyłożył" się na kombinatorycznej złożoności zadania. Odniósł w końcu sukces i potwierdził odkrycie i teorię z 1964 r. Zrobił to jednak po swojemu - posługując się kryterium prostoty i zgodności z danymi empirycznymi. Nie rozumował teoretycznie, przez odwołanie się do kwantowej teorii pola, jak zrobił to Murray Gell-Mann, lecz przeszukał (stosując metodę heurystyczną) i obliczył na koniec właściwe modele. Dostarczył dodatkowego, empirycznego i niezależnego (to bardzo ważne z metodologicznego punktu widzenia) potwierdzenia i uzasadnienia wcześniejszej hipotezy. Mało to i zarazem wiele.

Co z intuicją?

Niektórzy sceptycy twierdzą, że komputerowe systemy odkryć naukowych są co najwyżej dosyć inteligentnymi technikami-laborantami i radzą sobie dobrze z eksperymentami w sztucznie wyizolowanych warunkach laboratoriów. Mierzą, liczą, testują, eliminują błędy, nawet oceniają częściowo własne wyniki. Są jednak w tym wszystkim mało samodzielne. W swej skrupulatności potrafią przy tym popełniać szczególne błędy. Jak mówi Jan Żytkow, precyzyjna (aż nazbyt) waga, będąca częścią systemu odkrycia, jest gotowa wykazywać liczbowo pomiarnawet wtedy , gdy nic nie leży na jej szalce. Ona po prostu rejestruje zmianę warunków klimatycznych w laboratorium. Inaczej mówiąc, autonomia (samodzielność, wolność) systemów odkryć jest w porównaniu do autonomii ludzkiego odkrywcy, rzeczywistego twórcy nauki, zasadniczo mniejsza, zapewne też odmienna.

O systemach tych można w zasadzie powiedzieć, że dokonują wynalazków, lecz nie odkryć. Odtwarzają wiedzę, ale jej nie tworzą. Z punktu widzenia historii nauki, metodologii i filozofii nauki, a także psychologii twórczości, wypada stwierdzić, że przed komputerowymi systemami symulującymi poznanie i wiedzę ludzką droga jest wciąż długa, a cel odległy. Warto jednak zastanowić się, czy systemy te muszą, czy w ogóle mogą, drogę tę przebyć?

O ile współcześni metodologowie (jak Karl Popper) stwierdzają, że istnieje "logika odkrycia naukowego", to jest ona w zasadzie, jak zauważają inni (Thomas Kuhn), rekonstrukcją dokonaną post factum. Trzeba też mówić o psychologicznej i społecznej stronie twórczości naukowej. To samo zresztą mówią wielcy odkrywcy w naukach przyrodniczych. Henri Poincar?, wielki matematyk i fizyk, opisał dokładnie wielokrotnie odczuwane przez siebie olśnienie podczas pracy nad rozwiązaniem matematycznego problemu. Poszukując bezskutecznie właściwej postaci funkcji fuchsowskich, wiele razy odrywał się od wytężonej umysłowej pracy i wykonywał inne rzeczy (podróżował, służył w wojsku), by w ich trakcie (np. wchodząc po stopniach tramwaju) doznać niespodziewanego olśnienia, które podsuwało mu właściwą, sprawdzoną następnie w skupieniu, drogę rozwiązania zagadnienia matematycznego. "Co uderza przede wszystkim - przyznał Poincar? - to te na pozór nagłe olśnienia, jawne oznaki długiej poprzedzającej nieświadomej pracy - rola, jaką ta nieświadoma praca odgrywa w twórczości matematycznej, wydaje mi się bezsporna".

Czy elementy olśnienia, intuicji, genialnego wglądu w istotę - potwierdzane przez psychologię eksperymentalną - są do odtworzenia przez systemy komputerowe? Nie chodzi zresztą o cyfrową symulację samego momentu olśniewającego przeżycia (np. porzucenia na pewien czas pewnego toku rozumowania, co można uzyskać), lecz o odtworzenie szerszego kontekstu i warunków, w których ta chwila się spełnia. Trzeba byłoby uwzględnić w pracy robota-odkrywcy nie tylko jego dyspozycje (zgódźmy się, że już dosyć inteligentne) i złożoność sytuacji problemowej (też do wymodelowania), lecz również - co najważniejsze - całość kontekstu historycznego, społecznego, kulturowego, w którym jakiekolwiek odkrycie czy myślenie się dokonuje. A to już jest prawdziwie poważne, samo w sobie, zadanie badawcze.

Na koniec jeszcze jedno ważne wyzwanie. Dla uniknięcia sytuacji z laboratorium Jana Żytkowa (instrument pomiaru rejestruje dane, które dla systemu odkrycia nie są właściwą daną wejściową, są wręcz przeszkodą) trzeba go tak skonstruować, aby umiał właściwie tę sytuację rozpoznać i ocenić. Inaczej mówiąc, robot-odkrywca musiałby sam stworzyć teorię swoich błędów i pomyłek poznawczych. Nie tylko zresztą swoich, lecz także całej generacji innych komputerów. Wiedza (teoria) o błędach jest bowiem częścią twórczej wiedzy, nie ma bez niej żadnego inteligentnego działania.


TOP 200