Co jest sprawniejsze, ludzki mózg czy komputer?

To całkiem głupie pytanie, ale nauka wysiłkiem wielu pokoleń wypracowała skuteczną metodę unaukowienia najgłupszych nawet problemów.

To całkiem głupie pytanie, ale nauka wysiłkiem wielu pokoleń wypracowała skuteczną metodę unaukowienia najgłupszych nawet problemów.

Metoda ta polega na podzieleniu pseudoproblemu na podproblemy i zajęcia się każdym z nich z osobna. Oczywiście, każdy podproblem można dodatkowo podzielić na dalsze - vide rządowe programy badawcze - wtedy głupie pytanie robi się jeszcze bardziej naukowe i głębokie. Kluczem do powodzenia jest wyodrębnienie kryteriów odpowiedzi - najpierw trzeba odpowiedzieć pytaniem na pytanie: "A pod jakim względem?" - już samo prawidłowe ustalenie kryteriów porównawczych jest warte naukowej dysertacji.

Wydaje mi się, że w przypadku studiów komparatystycznych nad mózgiem ludzkim i maszyną cyfrową nie od rzeczy będzie podział następujący: 1. czynności logiczno-dedukcyjne, 2. obróbka danych dostarczanych przez z jednej strony zmysły - wzrok, słuch, węch - z drugiej przez urządzenia peryferyjne, jak skaner, kamera, mikrofon i rozmaite czujniki sprzężone z komputerem przetwornikami analogowo-cyfrowymi. No i proszę, nasze pytanie przestaje być głupie - w obu wyodrębnionych grupach problemowych można przez długie lata prowadzić bardzo skrupulatną analizę porównawczą.

W zakresie pierwszej grupy problemowej rzecz wygląda nieco dziwnie. Gdyby rozpatrzyć zdolność do szybkiego i skutecznego rozwiązywania postawionych już zadań, to raczej nie ma o czym mówić - człowiek komputera nie dogoni. Amerykanie przebadali kiedyś konstruktorów układów cyfrowych (Amerykanie badają wszystko, nawet tych, co się zajmują badaniami - w swoim czasie wynajęci przez rząd USA niezależni eksperci stwierdzii, że wśród finansowanych przez państwo programów naukowych ok. trzystu jest całkowitą - ewidentną bzdurą) i okazało się, że najlepsi inżynierowie są w stanie panować intelektualnie nad układem złożonym z nie więcej niż 6 tys. bramek. Sześć tys. zmiennych logicznych - oto szczyt możliwości ludzkiego mózgu; dla komputera jest to oczywiście kaszka z mleczkiem. Okazuje się, że nasz mózg tylko w małym stopniu jest zorientowany na logikę - w przypadku zadań logicznych nasze możliwości kończą się na stosunkowo prostych problemach i już dziś byle maszyna bije nas na głowę.

W powyższym kontekście dość tajemniczo przedstawia się sprawa interpretacji sygnałów odbieranych ze świata zewnętrznego. Skupmy się na zmyśle wzroku - jego niemal ścisłym odpowiednikiem jest sprawa rozpoznawania obrazu (pattern recognition), wielce aktualna we współczesnej informatyce. Wykonując tę czynność, komputer posługuje się schematem algorytmicznym opartym na logice formalnej - wyodrębnia grupy punktów na rastrowym obrazie, porównuje ich kształt z kształtami już sobie znanymi, przeprowadza testy identyfikacyjne, itp. Oczywiście, można w ten sposób wiele zdziałać, np. rakieta Cruise może bezbłędnie odnaleźć odległy cel w oparciu o obserwację terenu przez kamerę i porównywanie obrazu z przechowywaną w pamięci mapą. Umiejętność tego rodzaju, choć godna podziwu, jest jednak uwarunkowana kilkoma silnymi założeniami, których człowiek nie potrzebuje. Na przykład, program musi wiedzieć z góry, że obraz będzie mapą terenu, a nie fotografią teściowej. Czy powstanie kiedyś komputer, któremu będzie można pokazać, dajmy na to, zdjęcie dzięcioła na gałęzi świerka, a on po przeskanowaniu obrazu odpowie literalnie: "to jest dzięcioł na gałęzi świerka"? Gdy uzmysłowimy sobie, jak wiele obrazów wzorcowych trzeba będzie użyć do pozbawionej założeń wstępnych analizy porównawczej, ile elementarnych operacji logicznych przeprowadzić, by dokonać rozpoznania najprostszego nawet obrazu, to nasuwają się raczej wątpliwości niż nadzieje. Człowiek nie dochodzi do rozpoznania ptaka na gałęzi w drodze analizy logicznej również dlatego, że po prostu nie umie tego robić.

Tymczasem właśnie w tych zadaniach, w których podejście analityczne odpowiadałoby realizacji gigantycznych schematów algorytmicznych, mózg nasz sprawuje się wspaniale i można mieć pewność, że jeszcze długo nie dorówna mu żaden komputer.

Płynie stąd prosty wniosek, że nasze możliwości analityczne są bardzo ograniczone, zaś w swym myśleniu opieramy się na zasadach najzupełniej irracjonalnych, cokolwiek by to słowo oznaczało. Dobrze jednak, że tak się dzieje, bo polegając głównie na analityce daleko byśmy nie zajechali w swej wędrówce przez życie. Logika i dedukcja są marnym narzędziem poznawania rzeczywistości. Ogrom rozczarowań związanych z badaniami nad tzw. sztuczną inteligencją również zdaje się potwierdzać myśl, że owa inteligencja nie ma bynajmniej logiki u podstaw.

Jak więc należy odpowiedzieć na pytanie postawione na początku? Cóż, z powyższych rozważań wynika, że nie tyle pytanie było głupie, ile samo jego postawienie - z zastrzeżeniem, że biorąc pod uwagę immanentnie niską wiarygodność analizy i dedukcji w ludzkim wykonaniu, poprawność rezultatów powyższych rozważań również musi budzić wątpliwości.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200