Zmysły komputera

Pierwsze komputery zostały zaprojektowane do wykonywania operacji obliczania, przeprowadzania dowodów matematycznych czy rozwiązywania ogólnych problemów. Spektakularne osiągnięcia umocniły badaczy i konstruktorów w przekonaniu, że mają do czynienia z namiastką sztucznego intelektu. Uświadomiono sobie jednak, że maszyny cyfrowe powinny mieć także sztuczne zmysły, aby mogły dorównać człowiekowi. Bez patrzenia czy słyszenia nie jest możliwe bowiem żadne myślenie. Ale czy możliwy jest cyfrowy wzrok i słuch jako zdolności fotokomórek, czytników czy mikrofonów?

Pierwsze komputery zostały zaprojektowane do wykonywania operacji obliczania, przeprowadzania dowodów matematycznych czy rozwiązywania ogólnych problemów. Spektakularne osiągnięcia umocniły badaczy i konstruktorów w przekonaniu, że mają do czynienia z namiastką sztucznego intelektu. Uświadomiono sobie jednak, że maszyny cyfrowe powinny mieć także sztuczne zmysły, aby mogły dorównać człowiekowi. Bez patrzenia czy słyszenia nie jest możliwe bowiem żadne myślenie. Ale czy możliwy jest cyfrowy wzrok i słuch jako zdolności fotokomórek, czytników czy mikrofonów?

Perceptron i pandemonium

Rozpoznawanie przez maszyny sterowane cyfrowymi komputerami w otoczeniu ich działania różnych stanów rzeczy (temperatury, natężenia hałasu, parametrów produktów, stężenia substancji w powietrzu itp.) ma praktyczne znaczenie dla produkcji, usług, ich efektywności czy bezpieczeństwa. Te względy decydowały, że od początku badań nad sztuczną inteligencją prace konstrukcyjne zmierzały w stronę wyposażenia maszyn w sztuczne zmysły, które w pewnych zakresach dorównywałyby czy przewyższały widzenie bądź słyszenie człowieka. Za punkt wyjścia przyjęto sztuczny zmysł, który musi być urządzeniem rozpoznającym wzór (pattern recognition), czyli przyporządkowującym określone rodzaje obiektów (kształt pisma, wysokość dźwięków czy stężenie chemiczne) do pewnych ogólnych klas i typów. Aby tego dokonać, trzeba dany wzór rozbić na poszczególne cechy i te dopiero brać pod uwagę w przyporządkowywaniu do znanego wzoru.

Pierwszą rzeczą do wykonania musiało być jednolite zakodowanie różnych sygnałów odbieranych przez czujniki i detektory tak, aby urządzenie przeliczające miało do czynienia z jednolitą informacją. To zagadnienie wskazuje od razu na zasadnicze podobieństwo z ludzkim postrzeganiem zmysłowym. Dlatego badacze sztucznej inteligencji od początku poświęcali wiele uwagi analizie fizjologicznych czynności percepcji. Pierwszym tego efektem był tzw. perceptron - model zbudowany w 1958 r. przez F. Rosenblatta, naśladujący działanie systemu wzrokowego (m.in. dżdżownicy, żaby). Perceptron składał się z trzech warstw: recepcyjnej, asocjacyjnej i odpowiedzi, na których zarejestrowane bodźce były sumowane i różnicowane, a następnie podawane jako reakcje. Była to prosta imitacja systemu wzrokowego i następne prace podążyły w kierunku jej dalszej realizacji w sztucznych tworach. Powstał w ten sposób system (model) nazwany w 1959 r. przez jego twórcę, O. Selfridge'a, pandemonium, czyli "chórem demonów". Pod tą zabawną nazwą kryła się wymyślna konstrukcja systemu rozpoznawania cech danego wzorca. Inteligentne demony najpierw rejestrowały otrzymany obiekt, potem analizowały jego różne cechy (np. daną literę pod kątem linii prostych, krzywych, kątów, przekształceń), przyporządkowywały je do wzorca ogólnego, a następnie podawały (chóralnie krzycząc i prześcigając się w tym) do ostatniego demona, który podejmował decyzję. Miał to być adekwatny model tego, jak system wzrokowy człowieka działa podczas widzenia.

Próby takiej imitacji przez maszyny ludzkiego postrzegania okazały się nie do końca możliwe, pokazały zresztą konieczność uwzględnienia innych mechanizmów, biorących udział w poznawaniu. W dziesięć lat później zwrócili na to uwagę M. Minsky i S. Papert w książce "Perceptrony", krytykując próby dosłownej imitacji mechanizmów nerwowych.

Włóż czerwony klocek do zielonego pudełka

Dalszy rozwój prac nad sztucznymi zmysłami pokazał, że zasadnicza trudność sprowadza się nie do analizy licznych cech rozpoznawanych wzorów, co raczej polega na wyborze właściwych wzorów. Zadaniem największej trudności okazał się dla sztucznej inteligencji problem reprezentacji wiedzy, a jest to kwestia filozoficznej rangi, dla której nie ma jak dotychczas jednoznacznego rozwiązania, czym zresztą większość badaczy sztucznej inteligencji zbytnio się nie przejmuje.

Przy wzrastającej mocy obliczeniowej komputerów i ich pamięci zadanie zanalizowania cech i ich różnic w obrębie coraz większych macierzy tworzonych przez kwadraty, w które wpisuje się (dla wygody maszyny) dane litery (także pisane odręcznie) czy parametry dźwięków i innych znaków, stawało się raczej łatwe do wykonania. Istniejące dzisiaj czytniki pisma, odcisków palców, systemy rozpoznające tak zindywidualizowane cechy, jak tęczówka oka pokazują, że sztuczne zmysły są do pewnego stopnia faktem. Ale czy maszyna wyposażona w sztuczny zmysł widzi? Czy wie, że widzi?

Aby maszyna cyfrowa cokolwiek "widziała", musi również coś "usłyszeć", "powiedzieć", być może również "zrozumieć" tę zależność. Tak wszak robi człowiek, gdy patrząc np. na piękny krajobraz, mówi do siebie czy towarzysza o swych wrażeniach, podchodzi do konkretnych rzeczy, dotyka je, wącha, smakuje. Właśnie tę naturalną cechę ludzkiego doświadczenia próbuje się w jakimś zakresie wymodelować programowo i zrealizować w robotach. Klasycznym przykładem tego jest robot-program o niezbyt dźwięcznym imieniu SHRDLU, zaprojektowany i wykonany na początku lat 70. przez T. Winograda (asystenta Minsky'ego). Jest on głównie przykładem rozumienia przez komputer języka naturalnego, lecz także dowodem możliwości i ograniczeń badań nad zmysłowym poznaniem maszynowym. Komputer steruje pracą robota manipulującego dwiema piramidkami, czterema klockami i jednym pudełkiem, analizuje słowne (pisane na klawiaturze komputera) polecenia człowieka, rozpoznaje odpowiednio do nich właściwe bryły, przesuwa je, wkłada jedne w drugie, udziela odpowiedzi na pytania o to, co znajduje się w jego otoczeniu, co się zmieniło.