Sztuczna inteligencja - wiadomo co, nie wiadomo jak

Podstawowe zagadnienia

Na sztuczną inteligencję można patrzeć dwojako: z jednej strony pod kątem jej zdolności do rozwiązywania problemów, uczenia się i tworzenia rzeczy nowych, a z drugiej z punktu widzenia nawiązywania dialogu z człowiekiem bez konieczności szczególnych form kontaktu z maszyną. Chodzi tu przetwarzanie języka naturalnego, rozpoznawanie i rozumienie sygnałów (sygnałem jest wprowadzana informacja, taka jak: głos, obraz, pismo, wykres EEG itd.).

W istocie jednak rzec jest bardziej skomplikowana. Rozpoznawanie (recognition) to zdolność do określenia przynależności danego obiektu do jakiejś klasy, a rozumienie (understanding) to umiejętność wyprowadzenia wniosków o układzie obiektów (np. na obrazie) Inaczej mówiąc rozpoznawanie to identyfikacja poszczególnych obiektów, a rozumienie to widzenie w "ludzkim sensie", czyli postrzeganie kompozycji obiektów).

W rozwoju badań nad sztuczną inteligencją daje się zauważyć pewną tendencję szczególną. Prace w tych dziedzinach, gdzie postęp był najbardziej znaczący stawały się podstawą do tworzenia komercyjnych produktów programistycznych. Zaczynały żyć wtedy niejako własnym życiem, de facto przestając być naukowo wyodrębnionym składnikiem głównego tematu jako całości.

Doskonałym przykładem są tutaj systemy eksperckie - wizja sztucznego lekarza, prawnika itd. Były one motywem przewodnim sztucznej inteligencji. Dziś nikt komercyjnych realizacji systemów eksperckich nie próbuje przyozdabiać atrybutem inteligencji. Są to tylko zestawy reguł i zbiory danych (bazy wiedzy), częstokroć niezwykle rozbudowane i zasobem zgromadzonej informacji nierzadko przewyższające wiedzę wszystkich najlepszych specjalistów danej dziedziny razem wziętych.

Doradzają człowiekowi w podejmowaniu decyzji, korzystając z jednej strony z właściwych danej dziedzinie reguł, dających się łatwiej przełożyć na język maszyny, z drugiej i tu zaznacza się ich przewaga, z ogromej liczby zgromadzonych danych. Nie jest to działanie intuicyjneo - po prostu pewien automat.

Wunderwaffe?

Dziedziną może nie całkiem nową, ale zaczynającą nabierać ogromnego znaczenia w ostatnich dziesięciu latach są tzw. sieci neuronowe (inaczej określane jako układy konekcjonistyczne). W pewnym uproszczeniu można wyobrazić sobie nasz mózg jako zestaw neuronów (około 100 bilionów) połączonych siecią synaps. Neurony mogą być aktywne lub nie (i tym przypominają podstawową jednostkę informacji, jaką są bity). Zgodnie z hipotezą postawioną przez wybitnego psychologa, Donalda Hebba, zjawisko biologicznej pamięci polega na wzmocnieniu siły połączeń (synaps) jednych neuronów, a osłabieniu drugich. Niestety fizyczna realizacja takiego modelu, z uwagi na liczbę podstawowych elementów składowych, jest i będzie jeszcze długo poza zasięgiem naszych możliwości. To co udaje się uzyskać dziś to b. proste modele sieci neuronowych.Ich złożoność jest o kilka rzędów wielkości mniejsza nie tylko od mózgu człowieka, ale nawet owada. Użyteczność sieci neuronowych daje jednak już znać o sobie wszędzie tam, gdzie mamy do czynienia z problemami trudnymi do matematycznego zdefiniowania lub informacją zniekształconą i o wysokim poziomie szumów. Z tym tradycyjne komputery radzą sobie bardzo kiepsko (np. przy rozpoznawaniu pisma ręcznego).

Siła sieci neuronowych leży w ich zdolności do uczenia się na przykładach. Tworząc sieć określamy jej budowę (topologię sieci) i zasadę działania (rodzaj sieci i sposób jej trenowania). Gdy chcemy ją wdrożyć w konkretnych zastosowaniach, miast wprowadzania reguł odpowiednich dla danej dziedziny, trenujemy ją kolejnymi, jednostkowymi przykładami. Na przykład dla pisma ręcznego, nie określamy, że litera 'a' to mniej więcej "kółeczko z laseczką z prawej strony", tylko wprowadzamy odpowiednią liczbę różnie napisanych literek 'a'. Sieć, w pewnym sensie, "zrozumie" jak wygląda litera 'a' i będzie ją w stanie rozpoznać, nawet jeśli będzie napisana inaczej niż w podanych przykładach.

W większości przypadków, gdy o danym programie mówi się, że jest zdolny do uczenia się (np. rozumienia nowych, wypowiedzianych słów ) to mamy do czynienia z zaszytą w nim siecią neuronową.

Niestety sieci te mają ciągle wiele słabości. Trudno wydobyć zawartą w nich wiedzę, ciężko także o tysiące przykładów, by móc sieć wytrenować. Łatwiej ciągle podawać reguły.

Prace naukowe nad sieciami neuronowymi prowadzone są w wielu ośrodkach na świecie. Sieci te zaczynają też odgrywać coraz większą rolę w zastosowaniach komercyjnych (por. CW nr 14 z tego roku). Ich możliwości i moc przetwarzania zostaną zwielokrotnione, gdy laboratoria opuszczą komputery optyczne (wewnątrz których, zamiast elektronów, informację będą przenosić fotony).

Spore nadzieje zaczyna się wiązać ostatnio z pracami nad tzw. hybrydowymi systemami sztucznej inteligencji. Chodzi tu o próby się dokonania fuzji modelu konekcjonistycznego (p. ramka) z tradycyjnymi metodami sztucznej inteligencji. Sieć neuronowa ma tu dokonywać wstępnej obróbki danych, ich preklasyfikacji i generalizacji, operując na najniższym poziomie i dostarczać wstępnie przetworzonych danych np. systemowi eksperckiemu.


TOP 200