Inteligentne maszyny: zderzenie filozofii z praktyką

W eseju zatytułowanym "Czy komputery pozbędą się ludzi", opublikowanym w Computerworld nr 5/99 przez Witolda Marciszewskiego w ramach cyklu "Drogi ku sztucznej inteligencji", punktem wyjścia do dalszych rozważań była wypowiedź Leszka Kołakowskiego, w której ten nazywa banialukami opinię rosyjskiego fizyka, że komputery niedługo osiągną i przewyższą poziom inteligencji człowieka i kiedyś zdobędą kontrolę nad gatunkiem ludzkim. Zadumałem się nad tym stwierdzeniem i zacząłem dociekać podwalin takiego sposobu rozumowania znakomitego filozofa.

W eseju zatytułowanym "Czy komputery pozbędą się ludzi", opublikowanym w Computerworld nr 5/99 przez Witolda Marciszewskiego w ramach cyklu "Drogi ku sztucznej inteligencji", punktem wyjścia do dalszych rozważań była wypowiedź Leszka Kołakowskiego, w której ten nazywa banialukami opinię rosyjskiego fizyka, że komputery niedługo osiągną i przewyższą poziom inteligencji człowieka i kiedyś zdobędą kontrolę nad gatunkiem ludzkim. Zadumałem się nad tym stwierdzeniem i zacząłem dociekać podwalin takiego sposobu rozumowania znakomitego filozofa.

Jeśli jest on oparty na zdroworozsądkowej analizie rzeczywistości, to zaiste można przyznać, że upatrywanie następnego ogniwa ewolucji w pudełkowatych komputerach jest co najmniej niepoważne. Zwłaszcza gdy, jak ów fizyk, ktoś snuje przepowiednie, że komputery zastąpią ludzi w ciągu dwóch następnych pokoleń. Jeśli jednak rzeczywistość ogarniemy z socjologicznej perspektywy rozwoju informatyki, sprawy zaczną przybierać zgoła odmienny wygląd. Powstawanie społeczeństwa informatycznego w licznych krajach świata jest już nie kwestionowanym faktem. Komputery stają się nie tylko nieodzownym narzędziem w ręku człowieka, ale coraz częściej go zastępują w wykonywaniu rozmaitych zadań.

Spekulowanie o przyszłości ludzkości w kontekście rozwoju inteligentnych maszyn nie ma większego sensu w oderwaniu od konkretów: istniejących, działających systemów komputerowych i cybernetycznych. Te zaś dosyć wyraźnie wskazują dalszą drogę dla tych, którzy chcą ją odnaleźć w gąszczu nieporozumień i fałszywych tropów. Semantyka jest zdradliwym prorokiem, wiodącym na dzikie pola krytyków i wizjonerów techniki, albowiem przykładanie znaczeń istniejących dzisiaj słów do tego, co w informatyce może się wydarzyć w przyszłości, może zaiste obrócić cały poważny wywód w cyrkową farsę. Trzydzieści lat temu "wirtualna rzeczywistość" niewiele znaczyła. Dziś trafia z informatyki do każdego telewidza w postaci wirtualnych studiów, gdzie złudne, trójwymiarowe dekoracje tworzy się elektronicznie i wmontowuje w obraz, nie mówiąc o grach komputerowych i symulatorach. A filozofowie uśmieszkiem zbywali Lemową fantomatykę - dzisiejszą wirtualną rzeczywistość - sugerując autorowi, by wkładał takie myśli w pudło z naklejką "Niepoważna fantazja i naukowa fikcja".

W latach 60. fantomatyka była śmiałą wizją, nie mającą jednak umocowania w technice powszechnie znanej, jaką jest dzisiaj komputer. Stawianie wizji rozwoju jest teraz o tyle łatwiejsze, że zmiany zachodzą na naszych oczach, a informacje o nich są codziennie uaktualniane i łatwo dostępne: trzeba je uważnie śledzić, a logiczne wnioski przyjdą same. Fakt wzrostu w postępie wykładniczym szybkości działania procesorów jest najlepszym przykładem postępu. Superkomputery o architekturze równoległej mają ogromną moc przetwarzania danych. Słynny Deep Blue IBM-a jest już tak samo inteligentny, jeśli nie bardziej, jak człowiek! To prawda, że na razie jedynie w grze w szachy, ale czy można kategorycznie stwierdzić, że nie będzie taki w innych dziedzinach? Zapewne nie nastąpi to poprzez pączkowanie ciemnoniebieskich jednostek centralnych lub obojnaczy rozrost kodów sterujących, gdyż komputerową inteligencję na razie tworzą ludzie. Lecz nieustanny postęp napędzany niecnymi i szlachetnymi żądzami doprowadzi w końcu do stworzenia wielu inteligentnych maszyn. Nie ma żadnego czynnika, który kazałby nam twierdzić, że ludzie nagle zawrócą z tej drogi. Przeciwnie, będzie się ona coraz bardziej rozwidlać, a niektóre odnogi zawiodą nas tam, gdzie nie sięgamy wyobraźnią i czego nie umiemy opisać istniejącymi słowami. Rewolucja informatyczna jest dlatego bezprecedensowa w dziejach ludzkości, że już wytworzyła urządzenia zdolne do logicznej analizy faktów, podejmowania decyzji i samodzielnego ich wykonywania bez udziału człowieka. Bez dobrego rozeznania w powstających technologiach lekceważenie nawet najśmielszych teorii rozwoju maszyn i ich relacji do człowieka jest tak samo ułomne, jak fantazjowanie oderwane od wszelkiej rzeczywistości. Rozmowy o ludzkiej i maszynowej inteligencji wymagają przede wszystkim otwartego umysłu i znajomości techniki. Bez tego są niewiarygodne.

Schodząc na ziemię

Czas osadzić powyższe wywody na konkretnych przykładach. Jest ich dużo, by wspomnieć budowę antropomorficznego robota imieniem Cog w kolebce badań nad sztuczną inteligencją - bostońskim MIT. Skrystalizowany ogląd potencjalnych zagrożeń nieskrępowanego rozwoju inteligentnych maszyn znalazłem zaś w laboratorium Kevina Warwicka, profesora cybernetyki w angielskim Uniwersytecie Reading. Przed dwoma laty wydał on książkę zatytułowaną Marsz maszyn. Dlaczego nowy rodzaj robotów będzie rządzić światem. Tytuł jest kontrowersyjny i dla wielu z pewnością klasyfikowalny w kategoriach fantazji paranaukowej. Tak by pewnie było, gdyby jej autorem był natchniony marzyciel. Kevin Warwick jest jednak praktykiem z doświadczeniem pracy w przemyśle i akademii, a to, co napisał i powiedział w rozmowie ze mną, skłania ku refleksji. Jego pogląd najkrócej oddaje akapit ze wstępu do wspomnianej publikacji: "Wierzę, że w ciągu następnych dziesięciu lub dwudziestu lat niektóre maszyny staną się bardziej inteligentne od ludzi. Maszyny mogą się już uczyć od innych maszyn. Przyszłość wskazuje, że powstaną maszyny, ewoluujące w kierunku lepszych, nawet inteligentniejszych maszyn, które same będą mogły wymieniać wadliwie działające części. W ten sposób maszyny mogą stać się nieśmiertelne. Dzisiejsze tempo rozwoju techniki potwierdza ten pogląd".

Rozmowę z Kevinem Warwickiem zacząłem od pytania o powód napisania książki i nadania jej tak prowokującego tytułu. Okazuje się, że był nim niepokój wywołany obserwacją badań nad sztuczną inteligencją i robotyką, na równi z irytacją, że "istnieją informatycy i filozofowie, na przykład Roger Penrose, którzy twierdzą, że ponieważ maszyny nie mają takiej samej świadomości jak ludzie, to zawsze będą podporządkowane człowiekowi". Warwick sądzi, że pogląd ten jest zupełnie nielogiczny. Praktyczne doświadczenie cybernetyka pozwala mu dzisiaj twierdzić, iż "maszyny nie będą zawsze podporządkowane człowiekowi właśnie dlatego że się od niego różnią". W klarownym definiowaniu tej różnicy Warwick widzi sposób uporządkowania dyskusji o podobieństwie komputera do człowieka.

Czy zatem takie porównania mają jakikolwiek sens? Wszak przykładanie lustra do komputerów i robotów, by szukać w nim odbicia ich stwórcy - człowieka - jest iskrą, która zaognia nieustanne spory. Kevin Warwick uważa, że jedynym bezpośrednim sposobem porównania ludzi i inteligentnych maszyn jest analiza konkretnych działań. "Gra w szachy jest tym obszarem, gdzie najlepsza maszyna jest już w stanie pokonać najlepszego człowieka w wykonaniu konkretnego zadania. Inne ogólne porównania nie mają sensu".

Niewiadome różnice

Pytania o świadomość komputerów Warwick uważa za głęboki problem filozoficzny o znikomym praktycznym znaczeniu, który jeszcze kilka lat temu miał wyższą rangę w akademickich sporach, lecz dziś rzadko powraca na wokandę. Istotą zagadnienia jest dla niego właśnie to, że człowiek różni się od inteligentnych maszyn. "Nie tylko fizycznie, ale także w sposobie przetwarzania informacji. Maszyny mogą przerobić w pamięci ogromne ilości danych w krótkim czasie i w wielu wymiarach, czego człowiek prawdopodobnie nigdy nie będzie w stanie dokonać. Nasze mózgi w najlepszym razie działają w oparciu o przestrzeń trójwymiarową, natomiast maszynowe nie. Ograniczanie maszyn do ÇmyśleniaČ w trzech wymiarach, aby stały się podobne do człowieka, wydaje się zwariowanym pomysłem. Istniał kiedyś pogląd, że ważne jest upodobnienie maszyn do człowieka, aby myślały w podobny sposób i miały świadomość. Przykładem tego jest test Turinga. Obecnie pojawiła się nowa generacja maszyn, a wraz z nią nowe podejście, które akceptuje inteligencję maszyn per se - maszyny są inteligentne na swój własny, maszynowy sposób, a ludzie na ludzki sposób: te dwa typy inteligencji nie muszą być takie same. Z tego powodu problem świadomości jest ciekawym zagadnieniem filozoficznym, ale już nie widzę w nim tak wielkiej przeszkody, jaką postrzegali filozofowie".

Jest również kłopot z precyzyjnym określeniem tego, czym właściwie jest inteligencja i jak ją sensownie mierzyć. W przypadku maszyn za jej wskaźnik można uznać zdolność do szybkiej, logicznej analizy danych służącej do podejmowania decyzji. Poddaję profesorowi myśl, że niektórzy badacze uważają pomysłowość za jeden z głównych wyznaczników inteligencji. Jak można to odnieść do maszyn? "Pomysłowość lub inwencja twórcza jest umiejętnością postrzegania problemów w taki sposób, w jaki nikomu innemu nie udało się tego zrobić. Jeżeli ktoś jest pomysłowy, nie oznacza to, że przyszły mu do głowy jakieś przypadkowe myśli. Uważam, że ludzie wcale nie myślą w przypadkowy sposób. Nasz sposób rozumowania opiera się na doświadczeniu i uwarunkowaniach genetycznych".

Widząc, że dotykamy pasjonującego problemu, pytam, czy ludzkie rozumowanie jest algorytmiczne? Odpowiedź jest zgoła nieoczekiwana: "Doszedłem do wniosku, że myślenie człowieka jest prawdopodobnie algorytmiczne, ale działanie maszyny wcale nie musi się odbywać w taki sposób. Do maszyny można wprowadzić quasi-losowe sygnały, natomiast filozofów postawiłbym przed wyzwaniem uczynienia czegokolwiek w losowy sposób. Myślę, że nikt tego nie może zrobić". Wtrącam, że chyba tylko epileptycy, co profesor potwierdza, ale zgadzamy się, iż to są stany zaburzenia świadomości. "Świadome wykonanie jakiejkolwiek czynności w losowy sposób jest niemożliwe i trudno to ludziom uświadomić". Stąd przewrotny wniosek Warwicka, że w naszym działaniu i rozumowaniu "jesteśmy bardziej podobni do komputerów, a komputery z kolei są mniej do siebie podobne, niż nam się to wydawało". Dodaje również, że "musimy sobie zdać sprawę, iż maszyny mogą się uczyć i jeśli są wyposażone w odpowiednie atrybuty fizyczne, może się w końcu okazać, że nauczyły się czegoś, czego wolelibyśmy, aby się nie nauczyły".

Nauka bycia

Jaki cel przyświeca budowie kolejnych generacji inteligentnych robotów w Reading? Oprócz pracy pedagogicznej i naukowej, jest nim demonstracja istniejącej technologii i zwrócenie uwagi na możliwości jej rozwoju w dającej się przewidzieć perspektywie. Poniższy opis robotów oparłem na pokazie udzielonym przez profesora, uzupełniając go szczegółami zamieszczonymi w jego książce.

Jednym z najciekawszych rodzajów robotów jest kategoria zwana "Siedmioma krasnoludkami". Są małe, jeżdżą na kółkach, mają czujniki ultradźwiękowe i mózgi zbudowane z sieci neuropodobnych. Każdy z nich jest autonomiczny, ma własne źródło zasilania. Ich najbardziej intrygującą cechą jest umiejętność uczenia się. Pierwszym zadaniem nowo uruchomionego robota jest rozpoznanie sytuacji, w jakiej się znajduje. Umożliwia mu to sieć neuropodobna Hopfielda, zawierająca około 40 neuronów i szczególnie efektywna w procesie klasyfikacji ultradźwiękowych sygnałów informujących o topografii otoczenia. Ultradźwiękowe oczy rozpoznają pięć różnych sytuacji: brak przeszkody i przeszkoda blisko/daleko lewego/prawego oka. Gdy robot rozpozna przeszkodę, umieszczone z przodu czujniki ultradźwiękowe powodują cofanie się i robienie uników. Pierwotna instalacja wyłącznika w sąsiedztwie głowy robota uniemożliwiała jego ręczne wyłączenie. Był to przykład - nazwijmy prowokacyjnie - samozachowawczego instynktu robota. Przeniesienie wyłącznika w inne miejsce rozwiązało problem, ale zauważmy, że celowa konstrukcja tego typu mogłaby mieć dla ludzi poważniejsze następstwa: maszyna nie dawałaby się wyłączyć.

Po włączeniu robota, jego podstawowym, zaprogramowanym impulsem jest jazda w przód i unikanie przeszkód, ale doskonałość w tym dziele musi osiągnąć sam. Proces uczenia polega na próbowaniu różnych strategii sterowania kołami w odpowiedzi na sygnały ultradźwiękowe i przypisywania najlepszym rozwiązaniom największych wartości wagowych połączeń sieci neuropodobnej, a najgorszym - jak uderzenie w coś - najmniejszych. Wartości wagowe ustawiane są na początku quasi-losowo: można je porównać do kodu genetycznego człowieka. Nie wiadomo, jakiej strategii ruchu robot nauczy się w danej sytuacji, może bowiem korzystać z kilku. Jest to nauka niejako instynktowna, drogą prób i błędów, podobna do nauki chodzenia dzieci. Tak zaplanowana strategia pozwala robotowi na przyswojenie zestawu ogólnych zachowań drogą kojarzenia otrzymywanych sygnałów ultradźwiękowych z udanymi ruchami, które można później stosować w dowolnym otoczeniu i przenosić na inne rodzaje aktywności, np. kojarzenie sygnałów w podczerwieni z lokalizacją ładowarki baterii, która je nadaje. Sposób działania robota zależy zatem od kilku czynników: początkowego "kodu genetycznego", środowiska uczenia się (np. obecności lub braku sprzecznych sygnałów-bodźców) i sprawności fizycznej (np. dobrego działania baterii, kółek). Każdy z tych czynników ma wpływ na szybkość i ostateczne wyniki podstawowego procesu uczenia. Dalsza nauka jest również możliwa: wartości wagowe nie są nigdy całkowicie zamrożone.

Roboty komunikują się ze sobą za pomocą sygnałów w podczerwieni. Podstawową reakcją na odebrany sygnał - a każdy robot nadaje we własnym paśmie częstotliwości - jest zbliżenie się do źródła danego lub najmocniejszego sygnału. Funkcja ta jest obecnie zaprogramowana jako podstawowy instynkt robota, ale również mogłaby być przedmiotem nauki. Roboty zwykle grupują się razem, wykonując małe ruchy na boki, w tył, przód, nie dotykając się wzajemnie. Każdemu z robotów dano też możliwość zostania wodzem grupy poprzez podjęcie decyzji wysłania spec-jalnego sygnału, kiedy rozpoznaje przed sobą pustą przestrzeń. Instynktownie zaczyna wtedy jechać do przodu. Każdy z robotów w grupie musi podjąć decyzję: jechać czy nie jechać za wodzem? Jeśli kilka robotów znajduje się w pozycji lidera, mają wtedy dylemat. Decyzją jest zwykle zignorowanie sygnału innego wodza. Lider traci swój status i przestaje nadawać sygnał wodza z chwilą natrafienia przeszkody lub grupy innych robotów, kiedy nie ma już przed sobą wolnej drogi. Do technicznej realizacji możliwe są scenariusze "demokratycznego" wyboru wodza grupy robotów na podstawie analizy sygnałów wysyłanych przez kandydatów, opisujących ich przyszłe zachowanie w pozycji lidera, walki o przywództwo między rywalami lub też innych strategii decyzyjnych.

Nadajniki i odbiorniki podczerwieni umożliwiają robotom wzajemne informowanie się o swej obecności. Doświadczenia ze strategią "unikania wroga", gdy robot poznaje, że zbytnie zbliżenie się do innego robota nadającego sygnał danej częstotliwości jest niebezpieczne, i "pościgu za wrogiem" pozwoliły na badanie rozmaitych strategii zachowania. Profesor Warwick wspomina przy tym w książce, że jeżeli ktoś zastąpiłby sygnały podczerwieni rozpoznawaniem obrazów ludzkich twarzy i wyposażył roboty w broń i algorytmy kierujące jej użyciem, mielibyśmy do czynienia z sytuacją potencjalnie bardziej brzemienną w skutkach. Ta możliwość jest całkiem prawdopodobna - technologia do jej realizacji dostępna jest już dzisiaj!

Myślę, więc jestem

Ponieważ w rozmowie o maszynach posługujemy się takimi pojęciami, jak świadomość, inteligencja, umiejętność uczenia się, pytam Warwicka, czy możemy mówić o psychologii maszyn? Twierdzi, że tak: "Każdy, kto miał cokolwiek do czynienia z uczącymi się robotami, zda sobie z tego sprawę poprzez dociekanie przez obserwację, dlaczego robot coś robi w kontekście posiadanego doświadczenia i fizycznych możliwości. Taka obserwacja jest pouczająca. Robot posiadający takie same możliwości fizyczne jak inne roboty może znaleźć inne rozwiązania danego problemu w zależności od tego, w jaki sposób do niego podszedł. Obserwujemy odmienne sposoby zachowań, które są psychologicznie różne z maszynowego punktu widzenia. Nawet, jeżeli dany robot jest fizycznie tym samym robotem w innym przedziale czasowym i nawet jeżeli jego otoczenie jest podobne lub takie samo, mógł on zbierać doświadczenia w odmienny sposób i tym samym stać się inną istotą. Kolejność zbierania doświadczeń ma wpływ na końcowe działanie robota i warto to psychologicznie badać. Istnieją różnice między symulacją a rzeczywistością. W symulacjach można wszystko kontrolować, w realnym świecie nie można wszystkiego wymodelować. Nawet takie drobiazgi, jak - powiedzmy - trudniejsze obracanie się kółka robota w danym momencie, może mieć wielki wpływ na końcowy rezultat doświadczenia. W Reading mamy do czynienia z psychologią behawioralną robotów, odnoszącą się do maszyn".

"Czy daje się zaobserwować jakieś niespodziewane zachowania robotów" - pytam. Owszem, był jeden zdumiewający przypadek, gdy Warwick pokazywał "Siedem krasnoludków" młodzieży szkolnej. Dotyczył jednego z robotów, który miał realizować swój podstawowy "cel życia", czyli poruszanie się w przód bez dotykania czegokolwiek. W czasie pokazu dzieci otoczyły robota, zastępując mu drogę. Ten w końcu nauczył się stać w miejscu, wbrew logice i filozofii swego życiowego celu. Nawet po usunięciu przeszkód, nie ruszył, najwyraźniej dochodząc do wniosku, że wszystkie podejmowane przez niego próby kończyły się niepowodzeniem. Cokolwiek zrobił było błędem, nie będzie więc się dalej ruszał nawet za cenę porzucenia swego życiowego celu. Warwick konstatuje, że takie zachowanie było całkowicie sprzeczne z założeniami działania tego robota. Nigdy więcej nie udało mu się tego odtworzyć. Był to jedyny przypadek, gdy suma wszystkich doświadczeń, jakie robot posiadł w tamtej chwili, wywołała neurotyczne zachowanie. "To wyglądało tak, jakby robot popełnił samobójstwo".

Proces uczenia został wzbogacony o możliwość przekazywania wiedzy między robotami za pomocą radiowego łącza. Mogą wtedy korzystać z wzajemnych doświadczeń, co przyspiesza naukę. Umożliwia też powstawanie sytuacji uczenia jednego robota przez drugiego, w relacji "mistrz-uczeń" i interakcyjnego procesu uczenia się. Krańcowym przypadkiem przekazywania wiedzy jest przepisanie zawartości mózgu jednego robota do mózgu drugiego, czyli całkowity zrzut danych. Daje to szybkie klonowanie mózgów indywidualnych robotów poprzez wzajemne programowanie się.

Roboty mogą się również komunikować z komputerem. W roku 1996 przeprowadzono eksperyment, w którym robot-nauczyciel w Reading przekazał swą wiedzę do komputera, a ten dalej - przez Internet - posłał ją do komputerów umieszczonych w Tokio i Nowym Jorku, które z kolei wysłały ją do znajdujących się tam robotów. W ten sposób jeden robot zaprogramował w kilkanaście sekund kilka robotów znajdujących się w różnych zakątkach świata. Trzeba tu podkreślić, że opisane procesy są nadal pod kontrolą człowieka, ale kto nam zaręczy, że tak będzie zawsze?

Ostatnia wersja jeżdżących robotów ma już silniejsze mózgi mające 500 neuronów i posługuje się okiem zbudowanym z zespołu fototranzystorów, podobnym do oka muchy. Podłączone jest ono do sieci neuropodobnej zawierającej neurony-komórki Minchintona, które doskonale nadają się do przetwarzania sygnałów świetlnych. Robot uczy się rozpoznawać oświetlenie danego obszaru, co może prowadzić do nauki rozpoznawania pomieszczeń na podstawie analizy rozmieszczenia i natężenia istniejących tam źródeł światła. Planowane jest również wyposażenie robotów w chwytaki, by umożliwić im oddziaływanie na przedmioty.

Opisane roboty stanowią doskonałe pole badań zachowania inteligentnych maszyn. Choć w ich grupowym działaniu jest podobieństwo do stada owiec, przedmiotem badań cybernetyków z Reading nie jest odwzorowanie zachowań zwierzęcych czy ludzkich, lecz inteligencja maszyn odpowiadająca ich budowie i funkcji. "Gdzie zatem leży niebezpieczeństwo utracenia kontroli nad inteligentnymi maszynami?" - pytam w nadziei otrzymania odpowiedzi streszczającej niepokoje opisane na 257 stronach Warwickowej książki. Odpowiada, że niebezpieczne będzie "stworzenie inteligentnego systemu i wyposażenie go w możliwości fizyczne, którymi będzie mógł oddziaływać na ludzi". Na razie mamy namiastki takich urządzeń, jak kierowane laserem samonaprowadzające się pociski. Nadal panują nad nimi ludzie, ale dąży się do pełnej automatyzacji, której przykładem mogą być urządzenia samoczynnie zatrzymujące pociąg po przekroczeniu przez maszynistę czerwonego sygnału. Utworzenie międzynarodowej organizacji do kontroli badań i budowy inteligentnych maszyn mogłoby być rozwiązaniem, ale biorąc pod uwagę rozmaitość partykularnych interesów i utajnienie części badań, jej skuteczność może być wątpliwa. Jeżeli stracimy kiedykolwiek kontrolę nad maszynami, będzie to wyłącznie następstwo świadomych działań człowieka. "Martwię się, że ludzie zostaną odsunięci od podejmowania decyzji kontrolujących maszyny" - mówi profesor Warwick. W tym leży główne niebezpieczeństwo.

W zakończeniu doskonałej książki Sztuczna inteligencja Witold Marciszewski napisał: "Jest więc przesłanka do nadziei, że rosnące moce ludzi nie będą obracane na rzecz jakiejś anihilacji, bo prawda jest taka, że choć nie jesteśmy aniołami, to nie jesteśmy też diabłami".

Kevin Warwick zakończył swą książkę mniej optymistycznie: "Inteligentne maszyny nie dadzą nam drugiej szansy. Po włączeniu pierwszej potężnej maszyny o inteligencji podobnej do inteligencji człowieka, najprawdopodobniej nie będziemy mogli jej już wyłączyć. Uruchomimy bombę zegarową, cykającą nad ludzkim gatunkiem, i nie zdołamy jej rozbroić. Nie będzie żadnego sposobu powstrzymania marszu maszyn".

Choć argumentacja w obu zacytowanych fragmentach nie każdego zdoła przekonać, konsekwencje budowy inteligentnych maszyn są dla każdego myślącego człowieka warte przemyślenia. Wydaje się, że cień Golema (z elektronowym mózgiem?) niespodzianie wraca do nas z zaświatów...

--------------------------------------------------------------------------------

Dariusz Zwierzyński jest absolwentem UMCS w Lublinie i Uniwersytetu Cambridge. W Narodowej Radzie Badań Naukowych Kanady i Fundacji Neila Squire kierował pracą nad automatyczną syntezą i rozpoznawaniem mowy. Obecnie jest konsultantem ds. lokalizacji oprogramowania komputerowego i publicystą piszącym o informatyce, integracji europejskiej i ekonomii.

Dr Kevin Warwick jest profesorem cybernetyki w Uniwersytecie Reading. Specjalizuje się w badaniach nad sztuczną inteligencją, teorią kontroli i robotyką. Studiował na Uniwersytecie Aston, doktoryzował sie w Imperial College London, gdzie został asystentem. Za swe prace badawcze otrzymał też doktoraty z Imperial College London i Czeskiej Akademii Nauk. Przed objęciem katedry cybernetyki w Reading pracował w British Telecom oraz na uniwersytetach w Oxfordzie, Newcastle i Warwick.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200