Roboty: ciało sztucznej inteligencji

H. Moravec trafnie zauważa, że dotychczasowe osiągnięcia nad sztuczną inteligencją są niekompletne, gdyż nie uwzględniają, iż "umysł musi być w ruchu". Cała historia ludzkiego umysłu to ewolucja genetyczna organizmu połączona ze stymulującą ją rewolucją techniczną. W tej perspektywie roboty są etapem ewolucji gatunku ludzkiego. Jest to etap "postbiologiczny", w którym tempo przemian rośnie w postępie geometrycznym. Roboty i rozpoczęta przed stu laty mechanizacja i automatyzacja liczenia nie tylko wzmacniają umysł człowieka, lecz także ukierunkowują samą ewolucję biologiczną. Ludzie przekształcają się pod wpływem techniki z organizmów całkowicie zdeterminowanych genetycznie w podmioty zależne w coraz większym stopniu od informacji zawartej poza genami, poza ciałem - w bibliotekach, komputerach, robotach. Umysł i inteligencja coraz bardziej uniezależniają się od skończonego i niedoskonałego ciała.

Ludzka inteligencja może się wcielić w mobilne roboty, które będą same się projektować, naprawiać i reprodukować. W ten sposób powstaną nie tylko nowe narzędzia, zasadniczo przyspieszeniu i ukierunkowaniu ulegnie proces naturalnej ewolucji gatunku ludzkiego. Nasza inteligencja jako narzędzie powinna pozwolić nam podążyć ścieżką w stronę inteligencji jako celu, krokami większymi niż te dokonane pierwotnie przez niezwykle cierpliwy, lecz ślepy darwinowski proces - stwierdza H. Moravec. Świat wypełniony robotami nie jest skutkiem działań konstruktorów z Massachusetts Institute of Technology czy Krzemowej Doliny, lecz efektem naturalnej, technicznej (inteligentnej) ewolucji.

Trudne życie z robotami

Połączenie w robotach inteligencji (nawet jej namiastki) z widzeniem i ich mobilnością jest, trzeba przyznać, nową jakością. Nie znaczy to, że nie powoduje żadnych trudności czy wątpliwości. Mobilny robot, który np. w szpitalu administruje przypadkami nieuleczalnie chorych czy podejmuje ryzykowne decyzje dotyczące ubezpieczenia na życie, musi nie tylko rozwiązywać konkretne problemy, lecz powinien także radzić sobie z każdym nowym, który nie jest w nim zaprogramowany. A to są już nie tylko kwestie informatyczne, lecz również społeczne i moralne. Warto zauważyć, że SF i w tym przypadku wyprzedziła życie.

Isaac Asimov sformułował tzw. trzy prawa robotyki: 1. robot nie może skrzywdzić człowieka, nawet przez bezczynność; 2. robot musi słuchać rozkazów ludzi (chyba że sprzeciwia się to prawu pierwszemu); 3. robot powinien chronić siebie samego (chyba że i to stoi w sprzeczności z pierwszym i drugim prawem). Taka aprioryczna "moralność" robotów miała zabezpieczyć i ludzi, i roboty przed wszelkimi konfliktami. Lecz czy ma ona szansę zrealizować się w praktyce?

Stanisław Lem trafnie zauważa, że wyposażenie robotów w taką namiastkę osobowości wcale nie czyni ich bezpiecznymi dla otoczenia w sytuacji, gdyby z pewnych względów chciały one zaszkodzić lub zniszczyć swoich konstruktorów. Cechą wszelkiego skutecznego działania jakiegokolwiek układu jest względne niezdeterminowanie, losowość, wysoki stopień prawdopodobieństwa dokonywania wyborów - musi to dotyczyć zarówno ludzi, jak i robotów. Gdyby więc wyposażyć roboty w aksjologiczną wrażliwość, umiejętność i wolę rozróżniania dobra i zła, jednocześnie oczekiwać od nich pełnej wiedzy (maksymalnej inteligencji) o skutkach ich działania, to w efekcie trzeba się liczyć z tym, że roboty takie "znieruchomiałyby, porażone niepewnością". Sytuacja taka częściowo dotyczy działań człowieka, który rzadko ma poczucie pewności wyborów czy znajomości ich skutków. Demonizm homunkulicznego mitu - pisze S. Lem - nie zagraża nam ani trochę. Tylko rachuba ekonomiczna, względy natury materiałowej, stosunki podaży, popytu, jednym słowem - gradienty cywilizacyjnego wzrostu - będą decydowały o tym, czy, kiedy, jak wiele i jakich androidów oraz robotów będzie się wytwarzało w przyszłości.


TOP 200