Dlaczego nie istnieje świadomość algorytmu

Dysputy nad świadomością komputerowego sprzętu i oprogramowania są wciąż modne i przykuwają uwagę ludzi, którzy mają bardziej emocjonalny niż fachowy stosunek do informatyki. Ulegają im również informatycy, ludzie o wykształceniu technicznym. Przykładem tego jest tekst Jarosława Badurka (CW nr 24/2000), w którym autor snuje wizje świadomości algorytmów, jako ewolucyjnej własności technik informatycznych. Warto się zastanowić, dlaczego inżynier ma takie pomysły i czy są one nieodłączne od informatyki.

Dysputy nad świadomością komputerowego sprzętu i oprogramowania są wciąż modne i przykuwają uwagę ludzi, którzy mają bardziej emocjonalny niż fachowy stosunek do informatyki. Ulegają im również informatycy, ludzie o wykształceniu technicznym. Przykładem tego jest tekst Jarosława Badurka (CW nr 24/2000), w którym autor snuje wizje świadomości algorytmów, jako ewolucyjnej własności technik informatycznych. Warto się zastanowić, dlaczego inżynier ma takie pomysły i czy są one nieodłączne od informatyki.

Rzecz cała jest zarówno skomplikowana, jak i prosta zarazem. Oczekiwanie na zrodzenie się i rozwój pewnej świadomości maszynowej towarzyszyło od stuleci wielu wynalazcom i filozofom. Było ono o tyle zrozumiałe, o ile polegało na wierze, że np. maszyny do gry w szachy czy mechaniczne urządzenia do obliczeń matematycznych, mające zastosowanie w księgowości, kartografii czy wojskowości, dorównają czy nawet przewyższą naturalne zdolności człowieka. Marzenia Pascala czy Leibniza o takich maszynach wyrażały wiarę w technikę, która miała wspomóc myśl ludzką. Następne pokolenia konstruktorów elektrycznych i elektronicznych maszyn liczących w większości podzielały te przekonania. W tej wersji technika wspomaga ludzką świadomość. Do jakiegoś stopnia zrozumiałe jest też oczekiwanie "maszynowej świadomości".

Komputerowa technika i cyfrowe metody kodowania i przetwarzania informacji okazały się jednak tak skuteczne i szeroko stosowane, że dla niektórych informatyków, programistów i inżynierów dały podstawę do przypuszczeń, iż zrodzą nowe myślenie, że przyczynią się do ewolucji maszynowej świadomości. W tej sytuacji technika informatyczna ma zrodzić świadomość. Tu rzecz cała przestaje być prosta i naturalna, a zaczyna się komplikować. Tworzy się specyficznie mitologiczna sytuacja.

Czy algorytm może być świadomy?

Jarosław Badurek pisze: "Dążąc do tworzenia świadomego algorytmu, powinniśmy spoglądać w kierunku osiągnięć przyrody". Inaczej mówiąc, zakłada, że prace programisty czy konstruktora komputerów powinny naśladować efekty wiele milionów lat trwającej ewolucji świata przyrodniczego oraz własności świata fizycznego, gdyż tą drogą można będzie odtworzyć ich efekt główny - świadomość wraz ze samoświadomością i wolnością. Symulacja techniczna jest bowiem odtworzeniem i reprodukcją tego, co naturalne, wykonanie bardzo złożonego i samoprojektującego się algorytmu może być samą świadomością.

Fałszywość powyższych stwierdzeń jest, jeśli się tylko im dokładnie przyjrzeć, oczywista. Argumenty przeciwko nim odwołują się do wielu dziedzin nauki i w dużej mierze mają charakter, jak przyznaje Jarosław Badurek, światopoglądowy. Trzeba zatem przedrzeć się przez ten nadmierny optymizm inżynierski i spojrzeć na rzecz całą bardziej trzeźwo i krytycznie. Jest to i ważne, i potrzebne, gdyż w końcu chodzi o właściwą ocenę roli - możliwości, ale i ograniczeń - informatyki nie tylko w nauce i technice, ale również w życiu społecznym. Bez mitycznych wyobrażeń informatyka będzie się miała lepiej.

Poszukiwanie takich systemów informatycznych, które będą odznaczały się względną prostotą pojedynczych elementów, wielofunkcyjnych modułów, a jednocześnie tworzyły bardzo złożone całościowe systemy, jest naturalnym kierunkiem rozwoju techniki informatycznej. Projekty budowy niezawodnych systemów składających się z zawodnych części opracowali tacy pionierzy informatyki i komputerów, jak John von Neumann, Ross W. Ashby czy Michael Arbib. Mówili przy tym, zgodnie z założeniami cybernetyki i teorii systemów, o analogiach technicznych urządzeń i programów z biologicznymi tworami, jak mózg człowieka czy system nerwowy większości kręgowców. Niemniej analogia i symu- lacja to nie to samo, co odtworzenie i zreplikowanie w technicznych wynalazkach efektów ewolucji przyrodniczej. Zastosowanie logiki rozmytej zamiast klasycznej, dwuwartościowej czy odwołanie się do superpozycji stanów charakteryzującej mikroelementarny poziom rzeczywistości fizycznej nie jest powtórzeniem drogi naturalnej ewolucji.

Procesy a operacje

Algorytm, będący podstawą większości systemów informatycznych, to, na mocy definicji, niezawodny przepis na wykonanie określonego zadania w skończonej procedurze, którą można odtworzyć i polecić do wykonania dowolnej maszynie. Poszerzanie algorytmicznej procedury o czynności samokorygowania, samoprojektowania i swoistego uczenia się informatycznych systemów jest również wykonaniem algorytmu. Jest to tylko przeniesienie na poziom wyższy procedur algorytmicznych z poziomu niższego, rozbudowanie i uzupełnienie procedury algorytmicznej. Efekt samoprojektowania czy uczenia się na własnych błędach to skutek modyfikacji i rozbudowania algorytmów. Faktem jest, że systemy informatyczne o takiej globalnej skali działania, jak współczesne sieci neuropodobne czy Internet, odznaczają się pewną przypadkowością, będącą funkcją ich złożoności, lecz ich działania nie da się sprowadzić do - jak pisze Jarosław Badurek

- "trójkąta wzajemnych zależności: przypadkowość-złożoność-świadomość", w którym to "należy poszukiwać odpowiedzi na pytania dotyczące inteligencji algorytmów".

Inteligencja algorytmów, brana dosłownie, jest ich formalną własnością, polegającą na niezawodności. Jest, używając analogii do działania człowieka, bezmyślnym wykonywaniem poleceń, które przez to nie ma nic wspólnego z samoświadomością czy wolnością działania. W tej własności algorytmów, ich swoistej "bezmyślności", tkwi ich siła. Nie można do ich oceny przyjmować kryteriów ocen ludzkiego działania, podobnie zresztą nie można tego robić w drugą stronę.

Człowiek też działa algorytmicznie, lecz stanowi to bardzo małą część jego działania. W większości jest ono niealgorytmicznym wykonaniem czynności praktycznych i teoretycznych, włączając w to także logiczne i programistyczne operacje. Trzeba tu zresztą dokonać zasadniczego rozróżnienia, które jest notorycznie ignorowane przez teoretyków sztucznej inteligencji. Czym innym jest bowiem działanie na poziomie procesualnym, a czym innym na poziomie operacyjnym.

Ten pierwszy to cielesne procesy układu nerwowego i innych układów ciała, które w większości mają charakter autonomiczny, bezwolny i można je opisać jako działanie pewnego algorytmu. Opisywalność czy symulacja nie są jednak tym samym, co samo działanie. Jest tu zresztą tak, że im dany proces jest skuteczniejszy i starszy onto- i filogenetycznie, tym łatwiej da się go opisać jako algorytm. Nie znaczy to jednak, że algorytmiczność jest ich istotą.

Jeśli bowiem rozpatrzyć np. czynność chodzenia człowieka (naprzemiennego stawiania stóp z zachowaniem wyprostowanej postawy) w perspektywie ewolucyjnej, to należy stwierdzić, że zaczęło się od wypracowania przez różnych przedstawicieli homo sapiens swoistych heurystycznych procedur poruszania się. Trzeba było uwzględniać zmienne warunki środowiska (podłoże, potrzeby biegania za pokarmem lub zbierania go), a także budowy ciała. Współwystępowanie wielu takich heurystyk w licznych gatunkach człekokształtnych i ich poprzedników doprowadziło w końcu, a trwało to miliony lat ewolucji tego gatunku, do względnie prostej algorytmicznej czynności poruszania się, która pozostaje wszak poza (przed) świadomością. Inaczej mówiąc, algorytm utrwalony genetycznie w procesach cielesnych powstał jako kwintesencja procesów zasadniczo i w przeważającej części niealgorytmicznej natury.

Wyraźniej to widać na poziomie operacyjnego działania człowieka, zwłaszcza w odniesieniu do myślenia, głównie teoretycznego. Wiele czynności, na pierwszy rzut oka dających się opisać jako algorytmiczne, jest w istocie złożeniem licznych operacji praktyczno-poznawczych o heurystycznej naturze, zawierających liczne próby, błędy, korekty, poprawki i modyfikacje. Można tę proporcję oszacować jednak tylko na konkretnych przykładach, w takich dziedzinach życia praktycznego, jak matematyka, geometria czy technika. Nie można jednak powiedzieć, że właściwe im algorytmy, które de facto różnią się między sobą co do zakresu i historii powstania, mają szczególną, gatunkową zdolność do ewoluowania w stronę świadomych algorytmów. Ich zmiana czy doskonalenie nie są jednak ewolucją w dosłownym tego słowa znaczeniu.

Ewolucja naturalna a techniczna

Dotyka się tu istotnej różnicy, notorycznie bagatelizowanej i ignorowanej, między ewolucją naturalną a techniczną. Tylko w pewnym uproszczeniu można mówić o "ewolucji" w odniesieniu do komputerowych programów, w tym algorytmów. Są one częścią techniki, która jest z kolei wytworem cywilizacyjnym gatunku ludzkiego. Informatyka, będąca najnowszym produktem techniki w ogóle, która ma już za sobą parę tysięcy lat istnienia i służenia człowiekowi, podlega takim samym prawom rozwoju, jak techniki lokomocji, komunikowania, wytwarzania czy zamiany energii. Zmienia się, doskonali, lecz nie ewoluuje w takim sensie, jak ewoluuje anatomiczno-funkcjonalne uposażenie gatunku ludzkiego, czyli praktyka i myślenie. Algorytmy to zaledwie fragment całości, jaką jest życie i jego wysublimowane własności w postaci świadomości i samoświadomości, z którymi nie mają jednak zbyt wiele do czynienia.

Technika informatyczna, jako sztuczny produkt naturalnej ewolucji, podlega prawom uniwersalnej ewolucji, lecz nie w sposób dosłowny. Algorytmy i każde inne procedury czy operacje formalne są zaledwie narzędziem działania. Powstały jako efekt wielostopniowego i wydłużonego w czasie (algorytmy to względnie najnowszy produkt logiki, która jest od nich zdecydowanie starsza) procesu doskonalenia przez próby i błędy wielu innych procedur myślenia twórczego. Krótko mówiąc, algorytm jest efektem końcowym tego, co podlegało algorytmizacji przebiegającej długotrwale i wielokierunkowo, z różnym natężeniem i skutkiem. Algorytm w tym sensie już ewoluował z wcześniejszych etapów praktyczno-teoretycznych czynności człowieka. Jest swoistą "skamienieliną myślenia". Jako taki nie będzie już więcej ewoluował, jeśli nadal używać tego określenia, gdyż jest "mastodontem ludzkiej myśli".

Nie znaczy to jednak, że nie odgrywa żadnej roli, gdyż jego bezmyślna skuteczność zawsze będzie przydatna myślącemu człowiekowi. Na dobrą sprawę tylko w odniesieniu do prawdziwie twórczego działania człowieka poszczególne algorytmy wcielone w odpowiednie techniczne urządzenia mogą zmieniać się wraz z nim. Sieci neuropodobne czy Internet, podawane jako przykłady złożonych systemów ewoluujących rzekomo w stronę samoistnej globalnej świadomości, są i na pewno będą coraz bardziej inteligentne, lecz nie można oczekiwać, że wytworzą z siebie samych, rozpatrywanych w izolacji od człowieka jako ich twórcy, nową jakość dorównującą naturalnej ewolucji. Nic tu nie dadzą marzenia czy ambicje inżynierów, techników czy programistów. To tylko ich twórcza inwencja, uwolniona od mitycznej wiary w maszynową świadomość, może przyczynić się do postępu w informatyce i technice jako takiej. W tym sensie uczestniczą oni w procesie doskonalenia swojego i gatunkowego myślenia, lecz nie są krea-torami żadnych homunkulusów czy sztucznej inteligencji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200