Świadomość algorytmu - naturalizm i antropocentryzm

Wzrost złożoności systemów informatycznych i postępy kognitywistyki powodują, że ponownie stają się aktualne pytania o naturę świadomości i możliwości symulowania jej, bądź tworzenia, metodami maszynowymi.

Wzrost złożoności systemów informatycznych i postępy kognitywistyki powodują, że ponownie stają się aktualne pytania o naturę świadomości i możliwości symulowania jej, bądź tworzenia, metodami maszynowymi.

Świadomość jest zawsze świadomością czegoś. Czym jest owo "coś"? Przede wszystkim świadomością wyboru. Innymi słowy mówiąc: świadomość jest świadomoś-cią wyboru (wolności). Jestem świadomy, to znaczy, że wybieram, że jestem świadomy swej wolności i czynienia z niej użytku. Jest to całkowicie zrozumiałe i bezpośrednio dostrzegalne podczas wykonywania konkretnej czynności: idę na spacer do określonego celu i jestem tego świadomy. Ale nawet podczas pozornego braku aktywności, a więc pozornego braku wyboru, nasza świadomość jest również ściśle związana z wyborem.

Wystarczy być

Już tylko postrzegając otoczenie, rejestrując, po prostu "będąc", również wybieramy, mianowicie określamy sposoby interpretacji czy wartościowania wrażeń. Oczywiście, granice między wyborami świadomymi a podświadomymi czy nawet pozaświadomymi (np. na poziomie molekularnym) są tutaj płynne, ale fakt wyboru zawsze istnieje. Mówiąc krótko: nie ma świadomości bez wolności. Skoro więc świadomość jest tak bardzo charakterystyczną właściwością homo sapiens, to również nie będzie błędem stwierdzenie, że podstawową cechą człowieka jest jego wolność.

Wolność będąca naszym błogosławieństwem i bywająca przekleństwem. Nam dana. Której granicą jest brak możliwości uwolnienia się od niej samej. I niemożliwa do zabrania. Ciągle wymagająca uczenia się na nowo: jak z niej korzystać. Związki między wolnością a świadomością są niezwykle istotne dla badań dotyczących świadomości maszynowej, tj. tworzonej sztucznie przez człowieka, bądź świadomości globalnej, będącej samosprzęgającą się hybrydą: naturalnej świadomości jednostek i świadomości zbiorowej, opartej na strukturach maszynowych (medialnych).

Mrówka przy szachownicy

I tak, najbardziej wyrafinowany algorytm szachowy, kładący na łopatki arcymistrzów, daleki jest od "świadomości" mrówki, jako że stopień wolności wyboru tej ostatniej przewyższa analogiczną cechę współczesnego oprogramowania. Nie znaczy to jednak, że tak musi być zawsze. Znamy już dziś technologie z zakresu sztucznej inteligencji (SI), które zakładają dokonywanie wyborów przez oprogramowanie. Jako przykład mogą tu posłużyć algorytmy genetyczne, będące konsek-wencją idei konstruowania maszyn samouczących się. Ten kierunek prac nad SI słusznie łączy problematykę wolności maszynowych wyborów z siłą "inteligencji" algorytmu.

Z drugiej strony, bezdowodowo podane stwierdzenie o wolnościowej wyższości mrówki nad komputerem wymaga dyskusji. Przede wszystkim niewiele wiemy o mechanizmach zachodzących w zwojach nerwowych mrówki, skłonni raczej jesteśmy do przypisywania im uproszczonych cech antropomorficznych. Brak skali porównawczej stawia więc znak zapytania przy formułach wiążących poziomy móz-gów naturalnych i elektronowych.

Jako ludzkość dość łatwo przeszliśmy też do porządku dziennego nad niewątpliwą wyższością maszyn w rozwiązywaniu wielu wyspecjalizowanych zadań. Czy ktoś odważyłby się zarzucić królewskiej grze prostotę i prymitywizm? A przecież wiemy, że szachowa przewaga komputerów nad człowiekiem bierze się głównie z ich siły obliczeniowej, za którą stoi algorytm, który gotowi jesteśmy uznać za w gruncie rzeczy niezbyt wyrafinowany. Co się stanie, kiedy pod programistycznym naporem w podobny sposób będą padać kolejne bastiony, zarezerwowane dotąd dla ludzkiego mózgu? Nasza inteligencja byłaby tylko ilościowym spotęgowaniem prostych mechanizmów prowadzących w efekcie do zaskakująco nowych jakości?

Maszynowe złośliwce

Przy szkodliwości wirusów komputerowych są one prostym przykładem maszynowego systemu o charakterze, jeśli nie samouczącym się, to co najmniej adaptacyjnym. Wirusy mają zadaną strukturę i określone reguły działania. Dana jest im (głównie przez hakerów) wolność wyboru (rozmnażania się). Owe struktury i reguły, w jakie wyposażany jest wirus, są stosunkowo proste w porównaniu ze skalą negatywnych efektów wywoływanych przez wirus.

Warto przy tym porównać specyfikę rozwoju wirusów naturalnych z maszynowymi. W pierwszym przypadku ewolucja ma charakter analogowy - wirus przechodzi z jednego stadium w drugie w ciągłym procesie. Analogowość procesów wydaje się zresztą supercechą natury w odróżnieniu od świata maszynowego, gdzie dominuje cyfrowość. Stworzenie nowej mutacji sztucznego wirusa wymaga z kolei międzystadialnej ingerencji człowieka. W miarę redukowania tej potrzeby będą powstawać coraz groźniejsze wirusy, a ich elastyczność będzie porównywalna z naturalnymi.

Niszczycielska siła wirusów może wzrastać, paradoksalnie, wraz ze wzrostem ich zawodności. Obrona przed "chaotycznie" napisanym programem może być trudniejsza niż przed ściśle zdeterminowaną procedurą. Niemniej efekty, o których mowa, wystąpią na szeroką skalę dopiero wtedy, gdy wirus, w interakcji z otoczeniem, które atakuje, a może i z innymi wirusami, będzie w stanie faktycznie dokonać zmiany swojego kodu, tak jak to się dzieje w przyrodzie. W takim przypadku sztucznie powołany do życia wirus mógłby w zmienionej wersji wrócić do swojego twórcy i zniszczyć jego komputer.

Ubiegłoroczna Melissa i niedawny I Love You dowodzą, że kolejne generacje wirusów są coraz bardziej złośliwe i mogą wyrządzać coraz większe szkody. Musimy być zatem przygotowani na niebezpieczeństwo pojawienia się HIV - podobnego złośliwca komputerowego i to nie w kontrolowanych laboratoriach naukowych, jako "ubocznego efektu" badań nad SI, ale w ciemnych zaułkach hakerskiego undergroundu. Trzeba bowiem pamiętać, że epidemie komputerowych wirusów rozprzestrzeniają się wtedy, gdy napotykają niefrasobliwych użytkowników, nie zastanawiających się nad specyfiką sytuacji, w jakiej się znajdujemy, określanej przez nowe technologie.

Któż z nas, wyciągając ze swojej skrzynki listy, reklamowe ulotki czy biznesowe propozycje, natychmiast i bezrefleksyjnie podpisuje "w ciemno" każde z pism, godząc się z góry na nieprzewidziane konsekwencje? A takie zachowanie można właśnie przyrównać do radosnego klikania myszką na każdy załącznik najdziwniejszego nawet e-maila. Tymczasem przestrzeganie zasad komputerowej higieny jest skuteczną ochroną przed maszynowymi wirusami, analogicznie do profilaktyki medycznej. Bliższa analiza, nieraz sensacyjnie nagłaśnianych, doniesień o włamaniach do systemów domowego bankingu wskazuje na lekkomyślność użytkownika jako jedną z głównych przyczyn tego typu włamań.

Teoretycznie nie ma możliwości złamania jednorazowego hasła, gdyż traci ono ważność już po pierwszym i jedynym użyciu w powiązaniu z określoną operacją finansową. A tak właśnie konstruowane są transakcyjne numery TAN (Transaction Authentification Number). Żaden haker z Wysp Hulagula czy Republiki Słoniowego Przylądka nie dostanie się do nich, korzystając z protokołów TCP/IP, bo na te pozostanie nieczuła mechanika szuflady mojego biurka. Do kogo jednak miałbym w pierwszym rzędzie pretensje, gdybym włamywaczowi umożliwił skorzystanie z klucza do domu, zostawionego pod wycieraczką. A czymże innym jest zapamiętywanie na dysku własnych PIN-ów i TAN-ów?

Pewność z niepewności

Wnioskiem z dotychczasowych rozważań byłoby zatem wskazanie na możliwość wzrostu efektywności algorytmów, cechujących się ograniczonym determinizmem. Nie jest to oczywiście postulat łatwy do zaimplementowania za pomocą języków programowania opartych na strukturach typu IF...THEN...ELSE. Choć już wzbogacenie ich o własności logiki rozmytej (fuzzy) jest krokiem we właściwym kierunku. Wspomniany paradoks konstruowania systemów niezawodnych z elementów zawodnych (natura jest tu znowu niedoścignionym wzorcem) wymusza wszakże zgodę na zmniejszone możliwości pełnej i bezpośredniej kontroli nad tak tworzonym oprogramowaniem.

Twierdzenie takie brzmi jak herezja dla użytkownika nękanego błędami soft-ware'owymi, dla których nie znajdują stosownych recept nawet jego twórcy. Niemniej godzimy się na ów brak pełnej (i bezpośredniej) kontroli software'u z uwagi na jednak wzrost jego całkowitej efektywności. Przykładem może być tu porównanie współczesnych narzędzi graficznych, np. z poziomu systemów operacyjnych, ze starszymi rozwiązaniami opartymi na trybie znakowym. Z pewnoś-cią łatwiej było kontrolować oprogramowanie, które operowało 128 dopuszczalnymi znakami, a każdy z nich mógł pojawić się na ekranie w bardzo ograniczonych koordynatach 25 linii i 80 kolumn.

Współczesne systemy graficzne opierają się na złożonych bibliotekach i obiektach operujących milionami pikseli i odcieni kolorów, a także innych atrybutach. Któż jednak chciałby zrezygnować ze złożoności tych nowoczesnych systemów i pozostać na zawsze ze starymi, a "nieświadomymi"? Z kolei na drodze ku nowemu warto korzystać, także w informatyce, ze wzorców dostarczanych nam przez naturę. Tak przecież dzieje się z powodzeniem i w innych dziedzinach: helikopter naśladuje zwrotną ważkę, łódź podwodna chciałaby upodobnić się do zwinnych ryb głębinowych, a przemysł włókienniczy szuka nici choćby zbliżonych właściwościami do zwykłej pajęczyny.

Pikostruktury

Podobnie, dążąc do tworzenia świadomego algorytmu, powinniśmy spoglądać w kierunku osiągnięć przyrody. Dochodzimy tu do pytania o rolę determinizmu i tzw. przypadku w naturze. Trzy literki: "tzw." przed tym ostatnim pojęciem wynikają z konieczności zachowania ostrożności w operowaniu przypadkowością i jej rolą w organizacji rzeczywistości. Czy ciąg liczb: 5, 9, 2, 6, 5, 3, 5 jest przypadkowy? Na to wygląda, powiedziałby nawet miłośnik testów Mensy. W rzeczywistości te 7 cyfr łączy ścisła formuła (fakt, że nie najprostsza, bo trzeba by sięgnąć do szeregów matematycznych), mówimy bowiem o kolejnych rozwinięciach liczby p, prawda że "dla zmylenia przeciwnika" podanych akurat od czwartego miejsca po przecinku.

Tak więc słowa "przypadek" używamy chętnie wtedy, gdy nieznane są przyczyny pewnego zjawiska. Pytanie o determinizm jest w znacznej mierze pytaniem światopoglądowym. Wierzymy w określoność i planowość rozwoju otaczającej nas rzeczywistości albo też skłaniamy się ku łączeniu jej z przypadkowością. Oczywiście w praktyce chętnie wybieramy, w zależności od sytuacji, któryś z wariantów pośrednich, np. w odniesieniu do ludzkiego losu w wymiarze operatywnym, skłaniamy się do determinizmu i znacznego wpływu jednostki na jej poczynania, natomiast na płaszczyźnie strategicznej i długofalowej panuje znacznie większy sceptycyzm co do określoności naszego bytu.

Fizyka mikroświata od dziesięcioleci zna zasadę nieoznaczoności Heisenberga czy paradoks Schr?dingera, wskazujące na znaczną rolę przypadkowości w organizacji materii. Niemniej, bez reguł porządkujących ów pozorny chaos, trudno byłoby wytłumaczyć stabilność obiektów makroświata. Potwierdzają to ostatnie prace dotyczące zjawiska dekoherencji atomowej, tzn. wyboru jednego z dopuszczalnych stanów przez układ fizyczny. Okazuje się, że szybkość dekoherencji rośnie wraz z rozmiarami obiektu.

Oznacza to, że nieprzystawalne do świata widzianego gołym okiem "przypadkowe" superpozycje kwantowe są podstawą bardziej zdeterminowanego świata dużych obiektów. Można z kolei jedynie spekulować na temat praw rządzących poziomem subkwantowym - prosiłoby się tu założenie o daleko posuniętym determinizmie, tych nie znanych nam jeszcze, pikostruktur (przedrostek "nano" już w tej chwili jest "zarezerwowany" z uwagi na rosnące znaczenie nanotechnologii).

Pokrętna logika

Innymi słowy mówiąc: świat wydaje się wielopoziomowo zorganizowanym, przypadkowo-koniecznym przekładańcem - w zależności od przyjętego poziomu odniesienia postrzegamy rzeczywistość raz jako bardziej deterministyczną, innym razem jako bardziej nie ustaloną. Taki pogląd koresponduje z teorią zorganizowanego chaosu. Tak więc tworzenie nowego rodzaju "świadomych" algorytmów wymaga wyważonego łączenia tych dwóch przeciwstawnych tendencji. Zadanie niełatwe, ale znamy przykłady takiego wielopoziomowego łączenia.

Mogą nimi być systemy ekspertowe, postrzegane przez pryzmat języków wysokiego poziomu programowania, korzystających przecież na poziomie maszynowym z prostych rozkazów asemblerowych. Oczywiście nie oznacza to jeszcze, że shell systemu ekspertowego ma charakter "przypadkowy", zaś poziom języka maszynowego zdeterminowany, niemniej wielopoziomowość daje nam tu możliwość wprowadzenia przypadkowości na wybranym poziomie. W tym przykładzie zrobilibyśmy to na poziomie aplikacji, choć oczywiście zdecydowanie ciekawszych efektów należałoby oczekiwać, implementując przypadkowość na poziomie binarnym.

Mielibyśmy wówczas do czynienia z analogią do znanych praw fizyki: stabilność makroświata oparta na znacznie mniej jednoznacznych stanach superpozycji na poziomie atomowym. Konsekwentnie musimy teraz postawić pytanie: jak w praktyce implementować przypadkowość w systemach software'owych? Na pewno nie na podstawie dwuwartościowej logiki klasycznej. Właściwym kierunkiem jest tu stosowanie teorii zbiorów rozmytych (fuzzy sets). Teoria ta zakłada, że element może należeć jednocześnie do dwóch zbiorów, które w wersji klasycznej byłyby zbiorami rozłącznymi.

Przykładowo, definiujemy zbiór osób wysokich: 180-200 cm i zbiór osób niskich: 145-179 cm (w zaokrągleniu do pełnych centymetrów). W sytuacji klasycznej osoba mająca 177 cm wzrostu może należeć tylko do zbioru osób niskich, z kolei w wariancie rozmytym może być potraktowana jako wysoka, jeśli odpowiednio zdefiniujemy funkcję przynależności elementu do zbioru, na podstawie prawdopodobieństwa. (Przykład: tabela powyżej)

Oczywiście nasza funkcja, niezależnie od jej prostoty czy matematycznego wyrafinowania, ma charakter porządkujący dla zbioru osób, które w zależności od sytuacji mogą być postrzegane jako "niskie" bądź "wysokie". Niemniej efekt łączenia przypadkowości z koniecznością jest tu wyraźniejszy i jednocześnie bliższy naszym doświadczeniom praktycznym - jako się rzekło, stopień "niskości" osób o wzroście 177 i 157 cm jest różny. Należy się zatem spodziewać, że algorytm wyposażony w mechanizmy świadomościowe czy samoświadomościowe (informatyczna samodiagnoza jest namiastką samoświadomości) będzie potrafił "zaprzeczać sam sobie".

Agent w sieci

Wzrost złożoności systemów informatycznych powoduje, że logika implementowana w ich podstawowych modułach objawia się na poziomie systemowym (nie elementarnym), co postrzegamy właśnie jako wzrost przypadkowości. W ten sposób docieramy do identyfikacji trójkąta wzajemnych zależności: przypadkowość-złożoność-świadomość - w nim to właśnie należy poszukiwać odpowiedzi na pytania dotyczące inteligentnych algorytmów.

Przyjrzyjmy się rozbudowanym systemom agentowym. Nawet stosunkowo prosto skonstruowany agent (moduł podstawowy), wchodząc w interakcje z innymi agentami, prowadzi do systemowych efektów na poziomie aplikacji. W omawianym przykładzie transakcje kupna/sprzedaży, do jakich dochodzi na wirtualnym rynku, mogą być pewną niespodzianką dla użytkownika. W zamian za to, zgodziwszy się na elementy nieprzewidywalności, dajemy aplikacji możliwość stawania się bardziej samodzielną. Jest to zjawisko korzystne, pod warunkiem że oprogramowanie nie przekroczy granic wyznaczających obszary jednoznacznie szkodliwe dla użytkownika - tutaj mogą to być minimalne i maksymalne ceny płacone za towar - podczas autentycznie kojarzonych transakcji.

Negatywnym przykładem przekraczania owych ram mogą być zachowania systemów giełdowych w minionych latach. Podobne ustawienia domyślnych (default) parametrów indywidualnego oprogramowania giełdowego mogły prowadzić do chwilowego załamywania się znacznych fragmentów rynku giełdowego przejawiających się nieuzasadnioną paniką, tworzoną głównie przez automatyzm software'u. Tak więc przypadkowość indywidualnych strategii giełdowych może objawiać się niestabilnością na poziomie zdeterminowanych reguł giełdy, jako całości. Dodajmy, że w praktyce istnieje wówczas możliwość zawieszenia działalności elektronicznej giełdy na określony czas (np. na 30 minut), niemniej mówimy tu o sytuacji niepożądanej interwencji manualnej, a taką jest wyłączenie całego systemu.

Analogowa ewolucja

Programistyczny wniosek wynikający z tych rozważań jest jasny. Pojawienia się świadomego algorytmu należy oczekiwać raczej nie na drodze tworzenia rozbudowanych, zamkniętych programów o charakterze wyspowym (stand alone), ale w efekcie wzrostu złożoności dynamicznych systemów, składających się z dużych zbiorów, stosunkowo prostych, reagujących ze sobą modułów. Naturalnym środowiskiem dla tak definiowanych fragmentów kodu informatycznego jest sieć komputerowa Internetu.

Choć równie dobrze zestaw współpracujących ze sobą procedur może występować lokalnie - tak właśnie się dzieje z ewoluującymi systemami operacyjnymi. Są one obszernymi zbiorami współdziałających ze sobą programów. Ich złożoność rośnie, niemniej dotąd maszynowa świadomość, rozumiana jako wolność wyboru, a objawiająca się przypadkowością postrzeganą przez człowieka, prowadzi często do szkodliwych efektów w postaci błędów. Trzeba jednak również pamiętać o dużych bazach danych, posiadających mechanizmy samoorganizacyjne czy właśnie o systemach operacyjnych, potrafiących modyfikować swój profil zachowań w zależności od trybu i stylu pracy użytkowników (AS/400).

Fenomeny, o których mówimy, nie wystarczą jednak do pojawienia się świadomego algorytmu, który mógłby przewyższyć swą mocą fantazję, jaka kryje się w zwojach nerwowych mrówki. Ewolucje informatyczne mają bowiem charakter nieciągły i między ich poszczególnymi fazami zawsze niezbędna jest działalność człowieka (nowa wersja oprogramowania). W przyrodzie przejścia te są natury analogowej, a kolejne stany definiowane są przez reguły zawarte w stadiach wcześniejszych.

Między kurą a znoszonym przez nią jajkiem nie ma żadnej "luki ewolucyjnej" - stąd znane pytanie: co było wcześniej. Notabene, z biologicznego punktu widzenia, pierwszeństwo należy się jajku. "Jajko" jest bowiem pojęciem bardziej ogólnym i mogło pojawić się wcześniej, zniesione przez nie-kurę (zwierzę wcześniejsze ewolucyjnie), dając początek ściśle specyfikowanemu gatunkowi "kura". Problemów takich nie napotkamy przy definiowaniu chronologii informatycznych - numeracja kolejnych wersji oprogramowania jest jednoznaczna.

Rozsądek i pycha

Spór o istotę świadomości i możliwość sztucznego jej kreowania przywodzi na myśl analogie kopernikańskie i darwinistyczne. Dziś, dla wielu, kolejną barierą nie do przekroczenia jest uznanie wszechzwiązku zjawisk, a tym samym pogodzenie się z naturalistyczną koncepcją świadomości. Przeciwstawia się jej antropocentryzm, a zaślepienie powodowane zwykłą pychą każe postrzegać człowieka w oderwaniu od jego otoczeniem, tak jakby źródła istnienia obu sfer były różne.

To właśnie zaskorupiały antropocentryzm implikował antyheliocentryzm. Wbrew faktom, nie można było przyjąć do wiadomości, że człowiek zamieszkuje którąś tam planetę, krążącą wokół Słońca, nawet nie w pierwszej czy drugiej, ale wręcz trzeciej kolejności. A jeszcze owa macierzysta gwiazda nie wyróżnia się niczym szczególnym wśród miliardów jej podobnych, ba - sama uplasowana została gdzieś na głębokich prowincjach galaktyki. Nie trzeba dodawać, że i nasza Droga Mleczna nie jest też żadnym pępkiem wszechświata.

Ten sam antropocentryzm do tablicy wywoływał antydarwinistów. Działo się to w czasach daleko pośredniowiecznych, choć nie tak bardzo odległych od współczesności. Nie można się było przecież zgodzić z tym, że mamy coś wspólnego z innymi ssakami naczelnymi. Że szympans ma dłoń podobną do naszej, a oczy psa niewiele różnią się od ludzkich. A kiedy faktom coraz trudniej było zaprzeczać, to nawet jednoznaczne znaleziska archeologiczne ubierano w odpowiednie szaty propagandowe, tworząc np. negatywny wizerunek troglodytowatego neandertalczyka, co zresztą znajduje coraz mniej potwierdzenia w najnowszych odkryciach.

Dziś ta sama pycha gatunkowa często jeszcze nie pozwala przekroczyć nam kolejnej granicy: uznania naturalistycznego wytłumaczenia fenomenu świadomości. Jest to fenomen prawdziwy, zdumiewający, podobnie jak przechodzenie wody ze stanu ciekłego w stały podczas mrozu - ten sam płyn staje się lodem o nowych właściwościach. Z tym że dla świadomości czynnikiem transformującym jest nie temperatura, a dynamiczna gęstość informacji. Tej samej informacji, która w połączeniu z materią, energią, przestrzenią, czasem, każe przyciągającym się planetom "rozwiązywać" równanie Newtona.

Nie ma żadnych dowodów na to, że świadomość jest czymś innym niż rezultatem aktywności mózgu. Wręcz przeciwnie: eksperymenty naukowe wyraźnie potwierdzają tę tezę. Z kolei aktywność mózgu daje się tłumaczyć procesami bioinformacyjnymi. Ot i wszystko. Przy czym "wszystko" odnosi się tu do istoty świadomości, nie zaś do kompletności naszego stanu wiedzy w tej mierze. Tu, rzecz jasna, mamy jeszcze wiele do zrobienia. Nie musimy wszakże trwonić czasu na poszukiwanie generalnego kierunku dla czekających nas prac.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200