Wszechświat jako komputer i sprawy ostateczne

Pomysł, że kosmos jest gigantycznym komputerem, przekracza dziwnością najśmielsze wymysły science fiction. Pojawił się jednak nie w baśniach, lecz w fachowej literaturze z kosmologii, czyli nauki o historii kosmosu.

Pomysł, że kosmos jest gigantycznym komputerem, przekracza dziwnością najśmielsze wymysły science fiction. Pojawił się jednak nie w baśniach, lecz w fachowej literaturze z kosmologii, czyli nauki o historii kosmosu.

Istnieje droga ku sztucznej inteligencji tak osobliwa, że mało kto o niej słyszał. Krąg wtajemniczonych stanowi wąskie grono fizyków i kosmologów. Można by się spodziewać na tej drodze natłoku adeptów filozofii i teologii, ale nie widać, by się tam cisnęli.

Jest to wizja inteligencji, kosmosu, a nawet rzeczywistości przekraczającej kosmos, wypływająca z dwóch źródeł. Jednym jest pojęcie, które oddajemy terminami: modelowanie komputerowe, symulacja, emulacja, rzeczywistość wirtualna. W owej wizji wyprowadza się z tego pojęcia najdalej idące, wręcz ekstremalne konsekwencje.

Drugim źródłem są matematyczne modele kosmosu. O tym statystyczny konsument nauki wie tyle, że istnieje model standardowy, który wywodzi kosmos od Big-Bangu. Wśród odmian modelu standardowego, dodajmy, jest taka, która doprowadza ewolucję kosmosu do punktu zwanego Omega i rozważa warunki, przy których drugie prawo termodynamiki nie prowadziłoby do śmierci cieplnej wszechświata. "Punkt Omega jest samoprogramującym się procesem obliczeniowym z aktualnie nieskończoną pamięcią".

Pionierzy eschatologii naukowej

Eschatologia to próba odpowiedzi na pytania dotyczące spraw ostatecznych - końca jednostek i całego świata. Pomysł, by szukać odpowiedzi metodami naukowymi, wydaje się ekscentryczny. Są jednak poważni uczeni nie cofający się przed tą próbą. Mają godny uwagi argument przeciw obiekcji, że jest to przedsięwzięcie dla uczonych niestosowne. Do niedawna zagadnienie początku świata było domeną mitów, wierzeń religijnych i spekulacji teologicznych. Pogląd, że dobrze prowadzący się uczony nie dotyka problemu powstania świata, wywarł wpływ nawet na niezależny umysł Einsteina, czego uczony do końca życia żałował. Było to tak, że twierdzenie o ewolucji kosmosu (a ta musi mieć punkt startowy) wynikało z równań ogólnej teorii względności, ale zdało się Einsteinowi tak niewiarygodne, iż ,,poprawił" równania i pozbawił się tytułu odkrywcy tej ewolucji; przypadł on Hubble'owi, który dziesięć lat później zaobserwował ucieczkę galaktyk. Toteż ryzykowne może być raczej unikanie tematyki ,,teologicznej" niż jej podejmowanie.

Pora wprowadzić na scenę pionierów eschatologii, której naukowy charakter brałby się z odniesienia do fizyki z kosmologią oraz do informatyki.

John D. Barrow (profesor astronomii uniwersytetu w Sussex w Anglii) i Frank J. Tipler (profesor fizyki matematycznej uniwersytetu w Nowym Orleanie, USA) napisali słynną książkę The Anthropic Cosmological Principle, Oxford University Press, 1986, 1996. Najlepiej ją czytać razem z drugą, napisaną przez Tiplera, pod osobliwym tytułem The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead (Czytelnik może nie wierzyć oczom, podam więc ten tytuł i po polsku: Fizyka nieśmiertelności: współczesna kosmologia, Bóg i zmartwychwstanie zmarłych), New York, 1994. Napisano w Science, że to majstersztyk (masterpiece) łączący naukową wiarygodność z poglądem, w który zawsze chcieliśmy wierzyć. Dramatyzmu dodaje książce dedykowanie jej trojgu Polaków, poległych w wojnie 1939 r., będących pradziadkami jego dzieci (stąd temat eschatologiczny zdaje się dla autora sprawą także osobistą). Tipler znalazł się w bestsellerze Johna Horgana Koniec nauki, czyli o granicach wiedzy u schyłku ery naukowej (przekład 1999 r.) w towarzystwie Stephena Hawkinga, Karla Poppera, Francisa Cricka, Rogera Penrose'a, Noama Chomsky'ego i innych liderów dzisiejszej nauki.

Autorzy biorą za punkt wyjścia szeroko dyskutowaną w kosmologii zasadę antropiczną, w następującej wersji (s. 16):

"Zaobserwowane wielkości fizyczne i kosmologiczne przybierają swe aktualne wartości przy założeniu, że wszechświat ma odpowiedni wiek i że gdzieś zaistniały w nim warunki do powstania życia opartego na związkach węgla".

W tej wersji, sprawdzalnej empirycznie, zasada antropiczna nie wystarczy do uzyskania wniosków eschatologicznych. Autorzy robią jednak od tego punktu jeszcze jeden krok, bardziej spekulatywny, domniemywając, że za tym dostosowaniem wielkości fizycznych (szybkość światła, grawitacja itp.) do faktu zaistnienia inteligentnego życia musi się kryć pewien kosmologiczny proces obliczeń, czyli przetwarzania informacji. Jego nieunikniona kontynuacja doprowadzi w pewnym punkcie do opanowania całego kosmosu przez inteligentne życie. Mówi o tym konkluzja książki.

Jeśli życie ewoluuje we wszystkich spośród wielu wszechświatów kosmologii kwantowej i nadal będzie się w nich rozwijać, to wszystkie z tych wszechświatów, zawierające wszystkie możliwe historie, będą przybliżać się do punktu Omega. W momencie, gdy zostanie on osiągnięty, życie przejmie władzę nad całą materią i jej siłami nie tylko w pojedynczym wszechświecie, lecz we wszystkich wszechświatach, których istnienie jest logicznie możliwe; życie się rozprzestrzeni na wszystkie obszary przestrzeni we wszystkich możliwych logicznie wszechświatach i zgromadzi nieskończony zasób informacji, obejmujący wszystkie bity wiedzy, których znajomość jest logicznie możliwa. I to będzie finał".

Mimo podanego wprowadzenia, może to zabrzmieć jak cytat z Apokalipsy. Trudno jednak objaśnić ten passus w kilku zdaniach, skoro prowadzi doń 700 stron druku bitym maczkiem. Będę więc próbował go przybliżyć w kontekście krytycznej dyskusji.

Co pan na to, Herr Leibniz?

Z głębi wieku XVII chcę przywołać i zaprosić do dyskusji niemieckiego filozofa i matematyka (twórcę analizy) - jedynego przed naszym wiekiem, który nie tylko był prekursorem informatyki (wynalazł system binarny, zbudował maszynę arytmetyczną i projektował logiczną), lecz także łączył idee informatyczne z kosmologicznymi. Pod pewnym względem wizja Leibniza jest podobna do proponowanej przez Barrowa i Tiplera, pod innym bardzo odmienna. Jest więc odpowiednia do wyjaśniającej konfrontacji.

Leibniz widział cały wszechświat jako utworzony z software'u, materię zaś jako coś w rodzaju materiału do zapisu programu. Organizmy i umysły postrzegał jako automaty sterowane programem, programy zaś utożsamiał z liczbami. Musiał stać za tym, oczywiście, kosmiczny programista (a nie, jak u Newtona, kosmiczny zegarmistrz).

Niepowtarzalna indywidualność każdego z nas jest zdefiniowana liczbą mającą nieskończone rozwinięcie, które w całości znane jest tylko Stwórcy, podczas gdy ludzie znają najwyżej skończony jego segment (,,sąd nasz prócz Boga nie dany nikomu"). Ponieważ programy czy liczby nie podlegają fizycznemu zniszczeniu, to indywidua są w tym sensie niezniszczalne. Tak od metafizyki informatycznej, podobnie jak Barrow i Tipler, Leibniz przechodzi do eschatologii.

Inne zestawienie rzuca nieco światła na tajemniczy punkt Omega. Niektórzy fizycy, np. Penrose, posługują się tym pojęciem jako konstrukcją matematyczną w odtwarzaniu scenariuszy ewolucji kosmosu. W treść matematyczną nie sposób tu wchodzić, a nałożony na nią przez naszych autorów wystrój metafizyczny da się nieco przybliżyć przez porównanie z Leibnizem. U Barrowa i Tiplera punkt Omega jest autorem kosmicznych procesów obliczeniowych, czyli procedur przetwarzania informacji, będąc rachmistrzem, którego możliwości obliczeniowe są nieskończone. U Leibniza zaś mamy sentencję: Cum Deus calculat, fit mundus - Gdy Bóg rachuje, staje się świat.

Jeśli chodzi o kwestię, jak od niezniszczalności programu przejść do zmartwychwstania ciał, Leibniz zachowuje dyskrecję (choć wypytywano go o to w listach), co było rozsądne w ówczesnym stanie wiedzy. Nasi autorzy, chcąc wbudować eschatologię w ramy fizyki, biorą pod uwagę, że w bardzo odległej przyszłości kosmosu na istnienie żywych ciał nie pozwolą choćby temperatury.

Rozwiązanie Barrowa i Tiplera jest może szokujące dla potocznego myślenia. Bliskie jest jednak ,,chodom myślowym" tych matematyków i fizyków, dla których świat liczb jest realnością pierwotną, do której redukuje się w pewien sposób świat materialny; ten rodzaj realności dzielą z liczbami wszelkie procedury obliczeniowe, a więc i programy maszyn cyfrowych oraz tworzone przez nie dane wyjściowe. Procedurą o konsekwencjach eschatologicznych realizowaną przez punkt Omega jest doskonałe symulowanie ludzkich ciał, tak doskonałe, że nie dające się odróżnić od stanów fizycznych. Aby się z tym pomysłem oswoić, pomyślmy o własnych doświadczeniach, jak zastąpienie faksu czy modemu programami emulującymi. Po takim zabiegu hardware'u jest mniej, software'u za to więcej. Idąc tym tropem, trzeba śmiało pokonać punkt graniczny, gdy ilość hardware'u redukuje się do zera. Nie mamy obowiązku wierzyć, że to faktycznie zachodzi, ale próbujmy rozumieć tych, co tak myślą, zwłaszcza że bywają to umysły tak znakomite, jak Leibniz z jego ideą, iż świat fizyczny jest pochodny względem nieskończonego procesu obliczeniowego.

Po sporządzeniu takiego protokołu zbieżności między Leibnizem a naszymi autorami, czas na protokół rozbieżności, który jest pomocny jako tło kontrastowe.

Gdy pojawia się termin "proces obliczeniowy" u Barrowa i Tiplera, zwrot ten można zastąpić terminem ,,maszyna Turinga" (co też autorzy często czynią). Gdy natomiast o liczeniu mówi Leibniz, taka zamienność nie wchodzi w grę. Gdyby słyszał on o maszynie Turinga, nie zgodziłby się z charakterystyką organizmów jako tego rodzaju maszyn. Owszem, nazywał je maszynami lub automatami (,,boskimi", by je odróżnić od techniki ludzkiej). Umieszczał je jednak w innej kategorii automatów. Mianowicie, maszyna Turinga jest maszyną stanów skończonych, co znaczy, że w każdym poszczególnym momencie jej działania można zakodować w jej pamięci tylko skończoną liczbę danych. Według zaś Leibniza, organizmy są maszynami stanów nieskończonych. Ma to podstawę w jego koncepcji materii jako podzielnej na coraz subtelniejsze struktury, kryjące jeszcze głębsze struktury, i tak bez końca. Ta idea Leibniza współbrzmi z interpretacją teorii kwantów pochodzącą, od Louisa de Broglie i Davida Bohma, podczas gdy Barrow i Tipler opowiadają się za konkurencyjną względem tamtej teorią wielu światów (pojęcie to pojawia się w ich opisie stanu finalnego).

Jeśli umysł nie jest maszyną Turinga, nie musi to znaczyć, że wymyka się on prawom matematyki, ale musiałaby to być matematyka nieosiągalna dla ludzkiego umysłu, sięgająca w sferę liczb nieobliczalnych. To by wymagało odpowiedniego wzmocnienia także definicji punktu Omega.

Jakie są konsekwencje tych poszukiwań, jeśli chodzi o drogi ku sztucznej inteligencji? Barrow i Tipler nie podzielają infinityzmu Leibniza, traktują umysły jako automaty skończone. Jeśli trzymać się tego konsekwentnie, to inteligencja komputera nie jest ani trochę bardziej sztuczna niż inteligencja człowieka. Jest to ten sam gatunek w różnych stadiach ewolucji. Bez sensu jest więc nazywanie sztuczną inteligencji maszynowej, skoro stanowi ona w dziejach ewolucji jej ogniwo NATURALNE.

Jeśli ten pogląd Barrowa i Tiplera stanie się dominujący, zmieni to pejzaż badań nad SI. A jeśli się nie przebije? Pozostanie brawurową szarżą intelektu, w której nawet przegrana jest wkładem we wspólny sukces.

Prof. Witold Marciszewski: [email protected]

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200