Wszechświat jako informacja

Najwcześniej i najpełniej znaczenie kategorii informacji zostało spożytkowane w fizyce, ściślej - w termodynamice, poprzez zdefiniowanie pojęcia entropii.

Najwcześniej i najpełniej znaczenie kategorii informacji zostało spożytkowane w fizyce, ściślej - w termodynamice, poprzez zdefiniowanie pojęcia entropii.

Kategoria informacji jest jednym z bardziej abstrakcyjnych pojęć używanych zarówno w nauce, jak i w języku potocznym. Teoria informacji mówi precyzyjnie o bardzo złożonych rzeczach, ale tylko pozornie daje wrażenie konkretności i jednoznaczności tego, czym jest informacja. Nazwa "informacja" nie ma jednego desygnatu, opisuje wiele różnych rzeczy odmiennie istniejących i wielorako funkcjonujących. Czy istnieje jednak substrat, ostateczne podłoże informacji? A może jest ona arché świata, praprzyczyną i prazasadą wszystkich bytów?

Informacja w fizycznym świecie

Najwcześniej i najpełniej znaczenie kategorii informacji zostało spożytkowane w fizyce, ściślej - w termodynamice. Ludwig Boltzmann w 1877 r. zdefiniował pojęcie entropii, wprowadzone do fizyki przez Rudolfa Calusiusa w roku 1865, jako liczbę rozróżnialnych stanów mikroskopowych, w jakich mogą się znajdować elementarne cząsteczki danej porcji materii (np. gazu, wody, powietrza) bez zmiany jej charakteru makroskopowego. Ponieważ cząstki układu zamkniętego mają tendencję do samoczynnego rozpraszania się, o ile nie ma zewnętrznego oddziaływania na układ, to ich statystyczny rozkład wykazuje tendencję przechodzenia od stanu mniej prawdopodobnego do stanu bardziej prawdopodobnego. Tę zmianę nazywa się przyrostem entropii układu. Stan entropii mówi zatem coś o układzie, jest informacją o nim. Układy, które odznaczają się dużym przyrostem entropii, zawierają mniej informacji, zaś te, których entropia maleje, mają więcej informacji.

Przeciwieństwem entropii jest negentropia (entropia ujemna), którą można zdefiniować właśnie jako informację. Informacja to własność statystyczna układu, który zmienia stan swojego prawdopodobieństwa z większego na mniejszy. Im jakiś stan układu fizycznego jest mniej prawdopodobny, tym więcej niesie informacji, i odwrotnie - im jest bardziej prawdopodobny (mierzony zawsze w stosunku do innego stanu), tym mniej ma informacji. Zależność ta ma zasadnicze znaczenie dla innych niż fizyczne czy formalne znaczeń informacji, zwłaszcza tych, które odnoszą się do sytuacji ze świata w pełni ludzkiego.

Paradoksy informacyjne

Z termodynamiki zostały wyciągnięte rozliczne wnioski ogólne - nie tylko fizycznej, ale i światopoglądowej natury. Teoria entropii wskazuje, że zjawiska w świecie, w tym w przyrodzie ożywionej, zmierzają w jednym kierunku, mianowicie wzrostu entropii i zmniejszania się zasobów energii swobodnej. Zależność ta odnosi się jednakże tylko do układów skończonych i zamkniętych. Jeśli więc entropia miałaby stale wzrastać, co jest z termodynamicznego punktu widzenia nieuchronne, to rozproszeniu ulegałaby nie tylko energia układu, ale także informacja, jaką można mieć o układzie. Świat cały zmierzałby do swoistej "śmierci cieplnej" - jak głosiła żywo dyskutowana pod koniec XIX w. koncepcja Rudolfa Calusiusa. Wprawdzie ilość energii nie uległaby zmianie, lecz zostałaby całkowicie rozproszona i taki układ zamknięty byłby niezdolny do wykonania żadnej pracy. Słowem, świat nie działałby, ani też nie można byłoby o nim mieć żadnej informacji. Nie moglibyśmy o takim świecie nic powiedzieć, gdyż wszystkie jego stany byłyby jednakowo prawdopodobne. To zaś, co jest jednakowo prawdopodobne, nie zawiera żadnej informacji. Stan rzeczy, w którym nie ma różnic, nie niesie żadnej informacji.

Dzisiejsza kosmologia nie formułuje jednak już tak pesymistycznych wniosków. Zakłada, że wszechświat niekoniecznie musi być układem skończonym i zamkniętym. Nie tylko więc nie "umrze" w sensie termodynamicznym, lecz będzie ulegał nieustannym przeobrażeniom, będzie stale odznaczał się zarówno przyrostem entropii, jak i jej spadkiem, ciągle charakteryzując się określoną (chociaż trudno dającą się obliczyć) ilością informacji. Wszechświat, a tym bardziej każdy jego wewnętrzny podukład, np. nasz układ planetarny czy życie w nim, dadzą nam tym samym możliwość zbierania informacji i formułowania o nim jakiejś wiedzy. Nie tylko więc nie zaniknie materia czy energia, ale też informacja stanie się już nie tylko podstawową kategorią opisu wszechświata, lecz również jego fundamentem.

Jeszcze jedna, ważna, aczkolwiek paradoksalna konsekwencja informacyjnego zinterpretowania fizyki pojawiła się pod koniec XIX w. W ramach klasycznej teorii ciepła Clerk Maxwell rozważył hipotetyczną istotę (nazwaną później "demonem Maxwella"), która miałaby możność śledzenia ruchu każdej cząsteczki, a także oddzielania cząsteczek szybkich od wolnych, co mogłoby, wbrew drugiej zasadzie termodynamiki, doprowadzić do podniesienia temperatury układu w jednej chociażby jego części bez wykonywania żadnej pracy. Fizycy w dalszych dyskusjach wykazali jednak, że ów demon musiałby dla wykonania takiego zadania zużyć o wiele więcej energii niż jej przysporzyć układowi. Inaczej mówiąc, ilość energii niezbędnej do otrzymania potrzebnej informacji (o cząstkach) zawsze przekroczy z nadmiarem uzyskany zysk energetyczny z racji wykorzystania tej informacji.

Jednym słowem, uzyskanie informacji zawsze kosztuje, wymaga zużycia jakiejś energii. Więcej też energii zużywamy, gdy coś aktywnie poznajemy. Nie ma poznania bez zużycia energii, każdy najmniejszy nawet przyrost informacji (spadek entropii układu) wiąże się z energetycznym wydatkiem. Nic nie wiemy za darmo. A jeśli tak, to (powracając na teren fizyki) demona Maxwella należy wypędzić z termodynamiki i połączyć informację z energią i materią.

Bezcielesne bity

Znaczący wpływ na tę zmianę miała Shannonowska teoria informacji, która zastosowała Boltz-mannowskie pojęcie entropii do opisu własności przekazywanego komunikatu. Otóż Claude Shannon, twórca matematycznej teorii informacji (napiszę o nim więcej w kolejnym odcinku), entropią określił liczbę jednostek binarnych potrzebnych do zakodowania danej wiadomości przesyłanej między nadawcą a odbiorcą. Liczba bitów użytych w danej wiadomości jest całkowicie niezależna od treści czy jakości komunikatu i oznacza tylko ilość informacji, jaka się w procesie komunikowania pojawia. Entropia w tym przypadku jest miarą uporządkowania jednostek elementarnych - bitów.

Podobieństwa pomiędzy termodynamiczną a teorioinformacyjną interpretacją entropii są jednak czysto formalne, gdyż w sensie fizycznym obie interpretacje różnią się zasadniczo. Z termodynamiki wynika, że entropię dowolnego układu cieplnego, np. chłodniczego urządzenia (lodówki), wyraża się w jednostkach energii podzielonej przez temperaturę, co nadaje całej operacji fizyczny charakter. Entropię w teorii informacji można wyrazić tylko w bitach, które nie mają jednak żadnego fizycznego sensu. Są one miarą wyboru dowolnego stanu rzeczy niezależnego od rodzaju podłoża czy nośnika informacji.

Wyrażone w tych samych jednostkach wartości dwóch rodzajów entropii - układu fizycznego i układu informatycznego - znacznie się różnią. I tak np. układ scalony zrealizowany na płytce krzemowej, który zawiera 1 GB dowolnych danych, ma entropię rzędu 10 do dziesiątej potęgi bitów, zaś układ o tej samej pojemności, rozpatrywany jako układ termodynamiczny, ma entropię znacznie większą - rzędu 10 do dwudziestej trzeciej bitów. Wynika to z tego, iż wartości tych entropii mierzone są w stosunku do innych stopni swobody, czyli takich parametrów układów, które się w nich zmieniają. Parametry cząstek w gazie zmieniają się w zależności od wielu rzeczy (są to stany bardzo swobodne), zaś parametry bitów w układzie krzemowym mają bardzo mały stopień swobody (właściwie go nie mają, gdyż albo impuls elektromagnetyczny prądu przepływa, albo nie).

Wraz z postępem miniaturyzacji i upakowywaniem bitów informacji w coraz ciaśniejszych układach, czyli schodzeniem w mikroelektronice już nie do poziomu parametrów zjawiska elektromagnetycznego, jakim jest prąd, lecz do poziomu atomów, a być może do elektronów, protonów, a nawet kwarków, sytuacja się zmieni. Można zatem oczekiwać, że negentropia sztucznych układów bitowych będzie kiedyś tej samej wielkości co negentropia naturalnych układów termodynamicznych. Da nam to w przyszłości niezmierne korzyści praktyczne.

Ważne byłoby też, gdyby następował zwrotny wpływ informacji na energię, a nie odwrotnie, o czym wspomniałem powyżej. Taka zależność uzyskiwana jest jednak dopiero wówczas, gdy ilość informacji osiąga wielkość rzędu 10 do potęgi szesnastej bitów. Jest to bardzo duża wielkość, lecz nie uzyskuje się jej jeszcze w dotychczasowych układach technicznych, które charakteryzują się wielkościami o wiele rzędów mniejszymi. Przykładowo, dowolny układ techniczny (np. komputer czy najprostszy kalkulator) złożony z 1000 elementów, z których każdy może mieć do 10 połączeń z innymi elementami, posiada informację wielkości 1, 33 razy 10 do potęgi piątej bitów, czyli mniej niż miliardową część jednostki entropii, którą układ ten (jak wszystko w fizycznym świecie) posiada. Taka ilość informacji nie ma istotnie żadnego wpływu zwrotnego na energię układu.

Czy zatem jakiś układ mógłby mieć ilość informacji tego rzędu, aby wpływała ona realnie na jego energię, zmieniała go, ułatwiała wykonanie pracy i w efekcie przyczyniałaby się do spadku entropii? Inaczej jeszcze pytając, czy wpływ informacji na energię lub materię dowolnego układu mógłby być tej samej miary, co wpływ prędkości ciała na jego masę, o czym traktuje teoria względności? Taka sytuacja miałaby niezwykle ważkie konsekwencje praktyczne. Gdyby bowiem udało się zbudować takie techniczne urządzenie, to dostarczałoby ono więcej informacji niż jej zużywało.

Pytanie jest otwarte, lecz od razu trzeba zauważyć, że istnieje już takie "urządzenie" - jest nim człowiek. Może on wszak zawsze zdobyć więcej nowych danych niż już ich posiada, a bywa też (nie jest tak zawsze, a tylko czasami), że nie traci więcej energii, niż jej przyswaja czy wytwarza. Słowem, ludzkie procesy poznawcze są takim przykładem. Pozostaje jednak pytanie, czy w skali całego życia człowieka taki bilans jest na plus czy na minus. Inaczej jeszcze można zapytać, czy ludzkie poznanie i zdobywanie informacji i wiedzy jest entropijne, czy też może negentropijne w swej istocie?

Informacyjne arché świata

Wspomniane powyżej kwestie pokazują, jak ważną kategorią jest informacja. Można za jej pomocą opisać wiele różnych zjawisk i procesów. Daje wyjaśnienie bez mała całego wszechświata, przede wszystkim zaś spraw dotyczących człowieka - jego poznania, wiedzy i techniki. A może cały świat jest z niej zbudowany, może jest ona substratem i zasadą wszechrzeczy w sensie, jakim posługiwali się starożytni filozofowie ze szkoły milezyjskiej, gdy mówili o wodzie, powietrzu czy bezkresie, upatrując w nich podstawy świata. Taka teoretyczna perspektywa kusi dzisiaj wielu fizyków i kosmologów.

Amerykański fizyk John Wheeler jest zwolennikiem radykalnej redukcji wszystkich własności świata fizycznego do informacji. Podaje do tego interesującą argumentację, odwołującą się do znanych paradoksów fizyki kwantowej, w której akt obserwacji cząstek elementarnych znacząco wpływa na ich parametry, czyniąc specyficzne sprzężenie między poznaniem a mikroświatem. Tak samo jest jego zdaniem w każdym dziale fizyki, także w wymiarze kosmicznym, gdzie podmiot poznający świat, zdobywający o nim informację, sam go jednocześnie powołuje do życia. "Fizyka rodzi współuczestniczącego obserwatora, obserwator rodzi informację, informacja rodzi fizykę" - pisze Wheeler. Jego zdaniem, rzeczywisty świat aktualizuje się poprzez akt obserwacji i zdobywania informacji. Chociaż przywykliśmy myśleć, że to realny świat rodzi obserwatora i informację, to jednak dopiero poznawanie i wiedza obserwatora aktualizują fakt jego istnienia. Dzieje się to za sprawą praw fizyki (dodajmy, że również praw teorii informacji), które aktualizują świat fizyczny. Jednym słowem, wszechświat nie istniałby, gdyby nie informacja o nim.

<hr>Prof. Marek Hetmański kieruje Zakładem Ontologii i Teorii Poznania na Wydziale Filozofii i Socjologii Uniwersytetu Marii Skłodowskiej-Curie w Lublinie.


TOP 200