Jedno słowo, wiele znaczeń

Wiele zjawisk z naszego świata opisujemy używając słowa "informacja". Czy istnieje jednak jednolita, ogólna teoria informacji?

Wiele zjawisk z naszego świata opisujemy używając słowa "informacja". Czy istnieje jednak jednolita, ogólna teoria informacji?

W różnych dyscyplinach naukowych (głównie przyrodniczych i formalnych) sformułowano wiele mniej lub bardziej ogólnych i abstrakcyjnych koncepcji i teorii informacji. W każdej z nich są jakieś częściowe nawiązania do potocznego czy filozoficznego rozumienia, zawsze jednak (od połowy XX w.) pojawiają się odniesienia do matematycznej teorii komunikacji, która jest kluczowa dla tej sprawy.

Naukowe teorie informacji odwołują się niejednokrotnie do starych, pozanaukowych, najczęściej literacko-filozoficznych znaczeń terminu "informacja". Ma on zadziwiająco długie i ciekawe zarazem dzieje. W swojej etymologii łacińskiej i greckiej, z której wykształciły się znaczenia innych nowożytnych języków, odnosił się na ogół do bardzo wielu rzeczy, wskazywał na różne sytuacje. Ich przegląd jest wielce pouczający i może podpowiedzieć nam dzisiaj niejedno nowe znaczenie, albo też pozwolić odczytać stare i zapomniane.

I tak, sięgając do Wergiliusza i jego "Eneidy", znajdziemy w wielu zwrotach niejednokrotnie pojawiający się rdzeń "formatum" z prefiksem "in" (ale nie w roli zaprzeczenia), który oznacza dawanie komuś czegoś. Przykładem są sytuacje, kiedy Wulkan i cyklopi wykuwają, a następnie przekazują ("informatum") pioruny dla Zeusa lub tarczę dla Eneasza. Wczesnośredniowieczny myśliciel religijny Tertulian nazwał Mojżesza "populi informator", co może oznaczać wychowawcę ludu. W łacinie różnych okresów pojawiały się wielokrotnie znaczenia starych greckich terminów, które oddawano za pomocą "informatio" lub "informo". Były to, zapożyczone z filozofii Platona i Arystotelesa, "prolepsis", co należy oddać jako dzisiejszą reprezentację (umysłową), a także "hypotyposis" jako model. Cyceron w dziele "De oratore", podając przykład techniki zapamiętywania sytuacji z przeszłości, mówi o obrazowej reprezentacji zdań ("sententiae informatio").

Zauważmy na marginesie tego przykładu, że już wtedy ludzie mieli trudność z opanowaniem nadmiernej ilości informacji i radzili sobie za pomocą technik nie tak bardzo różnych od dzisiejszych, chociaż dokonywanych na podstawie odmiennych sposobów kodowania i utrwalania informacji.

Aureliusz Augustyn nazywa z kolei proces spostrzegania wzrokowego "informatio sensus", zaś zdolność odczytywania wewnętrznych reprezentacji umysłowych "informatio cogitationis". Do końca średniowiecza ustaliło się ostatecznie znaczenie "informatio" jako "dostarczenia czegoś z formą", o czym mówił już Tomasz z Akwinu. Te wszystkie znaczenia kluczowego słowa weszły następnie do słownika nauki czasów nowożytnych i współczesnych. Warto, abyśmy umieli wsłuchać się w te dawne grecko-łacińskie echa słowa, które wydaje się nam tak nowoczesne.

Istnieje także zdroworozsądkowe znaczenie i sens słowa "informacja", które zdaje się wszyscy posiadamy w mniej więcej jednakowy sposób (choć to kwestia warta głębszej dyskusji). Łączy się ono wyraźnie z trzema rzeczami: poznawaniem, wiedzą i komunikacją. W tym przypadku "mieć informację" to tyle, co dowiedzieć się czegoś z jakiegoś źródła, mieć jakieś dane na określony temat (niekoniecznie wiedzę), spełniać przy tym jakąś czynność poznawczą (doznać, widzieć, ale i pojąć, zrozumieć, zinterpretować) i/lub przekazać to komuś dalej. Intuicja potoczna, zaświadczona bardzo licznymi zwrotami powszechnego języka (mówimy np. "zdobyć, zgromadzić informację", "przekazać informację", "zagubić się w morzu zbędnych informacji" itp.), wyraźnie zatem wskazuje na podstawowy sens informacji jako takiej. Za jego cechy dystynktywne należy uznać kolejno: faktyczność informacji - jest ona jakimś określonym aspektem realnego bytu, jej treściowość - jest powiązana ze świadomością człowieka oraz praktyczność - spełnia funkcję przekazywania (komunikacji).

Można powiedzieć, że powyższe trzy sensy informacji są nam wszystkim jakoś apriorycznie (gatunkowo, ale i kulturowo) dane i stale obecne w naszym doświadczaniu świata. Ten intuicyjnie oczywisty i powszechny sens informacji nie jest jednak jedyny i nie wyczerpuje pełnego bogactwa znaczeń (nie tylko faktycznych, ale i możliwych), które łączą się z tą kategorią. Ale też niepodobna od niego całkiem odejść czy pominąć go w naukowych teoriach.

Uniwersalne podejście

Jest wiele teorii naukowych, które mają bardzo rozległą dziedzinę przedmiotową (tj. obszary rzeczywistości, ich poziomy i zakresy) oraz wysoce abstrakcyjny charakter (duży stopień ogólności twierdzeń czy praw), czego przykładem jest fizyka lub kosmologia. Są też nauki wysoce abstrakcyjne, ale o niejednoznacznym przedmiotowo (realnym? idealnym?) wymiarze, np. matematyka czy geometria, jak również nauki jednoznacznie (faktycznie) przedmiotowe, lecz jednocześnie bardzo mało abstrakcyjne, np. botanika, albo też odwrotnie - nadbudowane nad nimi i mające ten sam realny przedmiot, ale bardzo przy tym abstrakcyjne, np. teoria ewolucji.

Wyraźnie widać, że każda nauka ma swoją dziedzinę badawczą. Jest to obszar obiektów czy zjawisk, który może być jednocześnie wspólny dla innej wiedzy czy teorii. Znaczącym przykładem takich współzależności jest semiotyka, nazywana też ogólną teorią znaku. Warto się jej przyjrzeć, gdyż ma ona znaczące podobieństwa z teoriami informacji. Ma status nauki interdyscyplinarnej, która integruje szczegółową wiedzę o znaku jako takim, który to obiekt (wspólny przedmiot) jest rozpatrywany i badany przez wiele dyscyplin, np. teorię literatury, teorię języka, psycholingwistykę, logikę, gramatykę, retorykę, teorię sztuki, teorię komunikacji itp. W każdym z tych przypadków dyscypliny te zajmują się poszczególnymi rodzajami znaków w ich funkcjach: ekspresyjnej, znaczeniowej czy komunikacyjnej. Semiotyka jako ich uogólnienie rozpatruje kwestie natury szerszej czy głębszej - istoty znaku jako takiego, jego materialnego nośnika, stosunku znaku do myślenia, znaczenia znaków i warunków ich interpretowania.

Przez analogię do semiotyki można oczekiwać, iż informacja też może (powinna) być kategorią czy obiektem jakiejś ogólnej teorii. Jest tak jednak tylko do pewnego stopnia, a powodów takiego stanu rzeczy jest kilka. Po pierwsze, próby budowy czy uzgadniania w jedną postać wielu dotychczasowych, szczegółowych koncepcji informacji są względnie niedawne, mają niewiele więcej niż pół wieku, co na tle historii semiotyki, sięgającej jeszcze starożytnych stoików czy średniowiecznych scholastyków i nominalistów, nie jest znaczące. Po drugie, kategoria informacji jest bardziej wieloznaczna niż znaku; jest zresztą o wiele bardziej ogólna i zawiera tę drugą - istotę znaku, zwłaszcza w funkcji komunikacyjnej, daje się opisać właśnie za pomocą informacji. Po trzecie, informację jako termin podstawowy dla fizyki, elektroniki, informatyki, nauk o komputerach czy nauk inżynierskich poddaje się zazwyczaj mniej lub bardziej rozbudowanej formalizacji (za pomocą np. rachunku prawdopodobieństwa czy logiki) oraz kwantyfikacji, co, dając podstawę do rozlicznych interpretacji, nie sprzyja jednocześnie ujednoliceniu.

Matematyczne podstawy

Warto zatem spytać, jakie możliwości zawarte są w istniejących już teoriach informacji i jakie rysują się w nowych, dopiero się wyłaniających? Dzisiaj nie da się ani opisać, ani zrozumieć istoty informacji, nie odwołując się do tzw. matematycznej teorii komunikacji, którą sformułowali (w kolejnych etapach współpracy i samodzielnych badań) dwaj amerykańscy inżynierowie (elektrycy) i matematycy - Claude Elwood Shannon i Warren Weaver. Praca "Matematyczna teoria komunikacji", która ukazała się w 1948 r., jest uznawana za jedną z ważniejszych w długim już szeregu innych (sięgających jeszcze dzieł Boltzmanna, Clausiusa, Szilarda), które podejmowały problem informacji. Jednakże Shannon, jako współpracownik telefonicznej firmy Bell, miał bardzo konkretne techniczne zadanie - opracować zasady przesyłu sygnału na odległość z jak najmniejszym jego ubytkiem, co w ówczesnych warunkach miedzianych drutów i analogowej postaci zapisu było nie lada zadaniem.

Dla opanowania tego problemu Shannon wprowadził bardzo ważne teoretyczne uściślenia, w tym zastosował termin bit (przejęty zresztą od kogoś innego) jako cyfrowego, więc jednoznacznego i bardziej efektywnego od strony technicznej, sposobu kodowania i dekodowania informacji o danym sygnale w konkretnym przekaźniku. Mając za sobą takie osiągnięcia, mógł napisać w swej pracy: "Głównym problemem komunikowania jest odtworzenie w jednym miejscu, z dokładnością lub w przybliżeniu, komunikatu wyznaczonego w innym miejscu". Sens tych słów jest dzisiaj wręcz banalny, gdyż do tego właśnie przyzwyczaiła nas komunikacja internetowa czy komórkowa, lecz ich ranga teoretyczna jest nadal uniwersalna. Matematyczna teoria komunikacji, jako jedna z najogólniejszych teorii informacji, formułuje warunki, jakie musi spełniać efektywny przekaz dowolnych sygnałów z uwzględnieniem tak ważnych rzeczy jak pojemność kanału komunikacji czy budowa i funkcjonowanie źródła oraz przeznaczenia (inaczej, odbiorcy i nadawcy) komunikujących się między sobą.

Teoria Shannona ujmuje jednakże informację czysto ilościowo, tj. nie bierze pod uwagę ani treści przekazu, ani tego, co "wie" lub "umie" nadawca czy odbiorca przekazu. Jest dlatego też taka uniwersalna, gdyż formułuje warunki, które musi spełniać każda postać komunikacji, zarówno między maszynami, jak i ludźmi, co zostało bardzo szeroko następnie rozwinięte przez cybernetykę, a dzisiaj jest badane przez teorię i praktykę sztucznej inteligencji. Warto w tym miejscu odnotować, iż na bazie shannonowskich odkryć próbę poszerzenia pojęcia informacji o jakościową interpretację podjął w kilka dziesięcioleci później polski inżynier elektronik i cybernetyk - Marian Mazur.

Znaczenie informacji

W tę samą stronę poszły również liczne koncepcje z nurtu tzw. semantycznej teorii informacji, których najwcześniejszym przykładem była teoria Yehoshui Bar-Hillela i Rudolfa Carnapa. Kategoria informacji została rozpatrzona od strony znaczenia, jakie sygnał czy cały przekaz mają dla nadawcy i odbiorcy, zwłaszcza że o ideał adekwatności, o którym mówiła teoria matematyczna komunikacji, nie jest łatwo (o ile w ogóle osiągalny). Informację potraktowano jako miarę stosowaną do oceny zdań danego języka, w których można sformułować jakiś opis świata; logicznym prawdopodobieństwem zdania (tym samym miarą informacji niesionej przez nie) miała być ilość dających się sformułować w nim opisów.

W dalszych pracach nad semantyczną interpretacją informacji zaczęto uwzględniać różne sytuacje o poznawczo-komunikacyjnym charakterze (np. kompetencje odczytania czy oceny) zachodzące między źródłem nadania i odbiorem przekazu, co znalazło wyraz w koncepcjach bezpośrednio nawiązujących do semiotyki. Bardzo wymownym i znanym przykładem takiego podejścia są koncepcje włoskiego semiotyka kultury Umberto Eco, dla którego każdy wytwór kultury jest znaczącym przekazem niosącym informację.

Rola i funkcjonowanie treści przekazu (rozpatrywanego jakościowo, a nie tylko ilościowo) znalazły wyraz w kolejnych koncepcjach i stanowiskach z nurtu tzw. pragmatycznych teorii informacji. Już w cybernetyce zwracano uwagę, że informacja zawarta w każdym przekazie spełnia rolę czynnika sprawczego, sterującego i regulującego działaniem każdego złożonego układu - "maszyny czy zwierzęcia" jak pisał Norbert Wiener. Ta własność informacji jest obecnie bardzo szeroko opracowywana i wykorzystywana we wszystkich teoriach (tzw. społeczeństwa informacyjnego, społeczeństwa opartego na wiedzy itp.) zajmujących się społecznym funkcjonowaniem informacji, np. podejmowaniem decyzji w sytuacji niepełnej informacji czy ryzyka.

I w ten oto sposób próby zbudowania jednorodnej i ogólnej teorii informacji znajdują powoli swoje uzupełnienie. Ale czy jest to domknięcie i zakończenie tych wysiłków? Niepodobna na takie pytanie dać na razie prostej odpowiedzi.

<hr>Prof. Marek Hetmański kieruje Zakładem Ontologii i Teorii Poznania na Wydziale Filozofii i Socjologii Uniwersytetu Marii Skłodowskiej--Curie w Lublinie. Poprzednie dwa jego teksty z tego cyklu ukazały się w Computerworld nr 47/746 z 19 gru-dnia 2006 r. i Computerworld nr 3/750 z 16 stycznia 2007 r.