Mózg w walizce

Jaka jest pojemność naszej pamięci? W jaki sposób wykorzystać wiedzę o ludzkim mózgu przy budowie komputerów? I właściwie dlaczego informatyk powinien interesować się relacjami między umysłem a mózgiem?

Jaka jest pojemność naszej pamięci? W jaki sposób wykorzystać wiedzę o ludzkim mózgu przy budowie komputerów? I właściwie dlaczego informatyk powinien interesować się relacjami między umysłem a mózgiem?

Spostrzeżenie, że narzędzia zmieniają warunki naszej egzystencji - a w konsekwencji i naszą świadomość - nie jest specjalnie oryginalne. Do niedawna narzędzia te były jednak głównie przedłużeniem naszych rąk i nóg bądź po prostu powielały siłę naszych mięśni, komputer zaś jest w pewnym sensie "protezą mózgu". I jeśli na kształtowanie naszego sposobu myślenia i widzenia świata miał jakiś wpływ młotek, samochód czy elektryczna wiertarka, to wpływ komputera na naszą świadomość powinien być nieporównanie bardziej doniosły. Taka mniej więcej jest podstawowa przesłanka opublikowanej w ub.r. książki Douglasa Robertsona Nowy Renesans: Komputery i Następny Szczebel Cywilizacji (The New Renaissance: Computers and the Next Level of Civilization). Kreślona przez Robertsona futurologiczna wizja "nowego wspaniałego świata" skomputeryzowanej informacji jest ekstrapolacją pewnego historycznego trendu, który autor dostrzega w całym, trwającym od tysięcy, a nawet setek tysięcy lat, procesie rozwoju ludzkich cywilizacji.

Otóż - twierdzi Robertson - jeśli spojrzeć z bardzo dalekiej perspektywy na ewolucję owych cywilizacji, to poziom ich kulturalnych i technologicznych osiągnięć znajdował się w bezpośrednim związku z zasobem "bogactw informacyjnych" dostępnych wykształconym przedstawicielom poszczególnych społeczeństw. Zasób ten, z kolei, kilkakrotnie przechodził w ciągu ludzkiej historii skokowe zmiany - w wyniku wynalazków języka, pisma, druku i komputera.

W swych próbach ilościowego oszacowania - w bardzo przybliżony, rzecz jasna, sposób - rozmiarów owej puli wiadomości dostępnej ludzkim jednostkom żyjącym na rozmaitych "informacyjnych szczeblach" cywilizacji, Robertson na początku napotyka pewną istotną trudność. Jaką bowiem ilość informacji jest w stanie zmagazynować nasz mózg w sytuacji, kiedy nie istnieją żadne zewnętrzne "rezerwuary" wiedzy ani nie jest możliwa komunikacja pomiędzy osobnikami, z których każdy zapamięta swoją "działkę"? Jest to pytanie postawione może nie bardzo realistycznie, bo nawet brak języka, którym posługiwać się możemy do wzajemnego informowania się w potrzebie, nie oznacza, że żadna wiedza nie jest zakodowana poza mózgiem. Nasze środowisko zawsze pełne było przydatnych informacji, nawet kiedy nie mogliśmy ich formułować w postaci werbalnej. Nie jest to jednak, oczywiście, pytanie trywialne i zdawałoby się, że powinno być jedną z podstawowych zagadek psychologii. Jaka jest pojemność naszej pamięci?

10 Iliad i 7 trylogii

Kiedyś problem ten tak mnie zaintrygował, że wybrałem się z wizytą do pobliskiego Wydziału Psychologii mego college'u i każdemu napotkanemu psychologowi zadawałem to samo pytanie: "Ile bitów informacji zdolna jest przechować nasza pamięć?" Ku swemu zdziwieniu nie uzyskałem zadowalającej odpowiedzi. Próbowałem więc sięgnąć do Encyklopedii psychologii z nadzieją, że tam znajdę interesującą mnie informację. Nic z tego. Wydaje się, że psycholodzy po prostu nie wiedzą. Być może jest to konsekwencją faktu, że psychologia - jako dziedzina badawcza - tradycyjnie zawsze oscylowała między naukami humanistycznymi a przyrodniczymi i jej adepci niechętnie stawiali tego rodzaju pytania ilościowe.

Samo zresztą pytanie nie miało sensu, dopóki nie powstała teoria informacji i Shannon z Weaverem nie wymyślili formuły pozwalającej rozbić informację na podstawowe jednostki, a w konsekwencji ją "policzyć". Psycholodzy są zafascynowani pamięcią, ale ich empiryczne badania dotyczą głównie zdolności zapamiętywania szeregów liter lub liczb. Mierzenie tej zdolności jest częścią wszystkich testów inteligencji i przeciętny dorosły człowiek może zapamiętać ich ok. siedmiu. To nam, oczywiście, nic nie mówi o tym, "co mamy w głowie".

Robertson, po wyrażeniu stosownej porcji zastrzeżeń, podejmuje więc, w dość amatorski sposób, samodzielną próbę oszacowania pojemności ludzkiej pamięci z wynikiem, który musi budzić poważne wątpliwości. Odwołuje się on po prostu do zdrowego rozsądku, co - jako metoda badawcza - bywa zawodne.

Jak wiadomo - powiada - w czasach, kiedy już wymyślono język, ale nie znano jeszcze pisma, wielkie dzieła literatury, takie jak Homerowska Iliada, przekazywane były z ust do ust (czy raczej z ust do uszu) przez osobników, którzy po prostu cały tekst zapamiętywali. Iliada, jak wiadomo, zawiera ok. 5 mln bitów informacji i sprawny recytator mógł zapamiętać znacznie więcej niż jedną Iliadę. Robertsonowi wydaje się z pewnych względów sensowne założenie, że człowiek o stosunkowo dobrej pamięci może przechować w niej ok. dziesięciu Iliad czy raczej dziesięć "baz danych" o podobnych do niej rozmiarach. Nasza "operacyjna pamięć" ma zatem pojemność rzędu 50 mln bitów.

Problemy z tym oszacowaniem są dość oczywiste. Ten, kto potrafiłby wyrecytować całego Mickiewicza i dodać do tego Słowackiego z Norwidem (i jeszcze może "Ogniem i mieczem"), uchodziłby słusznie za człowieka o znakomitej pamięci. Ale przecież nawet ludzie, którzy mieli trudności z nauczeniem się na pamięć samej tylko Wielkiej Improwizacji, mogą posiadać w swej pamięci niebywałe zasoby innych informacji. Przykładowo - potrafią pamiętać twarze setek, może nawet tysięcy znajomych, rozpoznawać wielu z nich po głosie, nie mówiąc już - jeśli są kibicami sportowymi - o zdolności wyrecytowania na poczekaniu wyników meczu, dajmy na to, Legii z Górnikiem rozegranego przed dziesięciu laty. Nie samą Iliadą człowiek żyje i zdolność zapamiętywania tekstów literackich jest tylko jedną i - jak mi się wydaje - raczej marginalną funkcją pamięci.

100 miliardów neuronów

Do kwestii informacyjnej pojemności mózgu można jednak podejść z zupełnie innej strony i uzyskać oszacowania o rzędy wielkości odbiegające od propozycji Robertsona. Spróbujmy spojrzeć na mózg okiem komputerowca, tak jak uczynił to np. Ray Kurzweil, o którym jeszcze zapewne nieraz czytelnikom Computerworlda napiszę. W książce Wiek Uduchowionych Maszyn (The Age of Spiritual Machines) Kurzweil, który zresztą w swych przepowiedniach dotyczących niedalekiej przyszłości naszej cywilizacji jest znacznie śmielszy i bardziej konkretny niż Robertson, przedstawia następujący wywód na temat pamięciowej pojemności mózgu. Otóż, wg szacunków neurofizjologów, mózg ludzki zawiera ok. 100 mld neuronów i każdy z nich wytwarza przeciętnie mniej więcej 1000 połączeń nerwowych z innymi neuronami, co - jak wskazuje prosty rachunek - daje 100 tys. mld połączeń, z których każde może zarejestrować jeden bit informacji. Innymi słowy, nasz mózg zdolny jest zakodować nie 10 do siódmej potęgi bitów - jak szacuje Robertson - lecz aż siedem rzędów wielkości więcej!

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200