Wracają duże maszyny

Po okresie fascynacji ''superliczydłami'' i fazie rozkwitu konfiguracji wieloprocesorowych, wielkie maszyny cyfrowe znowu zyskują na znaczeniu. Ich komercyjne wykorzystanie nabiera nowego blasku w kontekście potrzeb bioinformatyki i eksplozji danych. Czy są zadania, których algorytmiczne rozwiązanie przekracza możliwości najpotężniejszych komputerów?

Po okresie fascynacji ''superliczydłami'' i fazie rozkwitu konfiguracji wieloprocesorowych, wielkie maszyny cyfrowe znowu zyskują na znaczeniu. Ich komercyjne wykorzystanie nabiera nowego blasku w kontekście potrzeb bioinformatyki i eksplozji danych. Czy są zadania, których algorytmiczne rozwiązanie przekracza możliwości najpotężniejszych komputerów?

Big Blue, czyli IBM planuje do 2004 r. zbudowanie superkomputera Blue Gene. Najpotężniejszy "mózg elektronowy" świata ma być 200 razy szybszy od najszybszych maszyn współczesnych. Urządzenie ma być zdolne do wykonywania biliarda obliczeń na sekundę. Dodajmy przy tym, że nawet poważne źródła europejskie nie ustrzegły się w swych doniesieniach szkolnego błędu, zapominając, że amerykański billion na Starym Kontynencie jest tysiąc razy mniejszy. Tak więc "Niebieski gen" ma osiągnąć moc tysiąca bilionów operacji na sekundę, tj. 1P/s (petaoperacje). Czy to dużo?

Najbardziej znanym międzynarodowym rankingiem najszybszych komputerów jest lista TOP 500 Uniwersytetu Tennessee (USA). Zacytujmy kilka pierwszych pozycji z owego zestawienia (tab. 1). Jeśli kogoś nudzą powtarzające się trzy literki w 6. kolumnie tabeli, to dodamy, że w jej dalszych fragmentach jest ona niemal równie monotonna - od czasu do czasu, kolorytu amerykańskiej dominacji w rozważanej dziedzinie dodaje kilka najbardziej uprzemysłowionych krajów. Natomiast nasz polski akcent na liście znajduje się dość dokładnie w środku tabeli. Zostawmy wszakże statystykom analizy rozkładu liczby procesorów przypadających na kraj czy liczby operacji zmiennoprzecinkowych na głowy mieszkańców poszczególnych kontynentów. Komentarza wymaga wszakże najważniejsza rubryka - Rmax.

Tym współczynnikiem oznaczono maksymalną, osiągniętą przez maszynę moc obliczeniową (w odróżnieniu od Rpeak, tj. mocy osiąganej teoretycznie). Owa moc opiera się na wzorcowym teście (benchmark) LINPACK. Program napisał Jacek Dongarra w języku FORTRAN (tradycyjny język superkomputerów). Służy on do rozwiązywania gęsto-macierzowych układów równań liniowych metodą eliminacji Gaussa. Przy założeniu, że dla takiego układu rzędu N potrzeba 2N3/3 + 2N2 operacji można wyliczyć wartość LINPACKU w popularnych gigaflopach (FLOP - Floating Point Operation - operacje zmiennoprzecinkowe).

LINPACK, jak każdy benchmark, obciążony jest błędem specyficzności. I tak, po analizie proporcji między kodem programu a rozmiarem danych, każdy sprzętowiec dostrzeże wagę pamięci (cache) dla mocy mierzonych pakietem. Problematyka ta znana jest nawet w obszarze PC, gdzie, w zależności od typu konfiguracji mikroprocesora, pewne zadania wykonują się szybciej na modelu o niższej częstotliwości taktowania zegara. W układach wieloprocesorowych (a takimi przecież są "serca" superkomputerów) dodatkowym czynnikiem komplikującym porównania jest możliwy do uzyskania stopień współbieżności zadania.

Gdzie procesorów sześć...

Do kopania dołu metr na metr nie da się zatrudnić naraz więcej niż jednego człowieka. Również dla superkomputera i zdefiniowanego zadania istnieje optymalna liczba procesorów. I tu istnieją granice złożoności, poza którymi opłacalność zwiększania liczby procesorów w konfiguracji szybko zaczyna maleć. Zjawisko to opisuje model Gene Amdahla z firmy IBM. Przyjmijmy, że jeden procesor może wykonać określone zadanie w ustalonym, jednostkowym czasie. Gdyby problem dało się w 100% "zrównoleglić", to oczywiście czas potrzebny n procesorom byłby n razy mniejszy i wynosił 1/n. Niestety, w praktyce nie wszystkie fragmenty programu można tak przygotować. Przyjmijmy, że 30% kodu trzeba wykonać sekwencyjnie i opiszmy ten czas współczynnikiem a = 0,3.

Skrócenie czasu uzyskamy jedynie w pozostałej części algorytmu: 1-a, proporcjonalnie do liczby użytych procesorów. Tak więc cały czas obliczeń T wyrazi się wzorem:

T = (1 - a )/n + a

Podstawmy zatem do wzoru przyjętą wartość 0,3, dla przypadku gdy decydujemy się na dodatkowy procesor (n = 2); otrzymamy wówczas T = 0,65. Uzyskaliśmy spodziewane skrócenie czasu, ale zbadajmy teraz jak wygląda przyrost wydajności, którą można opisać odwrotnością czasu: 1/T = 1,538. Wniosek: drugi procesor przyniósł poprawę wydajności jedynie o 54%! Moglibyśmy oczywiście dalej "bawić się" podaną zależnością dla różnych wartości czynnika "a" i liczby użytych procesorów, kreśląc odpowiednie krzywe i zbierając wyniki obliczeń do tabel.

I bez tego łatwo zauważyć hamujący wpływ współczynnika niewspółbieżności zadania na przyrosty wydajności: im jest mniejszy, tym owe przyrosty są większe; dla 0,2 użycie drugiego procesora to wzrost wydajności o 67%. Zwróćmy z kolei uwagę, że nawet nieskończona liczba procesorów nie podniesie nam relatywnej wydajności powyżej granicy, jaką jest 1/a. Dla 0,3 będziemy się zatem asymptotycznie zbliżać do poziomu 3,33 w stosunku do wydajności podstawowej. W takiej sytuacji użycie jednego, cztery razy szybszego procesora da lepszy efekt niż 1000 wolniejszych procesorów równoległych. Jasne jest też, że największe przyrosty wydajności uzyskuje się przy pierwszych, dodatkowych procesorach.

Nieusprawiedliwiona o b e c n o ś ć

Kolejnym przybliżeniem opisywanego prawa jest rozszerzenie modelu o współczynnik charakteryzujący wzrost potrzeb wzajemnego komunikowania się procesorów wraz z ich liczbą. Wiadomo bowiem, że im więcej procesorów, tym więcej ich "pary idzie w gwizdek" z uwagi na potrzebę koordynacji działań, co koresponduje z metaforycznie wzmiankowanym w poprzednim śródtytule efektem "6. kucharek". No dobrze, ale właściwie dlaczego rzeczywistość jest tak bezlitosna? Odpowiedź tkwi w ilości kanałów komunikacyjnych między procesorami, połączonej z potrzebą komunikowania się na zasadzie każdy z każdym. Oznacza to przykładowo, że powiększając grupę 4-procesorową (6 kanałów informacyjnych) o jeden procesor, zwiększamy jednocześnie liczbę kanałów informacyjnych do 10. Liczba procesorów w gronie (cluster) wzrasta nam o 25%, ale liczba kanałów informacyjnych aż o 67%! Ten nieproporcjonalny przyrost może dać w efekcie spadek produktywności konfiguracji.

Liczbę kanałów informacyjnych w rozważanej konfiguracji łatwo wyliczymy formułą: n(n-1)/2. Kwadratowa postać tej funkcji nie pozostawia złudzeń co do szybko rosnących wartości dla kolejnych n. Zwróćmy uwagę, że jedyną strukturą, gdzie liczba kanałów informacyjnych jest mniejsza niż procesorów, jest para. Niezwykle stabilna to i efektywna konfiguracja. Stwierdzenie wydaje się proste, potwierdza je bowiem zwykła obserwacja sprawdzonych wzorów społecznych czy przyrodniczych. Również w praktyce organizacyjnej zapominamy jednak często o tych prawidłowościach, inicjując rozbudowane procesy zarządzania, angażujące zupełnie niepotrzebnie nadmierną liczbę uczestników. Powiedzmy wprost: do pomyślenia byłaby organizacja o strukturze dwójkowej, bazująca na dwuosobowych zespołach.

Wystarczy rozejrzeć się wokół, żeby skonstatować jak wiele gremiów, komisji, grup roboczych i innych "ciał" składa się z zawyżonej liczby osób i jest trapionych przez syndrom nieusprawiedliwionej o b e c n o ś c i. Taki stan rzeczy wynika z reguły z przyczyn pozamerytorycznych, np. prestiżowych, politycznych czy automatyzmu tradycji. Owszem, podczas spotkania w zespole dwuosobowym zdarzają się sytuacje, gdy trzeba zasięgnąć opinii osoby trzeciej, ale nie musi to oznaczać jej pełnego fizycznego uczestnictwa podczas rozwiązywania problemu.

Często wystarczyłaby krótka konsultacja telefoniczna. Ale zamiast ustalać taką potencjalną "gotowość telefoniczną" w określonym czasie, łatwiej jest zwołać "na wszelki wypadek" wszystkich, którzy "mogą się przydać" albo tych, których "głupio byłoby nie zaprosić". W efekcie, zamiast konstruktywnej wymiany informacji w cztery oczy, dochodzi do ogólnorozwojowych dysput tudzież zbędnych samoprezentacji ich uczestników, którzy, w przeroście formy nad treścią, dowo- dzą swej perfekcyjności w posługiwaniu się nowoczesnymi urządzeniami audiowizualnymi sprzężonymi ze stosownym softwarem.

Od Kolumba do Apolla

Wróćmy jednak do "Błękitnego gena". Po co komu takie monstrum? Wielki, szwajcarski matematyk ucieszyłby się, że wieki później stosujemy jego gaussowskie metody rozwiązywania równań, ale przecież nie może to być celem samym w sobie. Nauka musi się także opłacać. W każdym razie ciekawość nie może być jedynym motywem usprawiedliwiającym wielkie inwestycje badawcze. Wiedziała już o tym Izabela Kastylijska (Izabela I Katolicka) - gdyby nie pieniądze: Santa Maria, Pinta i Ninja nigdy nie opuściłyby Kadyksu, wypływając na poszukiwanie Nowego Świata.

Tam, gdzie podstawą przedsięwzięcia nie był rzetelnie sporządzony kosztorys, pozostaje niesmak. Tak jest z bilansem kosztownych wypraw Apollo sprzed 30 lat - za 20 mld "starych" dolarów przywieziono na Ziemię kilka taczek księżycowych kamieni. Opowieść o "odpryskowych" wynalazkach, jakich przy okazji dokonano, jest zwykłym "mydleniem oczu" - patelniany teflon czy lepsze kombinezony dla strażaków dałoby się zrobić za ułamek roztrwonionych sum, na dodatek pochodzących z innych źródeł.

Oczywiście istnieje także ryzyko, ale Big Blue to nie rządowa NASA i można być pewnym, że w przypadku rynkowo sterowanej spółki akcyjnej, jaką jest IBM, jest ono równoważone prognozami realnych zysków. Mają one pochodzić z opanowania wiedzy zaszytej w ludzkim genomie. Już dziś bowiem wiadomo że bliskie sporządzenie jego kompletnej mapy to tylko początek dalszych, szczegółowych badań. I oczywiście ci, którzy będą najszybsi na tym polu, zarobią najwięcej. A w zinformatyzowanym świecie być najszybszym oznacza: posiadać najszybszy komputer.

Planowana konfiguracja, o której mówimy, to w istocie 64 komputery, z których każdy ma 8 płyt głównych (motherboard), składających się z 64 chipów każda. I wreszcie pojedyncza kostka scalona ma zawierać 32 . Tak więc po wykonaniu mnożenia: 64 x 8 x 64 x 32 widać, że "najszybszy gen świata" ma mieć ponad milion (!) procesorów. Każdy z nich ma dysponować mocą gigaflopa. Daje to chipowi moc 32 Gflop. Karty (płyty) mające, jako się rzek- ło, 64 chipy na powierzchni kwadratu 60 x 60 cm mają być zdolne do osiągnięcia mocy 2 Tflop (2048 Gflop). Z kolei komputery o mocy 16 Tflop to już wieże o wysokości 1,80 m. Cała konfiguracja ma zajmować powierzchnię 200 m2.

Wielkie wyzwania

Tym właśnie hasłem, przed 10. laty, w publikacji Grand Challenges to Computational Science K. G. Wilson określił te problemy naszej cywilizacji, których algorytmiczne rozwiązanie przekracza możliwości najszybszych maszyn cyfrowych. W informatyce, bardziej ogólnie, zwykło się pod tym pojęciem rozumieć zadania intensywne obliczeniowo, przeznaczone do wykonania w ograniczonym czasie. Podajmy kilka przykładów obejmujących takie dziedziny, jak prognozowanie, bioinformatyka, sztuczna inteligencja, symulacje czy animacje komputerowe:

Oprognozowanie układów struktur białkowych

HGP (Human Genom Project)

VR (wirtualna rzeczywistość)

przetwarzanie obrazu

przewidywanie pogody

obliczenia neuronalne

symulacje w czasie rzeczywistym (komunikacja).

Podczas poszukiwań geologicznych ilość informacji dostarczanych przez pojedynczą próbę sejsmiczną może osiągać wolumen dziesiątków gigabajtów. Wielkie ilości danych trzeba przetworzyć podczas obliczeń związanych z zagadnieniami współczesnej fizyki. I tak, 500 procesorów komputera IBM GF-11 pracowało nieprzerwanie cały rok, aby potwierdzić uzyskane eksperymentalnie wielkości mas cząstek elementarnych. Obliczenia wykorzystujące chromodynamiczną teorię kwantów (QCD) wymagały przeprowadzenia tryliona operacji arytmetycznych.

Klasycznym przykładem problemu wymagającego dokonania wielu obliczeń w ograniczonym czasie jest prognozowanie pogody. Numeryczne prognozowanie pogody jest starsze niż komputery - pierwszą pracą na ten temat była książka Levisa Richardsona Weather Prediction by Numerical Process (Londyn, 1922). Autor podzielił globus na 64 000 kwadratów połączonych układami równań. Ręczne przygotowywanie prognozy na jeden dzień zajmowało matematykowi 3 miesiące. Wizjoner zaproponował więc, aby stworzyć rodzaj manufaktury obliczeniowej: w okrągłej hali miało zasiąść 64 000 rachmistrzów, kierowanych przez "dyrygenta" znajdującego się w jej środku.

Rok na dwa wieki

Ale i obecnie mamy do czynienia z syndromem prognozowania opadów... ubiegłorocznego śniegu. Mówiąc inaczej, czas niezbędny dla uzyskania wyników synoptycznych jest dłuższy niż zakładany horyzont czasowy prognozy (np. 48 godzin obliczeń dla prognozy na jeden dzień). W przypadku długoterminowych badań klimatycznych potrzeby są jeszcze większe. I tak modelowanie dla dwuwiekowego okresu, z dokładnością skali topologicznej 200 km, to rok ciągłych obliczeń przy użyciu najszybszych maszyn.

Z kolei w Europejskim Centrum Prognoz Średnioterminowych w Reading (Anglia) komputer Cray C9-16 potrzebował średnio 2 godzin obliczeń dla wykonania fortranowskiego programu liczącego 200 000 LOC, prognozującego pogodową dekadę. Podstawą globalnego modelu pogodowego była w tym przypadku siatka, składająca się z 4 mln węzłów. Testy Brytyjczyków pokazały jednak, że zwiększenie wiarygodności przewidywań wymaga dokładniejszego modelu i nawet kilkudniowych obliczeń dla dziesięciodniowej prognozy.

Dla zobrazowania wykładniczych zależności między precyzją obliczeń (prognoz) a czasem ich trwania wymieńmy jeszcze jeden realistyczny przykład symulacji meteorologicznych. Weźmy pod uwagę umownie rozumiany obszar Europy z przyległościami, powiedzmy 5000 x 5000 km. Przyjmijmy, że "w górę" prognozujemy do wysokości lotniczych korytarzy powietrznych - 10 km. Tę przestrzeń dzielimy teraz na kostki o krawędzi 100 m. Daje to (50 000 x 50 000 x 100 = 250 000 000 000) 250 mld kostek. Każdą z nich zamierzamy modelować 100. operacjami przy częstotliwości pół godziny z horyzontem dwudniowym (96 okresów). Możemy zatem dopisać kolejne 4 zera do naszej liczby, co daje 2,5 biliarda operacji (2,5 x 1015).

Z kolei zobaczmy co zostanie po jej podzieleniu: bierzemy pod uwagę komputer o mocy gigaflopa, czyli skreślamy 9 zer, dalszych 5 odpada przy założeniu, że doba ma 100 000 s. Łącznie możemy nastawić się na miesiąc (25 dni) obliczeń. Nie ma sprawy, ale pamiętajmy, że każde podwojenie dokładności modelowania to 16-krotny wzrost ilości obliczeń (24), jako że siatka ma trzy wymiary przestrzenne i jeden czasowy. Pierwszy taki krok oznacza zatem ponad rok obliczeń (400 dni), a drugi - niemal 18 lat...

Ruchoma informacja

Do niezwykle "mocożernych" i "procesorochłonnych" aplikacji informatycznych należy przetwarzanie obrazu. Informacja, która zaczyna się "ruszać" i którą "słychać", zajmuje zdecydowanie więcej miejsca niż dane bez dźwięku i grafiki, w trybie znakowym. Szczególnie wyraźnie widać to na przykładzie animacji komputerowych. Ich początki sięgają roku 1979, kiedy to w firmie Lucasfilm Ltd. powstaje specjalistyczny dział Computer division ("Gwiezdne wojny"), z którego wyłoni się później niezależne studio Pixar. 10 lat później Tin Toy, pierwszy (krótkometrażowy) film animowany stworzony przez komputer, otrzymuje Oscara, stając się pierwowzorem Toy Story.

Komputerowe sekwencje pojawiające się w Casprze, Królu Lwie czy Pocahontas stanowiły zaledwie fragment filmu, podczas gdy Toy Story był pierwszym w historii kina pełnometrażowym filmem, zrealizowanym przy użyciu technik komputerowych. Uzyskanie 25 klatek na sekundę w 79-minutowej produkcji wymagało stworzenia ponad 11 4000 obrazów (frames), przy czym mają one rozdzielczość 1536 x 922 piksele. Na każdy punkt efektywnie przypada 48 bitów informacji, niemniej mechaniczne wykonywanie mnożeń byłoby uproszczeniem - wystarczy powiedzieć, że ostateczna wersja filmu to wolumen danych o rozmiarach 2000 GB (2 terabajty, TB). Przy średniej wydajności niespełna 4 minut filmu na tydzień już po pierwszym weekendzie zainwestowano w przedsięwzięcie ok. 40 mln USD!

Warto więc przyjrzeć się bazie sprzętowej (render farm), niezbędnej do wykreowania przygód Chudego i Buzza Astrala. Jej podstawę stanowiły maszyny Sun SPARCstation 20 HS z procesorami 100 MHz, pamięcią 192 MB i dyskami 2,1 GB. Łącznie użyto 117 dwu- i czteroprocesorowych komputerów (294 procesory). Jeżeli zważyć, że modelując pojedyncze drzewa uwzględniano do 12 tys. liści, to nie zdziwi fakt niemal miliona maszynogodzin, jakie zużyło to cyfrowe studio podczas tworzenia filmowych obiektów (rendering).

Miara złożoności

Komputery są coraz szybsze. Czy zatem warto głowić się jeszcze nad wyrafinowanymi algorytmami kompresji danych i wymyślnymi konstrukcjami programistycznymi? No cóż, nie należy zapominać o klasie tzw. problemów NP-zupełnych, wśród nich tak klasycznych, jak problem komiwojażera: znaleźć najkrótszą trasę przejazdu przez zadane miejscowości. Powszechnie dziś stosowane algorytmy teoriografowe mają często złożoność obliczeniową, będącą funkcją silni. Wystarczy wziąć do ręki kalkulator i policzyć wartość 200!, aby zobaczyć, jak złożone obliczeniowo mogą być tego typu algorytmy. A przecież 200 wierzchołków grafu nie jest czymś niezwykłym, jeśli za jego pomocą modelujemy połączenia między punktami lutowniczymi na płytce drukowanej czy też strukturę związku chemicznego.

Zaproponowany przez naszego wybitnego matematyka i twórcę teorii grafów Kazimierza Kuratowskiego algorytm ich planaryzacji (1930) posiada złożoność rzędu n6. Oznacza to, że musi on wykonać milion podstawowych (umownych) operacji dla splanaryzowania grafu o dziesięciu wierzchołkach. Jeśli na każdą z tych operacji (może to być np. określona procedura) potrzeba jednej sekundy, to cała rzecz zajmie ponad 10 dni ciągłych obliczeń.

W latach 60. Goldstein zaproponował szybszy algorytm o złożoności n3. Łatwo wyliczyć, że przy podobnych założeniach program wykonałby się już po niespełna 17. minutach. Nowsze algorytmy tego typu mają liniową złożoność obliczeniową i są wprost proporcjonalne do n. A to oznacza dalsze skrócenie czasu wykonania zadania do 10. s. W tym przypadku i graf o 1000 wierzchołkach nie byłby straszny. To tylko 1000 s, o czasie wykonania bardziej złożonych obliczeniowo algorytmów lepiej już nie mówmy - to się po prostu w kalkulatorze nie mieści. Z przeprowadzonego rozumowania wynika, że konstruowanie coraz szybszych komputerów nie umniejsza znaczenia poszukiwań coraz szybszych algorytmów.

Bomba eksabitowa

Informatyczne aplikacje, według typu złożoności, można zgrubnie podzielić na dwojakiego rodzaju: złożone algorytmicznie i złożone pamięciowo. Pierwsza ich grupa ma charakter matematyczno-techniczny. W skrajnych przypadkach wejściowo/wyjściowe ilości danych są niewielkie, ale procedury ich przetwarzania angażują wielkie moce procesorowe w krótkim czasie. Aplikacje o dużej złożoności pamięciowej mają charakter komercyjno-informacyjny. Te z kolei operują wielkimi ilościami danych i to powoduje, że również wymagają wielkich mocy komputerów.

Już wkrótce staniemy przed technologiczną możliwością wirtualnego dostępu do wszelkich informacji znajdujących się na dowolnych nośnikach danych. Można w związku z tym zapytać, ile trzeba zapamiętać, aby zapamiętać "wszystko". Ten problem stał się inspiracją dla badaczy Uniwersytetu Kalifornijskiego w Berkeley - w efekcie powstał raport How Much Information. Zainteresowanych obszernym zestawem statystyk i diagramów odeślijmy do oryginalnego dokumentu, autorstwa Petera Lymana i Hala Variana, tutaj podając je w bardzo skompensowanej formie (tab. 2).

Zróbmy w tym miejscu mały wtręt terminologiczny. Owe 2445 terabajtów to 2,445 petabajta, PB (1P, 1biliard, 1015). I powoli zaczyna brakować nam słów na oznaczenia wielkich liczb. W zanadrzu mamy jeszcze tylko jeden przedrostek metryczny: eksa (1E, trylion, 1018). Ale nawet jeśli stosowne gremia normujące nie ustalą nazw dla kolejnych prefiksów, to EB nie będzie przecież końcem liczbowej wyliczanki.

Wystarczy posłużyć się istniejącymi nazwami dużych liczb i w ten sposób tworzyć kolejne jednostki miar:

kwadrylion - 1024 (milion E, czyli milion trylionów)

kwintylion - 1030 (milion kwadrylionów)

sekstylion - 1036 (milion kwintylionów)

septylion - 1042 (milion sekstylionów)

oktylion - 1048 (milion septylionów)

nonylion - 1054 (milion oktylionów)

decylion - 1060 (milion nonylionów)

Papierowy tekst

Wróćmy teraz do naszej tabeli. Mówi się w niej o "danych". Ale przecież dopiero zagregowane i zinterpretowane dane tworzą informacje, które z kolei pozwalają wznieść się na jeszcze wyższy poziom: wiedzy. Po odrzuceniu "dokumentów", które często mają roboczy i operatywny charakter, zauważamy, że na "galaktykę Gutenberga" przypada niespełna 2% wszystkich danych (gazety + czasopisma + książki). Świadczy to o niezwykłej efektywności mediów papierowych jako nośników informacji. Trzeba również pamiętać, że nasza cywilizacja przez tysiąclecia uczyła się posługiwania "papierowym słowem". Miną dziesięciolecia zanim nowe pokolenia, od początku wychowujące się w nowym porządku medialnym, dokonają całkowitego przejścia do "galaktyki Turinga".

Oczywiście pozostaje otwarta, nie zbadana do końca, kwestia odróżniania danych i informacji pierwotnych od wtórnych (skopiowanych). Tych drugich jest oczywiście o rzędy wielkości więcej (oryginalna informacja, np. w czasopiśmie, powielana jest w całym jego nakładzie). I relacji między tekstem a grafiką. W końcu posługując się komputerem nie od razu przechodzimy do "kultury obrazkowej", ale również posługujemy się tekstem, zarówno na ekranie, jak i w postaci drukowanej. Niemniej eksplozja bomby eksabitowej jest faktem. Jako ludzkość potrzebowaliśmy tysięcy lat cywilizacyjnego rozwoju, aby zgromadzić pojedyncze eksabajty danych. Dziś podobne ilości wytwarzamy w ciągu pojedynczych lat.

Autorzy raportu przyjęli, że rocznie na świecie pojawia się milion tytułów książkowych i 100 tys. tytułów płytowych (CD), wychodzi 150 tys. tytułów gazet i czasopism, kręci się 4 tys. filmów i wykonuje 100 mld zdjęć. Łącznie na statystyczną głowę mieszkańca planety przypada ok. 300-500 MB danych rocznie, co przemnożone przez liczbę Ziemian daje 3-6 EB. Trzeba bowiem pamiętać o potężnych strumieniach informacji w postaci niecyfrowej (analogowej), generowanych przez takie media, jak radio, telewizja czy telefon.

Głęboki Internet

Zwróćmy uwagę, że do tej pory nigdzie nie padło w naszych rozważaniach słowo Internet. Tak jest, te masy danych istniały znacznie wcześniej nim powstała sieć sieci. Owszem, było ich mniej, ale trzeba pamiętać, że rozwój liczby mieszkańców Ziemi jest także bardzo dynamiczny. Dane istniały także w epoce przedkomputerowej, tyle że nie można ich było zapamiętywać cyfrowo. A informacja istniejąca w naturze? Ile jej jest? Spójrzmy uważnie przez okno albo wyjdźmy na spacer do lasu, a zobaczymy jak wiele. W każdym razie my ją tylko odkrywamy.

Eksplozja informacyjna nastąpiłaby i bez Internetu - takie są po prostu potrzeby rozwijającej się cywilizacji. Tyle, że owo medium czyni dostęp do nich bardziej demokratycznym. System WWW zawiera kilka miliardów statycznych dokumentów o rozmiarach kilkudziesięciu TB. Codziennie przybywa 10 mln nowych stron. Tak zwany głęboki Internet, tj. intranety, bazy danych, strony dynamiczne, rozgałęzienia sieci to już przeszło pół biliona stron. W Internecie każdy może być i odbiorcą, i nadawcą informacji. Może mieć indywidualną gazetę, stację radiową czy nawet telewizyjną.

Koresponduje to z trendem, który można określić jako "demokratyzację informacji". Co rok na świecie wykonuje się 100 mld indywidualnych fotografii, kręci się 2 mld indywidualnych taśm wideo, zapełnia się ćwierć miliarda dysków PC własnymi tekstami czy grafikami. Wszystkie te dane mają charakter indywidualny i oryginalny (zdjęć rentgenowskich wykonuje się 2 mld rocznie). Jeśli porównać ten wolumen z oryginałami kreowanymi "centralnie" (publicznie), to okaże się, że "danych człowieka" jest 500 razy więcej niż "danych ludzkości".

Hiperczytanie

A zatem załamywanie rąk nad rosnącymi ilościami informacji jaką możemy zapamiętywać maszynowo jest nieporozumieniem. Ten rozwój oznacza bowiem poszerzanie obszarów wolności człowieka i odchodzenie od scentralizowanych systemów zarządzania mediami i informacją, w których elitarne grupy społeczne uzurpowały sobie prawo do kontrolowania jej strumieni. Owszem, ci którzy przyzwyczajeni są do starego porządku informacyjnego, muszą nauczyć się wybierać - informacji będzie coraz więcej, a więc również coraz więcej informacji bezwartościowych. Pamiętajmy jednak, że o tym, czy informacja jest wartościowa czy bezwartościowa, również możemy decydować całkowicie demokratycznie.

W nowym ładzie informacyjnym sama tylko umiejętność czytania to półanalfabetyzm. I nie wolno nam zatrzymywać się w pół kroku. Kiedy media stają się hipermediami, a tekst hipertekstem, musimy także nauczyć się hiperczytania. Jedno jest wszakże pewne: zapotrzebowanie na maszynowe i nowe technologie zapamiętywania danych będzie rosło. Będzie rosła pamięć ludzkości. Duża pamięć wymagająca dużych maszyn.