Punkty zwrotne - tempo rozwoju informatyki

Obserwując dynamikę rozwoju informatyki, warto zastanowić się nad jej przyczynami i związkami z rozwojem całej cywilizacji. Można dostrzec charakterystyczne punkty zwrotne.

Obserwując dynamikę rozwoju informatyki, warto zastanowić się nad jej przyczynami i związkami z rozwojem całej cywilizacji. Można dostrzec charakterystyczne punkty zwrotne.

Modelowanie i klikanie

Możliwości modelowania świata rzeczywistego rzutują w sposób zasadniczy na tempo przemian cywilizacyjnych. Czy można budować coraz nowocześniejsze domy bez planów architektonicznych? Byłoby to bardzo trudne i mało efektywne. Można by na przykład zastosować metodę prób i błędów. Kładziemy cegłę na cegłę i obserwujemy, czy nasza konstrukcja się nie przewraca. Jeśli nie, to dokładamy następną cegłę, aż do zawalenia się budowli. Taki prosty algorytm pozwala znaleźć dopuszczalne wysokości czy grubości murów. Dla danego rodzaju cegieł i w określonym środowisku. Zmiana parametrów oznacza konieczność dalszego, żmudnego eksperymentowania. O ileż prościej jest klikać myszką na odpowiednie opcje stosownego programu CAD i tworzyć najróżniejsze warianty mostów czy pałaców bez obawy, że nie dadzą się wznieść.

Ba. Klikanie pojawiło się stosunkowo niedawno. Wcześniej, jako ludzkość, byliśmy w znacznej mierze zdani na technologie typu try and error. Ze szczególnym uwzględnieniem pojęcia error. Czy egipscy szkutnicy starożytności wiedzieli cokolwiek o prawie Archimedesa? Teoretycznie było to możliwe, ale statki budowano i przed greckim myślicielem. W każdym razie nie mieli o nim pojęcia skandynawscy cieśle, spod rąk których wychodziły "długie łodzie wikingów". A ci ostatni mieli na nich dotrzeć nawet do Ameryki. A co mogli wiedzieć średnio-wieczni wolnomularze o prawach fizyki, na wieki przed Newtonem? A jednak wznosili katedry, które podziwiamy, "my z pierwszej połowy XXI wieku".

Tyle że, jak wspomnieliśmy, owo wznoszenie było powolne i ekonomicznie nieefektywne. Dlaczego dziś budowanie idzie nam sprawniej? Oczywiście mamy maszyny, ale przede wszystkim lepsze modele rzeczywistości. Zresztą i samych maszyn nie dałoby się skonstruować bez modelowania. Przyjmijmy, że kwintesencją rozwoju technologicznego są wynalazki. Z kolei rozwój procesu modelowania warto zaobserwować na przykładzie matematyki. Wystarczy teraz zestawić dwie kolumny tabel, które znajdziemy w każdej encyklopedii: "ważniejsze wynalazki" i "odkrycia matematyczne". Łatwo zauważyć, że dopiero w XVIII wieku istniał aparat matematyczny, którym można było opisać pojawiające się wynalazki. Wcześniej powstawały nowe technologie, ale jako swego rodzaju niespodzianki dla ich odkrywców.

Od połowy XVIII wieku (maszyna parowa, patent J. Watta w 1769 r.) można było zacząć robić wynalazki "na papierze". To znaczy: teoria wyprzedziła praktykę. Znane już były przecież prawa Newtona (1643-1727) i rachunek różniczkowo-całkowy Leibniza (1646-1716). Możemy być pewni, że tempo naszego rozwoju będzie przyspieszone, w momencie gdy uda nam się skomputeryzować mechanizmy tworzenia wiedzy i zaimplementować nowy kamień filozoficzny - algorytm wynalazku.

Starożytne długopisy

Oczywiście samo istnienie efektywnego aparatu teoretycznego nie gwarantuje jeszcze jego przełożenia na praktykę. I tak maszyna parowa była w gruncie rzeczy znana i w starożytności. Oto niejaki Hieron zawiesił nad ogniskiem kulę z rurowatymi ramionami, wypełnioną wodą. Kula zaczęła się obracać. Energia pary zamieniała się na energię mechaniczną. A to jest właśnie zasada działania maszyny parowej. Dlaczego zatem już wtedy nie zaczął się wiek pary? Być może w systemach opartych na niewolniczej pracy nie było zainteresowania zastępowaniem energii mięśni energią mechaniczną. Choć każdy pan wiedział, że najbardziej zdyscyplinowany niewolnik nigdy nie będzie tak pokorny, jak maszyna, która nigdy się nie zbuntuje i nie będzie chciała odzyskać wolności.

Przede wszystkim jednak skonstruowanie maszyny parowej wymagało określonego poziomu technicznego całej cywilizacji. Na przykład możliwości wytwarzania części z pożądaną precyzją i o pożądanej wytrzymałości. Ów ogólny poziom techniczny można łatwo dostrzec wokół nas w każdym produkcie, choć na ogół nie zwracamy na niego uwagi. Jego brak powoduje, że niemożliwe było w średniowieczu wyprodukowanie zwykłego długopisu, mimo że intensywnie poszukiwano technologii umożliwiających ręczne pisanie. W końcu poprzestano na piasku, inkauście i ptasich piórach. Jeszcze bardziej dobitnym przykładem jest przypadek Charlesa Babbage'a, który w XIX wieku zaprojektował coś na kształt komputera. Z powodu ograniczeń świata doby węgla i stali genialny konstruktor angielski nie mógł zrealizować swej idei maszyny liczącej (analytical engine). Płomień kolejnej fazy ludzkiego postępu musiał być wzniecony już przez nową iskrę. Iskrę elektryczną czy elektroniczną.

Przyspieszenie cywilizacyjne, które było efektem opisywanej sytuacji, obserwujemy do dziś. To nie teleskop odkrył planetę Neptun, ale ołówek matematyka Leverriera.

Francuz dokonał teoretycznych obliczeń na podstawie grawitacyjnych zaburzeń ruchów planet, a jego wyniki potwierdzili później astronomowie. Kartka papieru i ołówek. Zaiste potężne to narzędzia w połączeniu z geniuszem ludzkiego rozumu. Geniuszem wyposażonym w odpowiedni model rzeczywistości. Model będący i sposobem postępowania, i wiedzą. W kategoriach informatycznych powiedzielibyśmy: program i struktury danych.

Software ludzkości

Jak powstawało "oprogramowanie" ludzkości? Przede wszystkim musiał istnieć "procesor" zdolny do przetwarzania i tworzenia danych. To nasz mózg. A co z danymi, które mógł przetwarzać? Te były ograniczone, w początkach rozwoju cywilizacji, głównie do doświadczeń jednostki zebranych w ciągu życia i wzbogaconych o informacje uzyskiwane od innych ludzi. Niemniej widać wyraźnie, że w rozwoju naszej cywilizacji da się dostrzec punkty zwrotne, od których przebiega on znacznie szybciej.

Spróbujmy je zidentyfikować i znaleźć ich przyczyny - dla lepszego zrozumienia naszej obecnej sytuacji, a także potrzeb prognozowania.

Skoro procesor nie tylko może być narzędziem do modelowania mózgu, ale sam może być jego modelem, to być może warto poszukać podobnych analogii w wymiarze pozajednostkowym, społecznym. Postawmy zatem tezę, że rozwój informatyki może być modelem dla rozwoju cywilizacji. A ściślej: przyczyny warunkujące tempo rozwoju ludzkości mają swe odpowiedniki w świecie technologii informacyjnych. Teza zaskakująca o tyle, że informatyka istnieje zaledwie dziesiątki lat, a nasz gatunek - dziesiątki tysięcy. Niemniej stosowanie określonej technologii informacyjnej nie wymusza automatycznie stosowania komputerów - na większą skalę zaczęło się tak dziać dopiero w drugiej połowie XX wieku.

Triada parametrów

Tempo rozwoju informatyki determinowane jest przez 3 wskaźniki:

Gęstość danych medium

Szybkość przetwarzania danych

Liczbę połączeń między węzłami przetwarzania danych

Taki trójwskaźnikowy model jest oczywiście znacznym uproszczeniem, w szczególności dotyczy "twardych" parametrów rozwojowych, bez uwzględnienia "miękkiego" otoczenia informatyki - np. światopoglądowego. Wystarczy powiedzieć, że np. karabin czy kompas wynaleziono setki lat zanim zaczęto je wykorzystywać na szeroką skalę. Choć, w kontekście pierwszego z wymienionych dokonań, nie sposób uniknąć westchnienia: na szczęście. Wróćmy jednak do naszych trzech parametrów.

Pierwszy z nich determinuje osiągalne pojemności pamięci komputerowych, a wspomniana gęstość osiąga aktual- nie poziom dziesiątków Gb/cm2. Zrozumiałe jest, że możliwości przetwarzania zapamiętywanych danych związane są z prędkościami stosowanych procesorów; również w obszarze masowym (PC) idziemy tutaj w kierunku GHz. Termin "węzeł", w kontekście trzeciego wskaźnika, wyraźnie sugeruje środowisko sieci teleinformatycznej, choć niekoniecznie musi to być konfiguracja w sieci globalnej. Może to być element grona (cluster), moduł wieloprocesorowej jednostki centralnej czy nawet moduł pamięci bądź kanał (dane można przetwarzać również bezpośrednio w pamięci operacyjnej, a kanał hardware'owy może być traktowany jako rodzaj specjalizowanego komputera - ma własne pamięci, procesory, oprogramowanie).

Pomińmy teraz analizę trójwskaźnikowego modelu w informatyce i nałóżmy go od razu na procesy rozwoju całej cywilizacji. Ludzkość rozwijała się w podobnym tempie w tych okresach, kiedy nie występowały istotne zmiany w odniesieniu do trzech wymienionych parametrów. I tak całe wieki prędkość przetwarzania danych była determinowana możliwościami ludzkiego mózgu, a te się nie zmieniały (tempo rozwoju ewolucji biologicznej jest pomijalnie małe w stosunku do tempa rozwoju technologicznego). Pierwszym, szeroko stosowanym medium zapamiętywania danych stał się papier. Gęstość danych tego nośnika ustaliła się, w odniesieniu do tekstu alfabetycznego, na poziomie pojedynczych B/cm2.

Z kolei liczba połączeń między węzłami przetwarzania danych odpowiadała w starożytności kontaktom i wymianie informacji w rodzinie czy niewielkiej grupie ludzi, w jakiej z reguły toczyło się życie np. mieszkańca Mezopotamii. Od wynalazku pisma, aż do XV wieku rozwój ludzkości miał w znacznej mierze charakter liniowy - przebiegał w jednym tempie. W tym bowiem okresie nie pojawiły się technologie, które miałyby radykalny wpływ na możliwości zapamiętywania danych, ich przetwarzania czy przesyłania. Tak było aż do wynalazku druku. Co prawda druk nie miał bezpośredniego wpływu na pierwszy i trzeci z rozważanych wskaźników, ale przyspieszył możliwości przetwarzania danych (kreowanie i kopiowanie są rodzajami przetwarzania). Spotęgowaniu uległy natomiast mechanizmy tworzące zręby przyszłego społeczeństwa informacyjnego (społeczeństwo informacyjne to takie społeczeństwo, które tworzy maszynowe i metaindywidualne struktury danych) i zalążki globalnej świadomości.

Planetarne społeczeństwo

Po wynalezieniu druku nie działo się "nic", aż do wieku XIX. A co ze wspomnianą maszyną parową? Ta była przecież wcześniej i uznaliśmy ją za punkt zwrotny w historii ludzkości. Tak, ale mówimy tu o innym poziomie abstrakcji. W kategoriach analogii informatycznych maszyna parowa była już aplikacją, a nie technologią bazową - dodajmy: aplikacją w wymiarze energetycznym, a nie informacyjnym. W wieku XIX jednocześnie pojawia się kilka decydujących wynalazków, w odniesieniu do wszystkich trzech wskaźników. Telegrafia i telefonia stanowią przełom w możliwościach przesyłania danych. Z kolei fotografia i płyta gramofonowa zwiększają gęstość zapisu danych, co wpływa na prędkość ich przetwarzania (z podobnymi ograniczeniami jak w przypadku druku). Co prawda dotyczy to danych nie mających charakteru uniwersalnego (akustyka), ale rzutują one na tempo tworzenia globalnej świadomości.

Oto na różnych kontynentach, ludzie różnych nacji, ras i kultur mogą słuchać tej samej muzyki czy oglądać te same fotografie, przedstawiające np. tragiczne skutki wojen. Zwróćmy też uwagę, że konsekwencją fotografii była mikrofotografia (mikrofilm) i efektywniejsze systemy archiwizowania danych. Pomińmy teraz analizę kolejnych punktów zwrotnych: filmu, radia, telewizji, komputera i przejdźmy od razu do Internetu. Medium to, w sposób eksplozywny, bez zwiększania prędkości przetwarzania danych (bezpośrednio) i gęstości ich zapisu, zmieniło możliwości przekazu danych. W Internecie wszyscy mogą łączyć się ze wszystkimi i to na całkowicie demokratycznych zasadach: każdy może być odbiorcą i nadawcą, być niejako posiadaczem własnej gazety, własnej stacji radiowej czy telewizyjnej.

Zrozumienie konsekwencji tego punktu zwrotnego wymaga posiłkowania się inną definicją świadomości niż propozycje dotychczasowe, kładące nacisk na świadomość indywidualną i naturalną, tzn. kreowaną w środowisku pozamedialnym czy przedi

nformatycznym i lokalnym (nieglobalnym). Z pewnością klasycznie wykształconemu psychologowi, filozofowi czy socjologowi - operującemu tak pojemnymi pojęciami, jak "odczuwanie", "refleksja" czy "myślenie" - trudno jest pogodzić się z tym, że fenomen świadomości da się dobrze tłumaczyć w powiązaniu z dynamiką gęstości danych. A ta dynamika i gęstość zostały spotęgowane przez Internet.

Polska chata

I mamy tutaj do czynienia z czymś więcej niż tylko izolowanym przetwarzaniem danych przez pojedynczego człowieka (stand alone system). Przestajemy być samotnymi Robinsonami na bezludnych wyspach informacyjnych: stajemy się planetarnym społeczeństwem, jednocześ-nie i naraz przetwarzającym dane i wspólną świadomość. Istnienie takiej tendencji nie oznacza, że jest to proces całkowicie zdeterminowany, zakończony czy powszechnie akceptowany. Jego niedostrzeganie świadczy jednak często o mieszaniu myślenia życzeniowego z faktograficznym: nie rozumiem globalizacji, boję się jej, jestem jej przeciwnikiem, nie mając więc szans na jej powstrzymanie, "udowadniam", że takie zjawisko nie istnieje. W skrajnych przypadkach wytaczane są nawet odwiecznie specyficzne polskie działa, gorejące ogniem... kul w płot.

Czyżby komputery nad Wisłą były tak inne od tych nad Sekwaną? Czyżby najpopularniejsze audycje telewizyjne były tak inne od tych nad Tamizą? Podobne pytania można by mnożyć. Różnice oczywiście istnieją, ale będą coraz mniejsze, bo coraz więcej jest punktów wspólnych w społeczności globalnej. Jak bardzo mogą różnić się od siebie ludzie podobnie odziani, podobnie jedzący, jeżdżący podobnymi autami, podobnie się uśmiechający na "dzień dobry" czy good morning, podobnie buszujący w podobnym Internecie, podobnie spędzający czas wolny? Praktyka pokazuje, że nie bardzo.

A co z historią? Ta jest przecież zdecydowanie różna dla poszczególnych "chat" w "globalnej wiosce". To prawda, ale mówimy tu o problemie pokoleniowym, dotyczącym głównie osób "wcześ-niej urodzonych", którym globalizacja kojarzy się z doświadczoną centralizacją czy z różnymi przejawami zuniformowanego totalitaryzmu. Przyszłość powinna być jednak wspólna albo ryzykujemy, że nie będzie jej wcale. Dla tych urodzonych "później" dyskusje tego typu są stratą czasu na problemy pozorne, rozstrzyg-nięte już strategicznie przez rzeczywistość. Lepiej wykorzystać czas na tworzenie. A znakomitym przykładem jest Linux i nie chodzi tu o porównywanie akurat tego systemu z innymi. Niemniej każdy, kto choćby bardzo pobieżnie wie jak powstaje złożone oprogramowanie, potrafi docenić efekt całkowicie dobrowolnej pracy grupy ludzi, wspólnie przetwarzających zbiorową inteligencję.

Społeczeństwo połączone teleinformatycznymi strukturami posiada zatem inny typ świadomości niż historycznie wcześniejsze. Co więcej, definicja świadomości oparta na dynamice gęstości danych zachowuje swą uniwersalność również w odniesieniu do świadomości maszynowej (sztucznej). Powinniśmy być przygotowani na wyraźniejsze pojawienie się takiej świadomości jeszcze w pierwszej połowie XXI wieku. I niewiele pomoże nam zamykanie oczu i uszu na fakty, "umawianie się", że maszynowa świadomość jest niemożliwa. Rozwoju, na dłuższą metę, nie da się bowiem powstrzymać, a przykłady XX-wiecznych dyktatur, które takie próby podejmowały, możemy, miejmy nadzieję, potraktować jako smutne wyjątki od tej reguły.

Model idealny

Punkty zwrotne w rozwoju informatyki wiążą się także z relacją między postępem stymulowanym empirycznie albo racjonalnie. Niemniej, zamiast użytego w ostatnim zdaniu spójnika alternatywy wykluczającej "albo", bardziej na miejscu jest łącznik sumy zbiorów: "lub". Czym byłby "punkt zwrotny" dla systemów bazodanowych, jaki stanowi teoria Codda z 1970 r., bez stosownych aplikacji lat 80.? Czy jednak Codd byłby zdolny do swych odkryć bez wiedzy o istniejących wcześniej standardach CODASYL-u? Relacja między rozwojem stymulowanym praktycznie bądź teoretycznie ma także znaczenie dla całości cywilizacji.

W pierwszym przypadku rozwój polega na gromadzeniu doświadczeń, i na tej podstawie budowaniu systemów opisu rzeczywistości: konkretnych formuł czy reguł, np. w fizyce czy technice. Budujemy zatem piramidę wiedzy od dołu, nie wiedząc, kiedy staniemy na szczycie i co na nim zobaczymy. Jest to metoda działająca powoli, ale stabilna - zawsze możemy "twardo stanąć" na tych fragmentach budowli, które już istnieją. Informatycznie, takie podejście odpowiada strategii bottom-up. W drugim wariancie (top-down) stajemy od razu na wierzchołku konstrukcji. Fantastycznie! Cel osiągnięty. Ale spróbujmy teraz, bez zawrotu głowy, spojrzeć w dół. Pod nogami, zobaczymy jedynie przerażającą pustkę. Praktyczny pożytek z posiadania samego tylko zwieńczenia piramidy jest na początku niewielki. Bez "punktów podparcia" łatwo z niego spaść i boleśnie się potłuc. Lecz znając wygląd puzzlowej układanki, łatwiej będzie nam teraz znaleźć i dostosować elementy brakujące do już istniejącego wzorca. To podejście jest szybkie, lecz mniej stabilne. Oczywiście są to przypadki skrajne, a życie jest faktycznie ich kombinacją. Niemniej przewaga empiryzmu nad racjonalizmem we wcześniejszych fazach rozwoju ludzkości hamowała nasz rozwój. Była to zresztą dominacja wymuszona, gdyż jako się rzekło, nie istniały narzędzia teoretyczne (np. matematyka, fizyka) dające człowiekowi alternatywę.

Nie oznacza to jednak, że dziś we wszelkich dziedzinach możemy szybko budować zgrabne "piramidy" według przyjętego wzoru. Owszem, tak jest np. w matematyce, która bazuje na fundamencie aksjomatyczno-dedukcyjnym. Inaczej dzieje się choćby w ekonomii - tu piramida (a raczej ich zbiór) nie jest tak "gładka" i budowana jest bardziej "od dołu", na podstawie ogromnej ilości danych doświadczalnych. Z pewnością za idealny model rozwoju można zatem uznać taki, w którym nie ma dominacji jednej metody nad drugą - jest ich równoważność i koegzystencja.

--------------------------------------------------------------------------------

Jarosław Badurek jest pracownikiem koncernu Unilever, naukowo współpracuje z Politechniką Gdańską.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200