Mundur, doktorat, pieniądze i pasja

Historia informatyki to przedziwny mariaż różnych środowisk i systemów wartości.

Historia informatyki to przedziwny mariaż różnych środowisk i systemów wartości.

Ukazanie się książek "What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer" Johna Markoffa oraz "1968: The Year That Rocked the World" Marka Kurlansky'ego wywołało w mediach falę komentarzy na temat związku pomiędzy młodzieżową rewoltą lat 60. a rozwojem technologii informatycznych. W podobny ton uderzył w polskich mediach publicysta "Gazety Wyborczej" Wojciech Orliński, w artykule Kwiaty we włosach, ręce na klawiaturze, czyli prawdziwa rewolucja ‘68, ("Duży format", 02.01.2008), w którym stawia tezę, że do rozwoju informatyki znacząco przyczyniła się hipisowska rewolta lat 60.

Rzeczywiście, istnieją związki personalne i czasowe pomiędzy kontrkulturową rewoltą a rozwojem informatyki. Ale uogólnienie, jakoby komputer był "późnym osiągnięciem" dzieci-kwiatów, jest - oględnie mówiąc - naciągane. Komputery i informatyka powstały i szybko się rozwijały dzięki przedziwnemu mariażowi wojska, nauki, biznesu oraz chęci robienia ciekawych rzeczy przez gatunek człowieka, który dzisiaj określany jest mianem nerd.

Panie poruczniku, komputer

Komputer jest, co tu dużo mówić, dzieckiem wojny. A dokładniej mówiąc, dwóch wojen: II wojny światowej oraz zimnej wojny. Pierwsze komputery, takie jak Z3, Colossus i ENIAC, były budowane do zastosowań wojskowych. Niemiecki Z3, zaprojektowany przez Konrada Zusego, pierwsza maszyna kompletna w sensie Turinga, miał być używany do obliczania konstrukcji samolotów. W roku 1941, kiedy Zuse zaprezentował swoją maszynę, "samolot" znaczyło tyle co "bombowiec" albo "myśliwiec". Brytyjski Colossus, maszyna skonstruowana do łamania niemieckiego szyfru Lorenz, stał w legendarnym Bletchley Park - tajnym ośrodku kryptograficznym, który przez całą wojnę zajmował się opracowywaniem szyfrów i ich łamaniem. Pierwszy elektroniczny, w pełni programowalny i kompletny w sensie Turinga komputer, amerykański ENIAC, zaprojektowany był jako maszyna obliczeniowa ogólnego przeznaczenia. Jego pierwszym zastosowaniem było obliczanie tzw. tablic artyleryjskich.

Dodajmy jeszcze, że Alan Turing pracował we wspomnianym Bletchley Park, zaś John (János) von Neumann, twórca teoretycznych podstaw architektury komputerów, uczestniczył w Projekcie Manhattan. Po wojnie von Neumann aktywnie wspierał budowę broni nowej generacji: bomby wodorowej i rakiet balistycznych. Zasiadając w rządowych komitetach (m.in. Von Neumann Committee for Missiles oraz US Atomic Energy Commission), walnie przyczynił się do zimnowojennej strategii Zachodu wobec Związku Sowieckiego. Swoje poglądy określał jako "zaciekle antykomunistyczne i zdecydowanie militarystyczne". John von Neumann, którego uważamy za jednego z faktycznych prekursorów informatyki i komputera, idealnie wręcz personifikował wszystko to, z czym rewolta dzieci-kwiatów walczyła.

Wojsko jeszcze dwukrotnie odegrało kluczową rolę w rozwoju informatyki. Agencja DARPA (‘D' jak Defense) była sponsorem pierwszej sieci pakietowej ARPANET, prekursora dzisiejszego Internetu. Fundamentalnym założeniem, które legło u podstaw ARPANET-u, była jego zdolność przetrwania sowieckiego ataku nuklearnego. Struktura sieci nie wskazywała żadnego węzła nadrzędnego, zaś algorytmy routingu pozwalały przekierować ruch, gdyby któryś z węzłów nie odpowiadał (czytaj: był zniszczony przez Sowietów). W listopadzie 1969 r., rok po studenckich zamieszkach, przesłano ARPANET-em pierwsze wiadomości.

Amerykański Departament Obrony był także sponsorem projektu prowadzonego przez Carnegie Mellon University Software Engineering Institute. Mark Paulk wraz ze swoim zespołem zebrał dane i najlepsze praktyki z biznesu i w latach 80. uogólnił je w model zwany od tego czasu CMM (Capability Maturity Model), odkrywając przy okazji jedną z najważniejszych prawd na temat oprogramowania: większość problemów z jakością systemów ma swoje źródło nie w technologii, a w organizacji i procesie. CMM i jego następca - CMMI - to dzisiaj standardowe modele referencyjne dla procesów rozwoju i akwizycji systemów. Nawet jeśli współczesne modele kontestują "ciężki" cykl rozwoju systemów, jednocześnie odnoszą się do poziomów dojrzałości zdefiniowanych przez CMM/CMMI.

Akademia przejmuje pałeczkę

W powyższych akapitach kilka razy pojawiły się nazwy instytucji naukowych. Po wojnie środek ciężkości w rozwoju informatyki zdecydowanie przesunął się w stronę szeroko pojętych jednostek akademickich. Nie sposób wymienić wszystkich - ale warto wymienić najważniejsze. Książka "The Art of Programming", fundamentalna pozycja nauki o algorytmach napisana przez Donalda Knutha, powstała na Uniwersytecie Stanforda. Uczelnia ta - zlokalizowana w samym środku Krzemowej Doliny - jest prawdziwą kuźnią kadr informatyki. Wykształcili się tam m.in. Douglas Engelbart, wynalazca myszki, ale także wielu spośród przedsiębiorców i wyższej kadry zarządzającej współczesnych koncernów informatycznych: Scott McNealy (Sun), Sergey Brin (Google), Jim Allchin (Microsoft) i Jerry Yang (Yahoo!).

Podobną galerią komputerowych sław i odkryć mogły poszczycić się inne wiodące uniwersytety w USA. Wspomniany już ENIAC został opracowany przez dwóch naukowców z University of Pennsylvania; pracownikiem MIT był Richard Stallman, założyciel projektu GNU, Free Software Foundation i "ojciec chrzestny" ruchu open source (nawiasem mówiąc, otwarcie przyznający się do wierności hipisowskim ideałom). UCLA to miejsce pracy wspomnianego już Leonarda Kleinrocka - wynalazcy pakietowego przesyłania informacji, stanowiącego dziś fundament Internetu; na Harvardzie narodził się komputer Mark II itd. Długo można by wymieniać zasłużone uczelnie i badaczy. Bez większego ryzyka popełnienia błędu można powiedzieć, że za każdym przełomowym wynalazkiem i technologią stoją: jakiś instytut, doktorat, konferencja naukowa albo publikacja.

Po drugiej stronie Atlantyku, w Europie, szczególną rolę pełni CERN - europejskie centrum nauki, znane przede wszystkim jako miejsce, w którym fizycy zderzają cząstki elementarne o wielkich energiach. CERN, jako pierwsza organizacja w Europie, przyjął protokół TCP/IP. Jednak z punktu widzenia informatyków najważniejszym wynalazkiem dokonanym na CERN jest WWW. Timothy Berners-Lee opracował język HTML i protokół HTTP początkowo jako sposób dostępu do rozproszonych zbiorów wiedzy zgromadzonych w CERN. Dopiero potem okazało się, że znakomicie sprawdzają się jako metoda lokalizowania wszelkich zasobów w sieciach IP.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200