Twórcy informatyki dla przedsiębiorstw

Nie wiadomo jak wyglądałyby współczesne systemy informatyczne, gdyby nie ci ludzie i ich wynalazki.

Nie wiadomo jak wyglądałyby współczesne systemy informatyczne, gdyby nie ci ludzie i ich wynalazki.

Otwarte standardy, przenośność rozwiązań, skalowalność, komunikacja, Internet - fundamenty dzisiejszej technologii informatycznej nie istniały od zawsze. Informatyka korporacyjna nie byłaby tym, czym jest dzisiaj bez wynalazków lat 60. i 70. - bez Unixa, TCP/IP i Ethernetu, bez minikomputerów. Lotus Notes, który zmienił sposób myślenia o bazach danych i obiegu informacji w przedsiębiorstwie, powstał na długo przed Javą i komercyjnym zastosowaniem Internetu. Arkusz VisiCalc sprawił, że analizą danych wreszcie mogli zająć się końcowi użytkownicy. Procesory RISC sprawiły, że operacje te można było wykonać szybko. Co inspiruje ludzi do opracowywania technologii przełączania pakietów czy protokołu IP? Oczywiście, własne potrzeby. Unix, protokół IP i Ethernet - wszystkie powstały jako remedium na potrzeby jednej sieci lokalnej. Nikt wtedy nie myślał o ich komercyjnym zastosowaniu. Z kolei Java została stworzona jako podręczne narzędzie podczas prac nad projektem, który nigdy nie ujrzał światła dziennego. Dostępną w Lotus Notes funkcję tworzenia własnych baz danych początkowo wykorzystywali tylko programiści pracujący nad tym produktem.

Stworzenie przełomowych technologii rzadko jest dziełem jednego człowieka. Do powstania Javy, oprócz Jamesa Goslinga, walnie przyczynili się także Patrick Naughton i Wayne Rosing. Ray Ozzie - twórca Lotus Notes - ściśle współpracował z Lenem Kawellem i Timem Halvorsenem. Unix powstał w wyniku współdziałania Dennisa Ritchie i Kena Thompsona, a dużą rolę odegrali także Steve Johnson i Brian Kerningham.

Gordon Bell

INSPIRACJA: Po dziesięciu latach od opracowania minikomputerów Program Data Processor (PDP) przez firmę Digital Equipment Corporation (DEC), architektura ta osiągnęła kres wydajności. Mimo wielu modyfikacji, popularny w owych czasach PDP-11 nie mógł dłużej sprostać rosnącym potrzebom obliczeniowym dużych przedsiębiorstw. Na przeszkodzie stała niewystarczająca ilość pamięci, jaką komputer mógł zaadresować. W 1972 r. kierownictwo DEC namówiło Gordona Bella, jednego z twórców PDP, aby powrócił do firmy i zaprojektował jego następcę.

WYNALAZEK: Efektem prac zespołu Bella był 32-bitowy komputer VAX, którego nazwa wywodzi się z zastosowanego w nim nowatorskiego rozwiązania: VAX (Virtual Address eXtention). Dzięki niemu wydajne przetwarzanie danych stało się bardziej dostępne dla mniej zamożnych użytkowników (50-500 tys. USD), których nie było stać na zakup komputera typu mainframe (od 250 tys. do 10 mln USD).

Komputery VAX wzbudzały wiele emocji, ponieważ umożliwiały działom i oddziałom firm kontrolę nad własnymi danymi i aplikacjami, w przeciwieństwie do systemów scentralizowanych, wykorzystujących mainframe'y. Bell był również autorem strategii rynkowej komputerów VAX. DEC oferował je w kilku konfiguracjach w przypadku różnych zastosowań: przetwarzania indywidualnego, wydziałowego i centralnego, a także połączone w klastry.

Z PERSPEKTYWY: "Dziś rolę komputerów DEC w dużej mierze przejęły produkty Suna i bazy Oracle'a, jednak to VAX był pionierem serwerów departamentalnych" - chwali się Bell. Żałuje jednak, że VMS - system operacyjny komputerów VAX - był ściśle związany z architekturą sprzętu. "Powinniśmy uczynić go przenośnym" - twierdzi. Gordon Bell jest pionierem w wielu dziedzinach. Zanim zbudował pierwszy popularny komputer, pozwalający na dzielenie czasu procesora między wiele zadań (PDP), brał także udział w projekcie, który doprowadził do stworzenia układów UART. Skonstruował pierwsze tanie rozwiązania klastrowe na bazie komputerów VAX.

Vinton Cerf

INSPIRACJA: W 1969 r., gdy firma Bolt Beranek Newman (obecnie GTE Internet-working) zademonstrowała pierwszy węzeł sieci dla instytucji rządowych i naukowych, Vinton Cerf studiował na uniwersytecie kalifornijskim w Los Angeles (UCLA). Projekt na UCLA udowodnił, że transmisja pakietowa w sieci rozległej i to po zwykłych łączach miedzianych jest możliwa. Były to początki sieci ARPANET, z której wyrósł Internet.

Vinton Cerf ukończył studia i podjął pracę w Uniwersytecie Stanforda. W 1973 r. odwiedził go Robert Kahn, były pracownik Bolt Beranek Newman. "Opowiadał mi wtedy o sieciach pakietowych, które tworzył. Dyskutowaliśmy o tym, jak zmusić je do wymiany informacji, mimo różnych technologii i systemów operacyjnych" - wspomina Vinton Cerf. A wówczas było już co łączyć. Budowano w tym czasie zręby trzech sieci: naziemnej ARPANET, pakietowej sieci radiowej Packet Radio Net i Satellite Net. Tak zaczęła się współpraca z R. Kahnem, której celem - jak mówi Cerf - było przyspieszenie postępu informatyki.

WYNALAZEK: Po kilku miesiącach pracy R. Kahn i V. Cerf przedstawili wstępne wyniki wspólnych doświadczeń na jednej z konferencji naukowych, a w maju 1974 r. opublikowali je na łamach biuletynu IEEE. "Rok 1974 był dla technologii sieciowej wyjątkowy. Studenci i pracownicy laboratorium Xerox PARC podchwycili nasz pomysł i dopracowali szczegóły" - z nostalgią wspomina V. Cerf. Tak powstał protokół TCP (Transmission Control Protocol), umożliwiający pewną komunikację, i protokół IP (Internet Protocol), który umożliwia sterowanie przepływem pakietów w sieciach. Po ośmiu latach badań i testów sieci ARPANET podięto decyzję o migracji do TCP/IP, co ostatecznie nastąpiło w 1983 r.

W 1984 r. powstała firma, zamierzająca produkować routery IP. "Zdziwiło mnie wtedy, że ktoś ma nadzieję zarabiać na TCP/IP. Nawet w 1990 r., kiedy wiadomo było, że technologia IP ma perspektywy, nikt z nas nie miał pojęcia, jak daleko to wszystko zajdzie" - opowiada. Tą firmą była Cisco Systems, dziś potentat rynku technologii informatycznych.

Jako uczestnik i świadek wielkiej rewolucji, Vinton Cerf uważa, że technologia sieciowa ma świetlaną przyszłość i doprowadzi do powstania zastosowań, o których dziś nikt nawet nie marzy. "Zawsze zachwycałem się możliwością zrobienia czegoś z oddali, gdzie efekty działania widoczne są tysiące mil stąd" - mówi Vinton Cerf.

Dennis M. Ritchie

INSPIRACJA: Laboratoria Bella wspólnie z General Electric i Massachusetts Institute of Technology (MIT) długi czas współpracowały nad systemem operacyjnym, który mógłby obsłużyć tysiące użytkowników i jednocześnie działać bezawaryjnie w trybie 24/7. Projekt nazwano Multics. Pod koniec lat 60. Bell wycofał się ze współpracy. "Powstało pytanie, co mogłoby zastąpić Multicsa. Programiści doceniali możliwości tego systemu operacyjnego - mówi Dennis Ritchie, który pracował wówczas nad Multicsem najpierw w MIT, a później w laboratoriach Bella.

WYNALAZEK: Dennis Ritchie wspólnie z Kenem Thompsonem postanowili kontynuować dzieło. Obiecując kierownictwu laboratorium stworzenie programu do obróbki tekstu, namówili jego członków do zakupienia za ponad 100 tys. USD komputera PDP-11/20, na którym mogli rozwijać coś, co z biegiem czasu stało się znane na całym świecie pod nazwą Unix. "Nie zamierzaliśmy tworzyć komercyjnego oprogramowania. Chcieliśmy stworzyć narzędzie do własnego użytku" - wspomina D. Ritchie. W wyniku ich pracy powstał wielodostępny, wielozadaniowy system operacyjny, z którym użytkownik mógł się komunikować językiem poleceń podobnych do naturalnych. D. Ritchie i K. Thompson nie zawiedli laboratorium Bella - ich system, jak na owe czasy, w dużym stopniu wspierał obróbkę tekstu. Szybko zadomowił się zarówno w koncernie AT & T, jak i w innych firmach.

W latach 70. rozwój Unixa wkroczył w nową fazę. Już wtedy nie lada problemem była przenośność danych pomiędzy różnymi systemami operacyjnymi. Dennis Ritchie wspólnie z kolegą Steve'em Johnsonem z laboratoriów Bella rozpoczęli pracę nad uczynieniem Unixa systemem przenośnym. "Większość aplikacji była pisana w językach wysokiego poziomu, głównie w C, dlatego postanowiliśmy, że uczynimy przenośnym sam system operacyjny" - mówi D. Ritchie. Pierwszym komputerem, na którym działał Unix, był powszechnie wówczas używany VAX firmy Digital Equipment.

W latach 80. Unix był rozwijany dwutorowo. Po otrzymaniu stypendium od agencji DARPA, Uniwersytet w Berkeley udoskonalał własną wersję systemu, znaną jako BSD (Berkeley Software Development). W pracach nad BSD uczestniczył Ken Thompson. Druga odnoga Unixa - system V - był efektem współpracy AT & T, Sun Microsystems i IBM. Ponadto Sun i IBM wybrały różne wersje systemu, co zapoczątkowało trwający do dziś podział Unixa.

Z PERSPEKTYWY: Unix nadal ma się dobrze. Założenia i cechy systemu stworzonego przez D. Ritchie'ego i K. Thompsona później zostały wielokrotnie wykorzystane w tworzeniu systemów DOS, Mac OS czy Windows NT. Dziś pod Unixem działa większość aplikacji o krytycznym znaczeniu dla przedsiębiorstw i instytucji. "Poza komputerami PC, Unixa można spotkać wszędzie"- mówi Dennis Ritchie. "Zdecydowanie jednak potrzeba było większej współpracy" - dodaje.

Tim Berners-Lee

INSPIRACJA: U schyłku lat 80. Internet zaczął przenikać z amerykańskich uczelni do europejskich środowisk naukowych. Korzystanie z zasobów sieci nie było jednak łatwe. "Pół biedy, jeżeli ktoś potrafił zdalnie korzystać z programów bibliotecznych - czasem udawało się nawet coś znaleźć. Jeżeli jednak trzeba było pobrać pliki, najczęściej nie można było ich uruchomić na komputerze lokalnym" - wspomina Brytyjczyk Tim Berners-Lee, ówczesny stażysta w Europejskim Laboratorium Badań Jądrowych w Genewie (CERN).

WYNALAZEK: Jeszcze podczas stażu na początku lat 80. T. Berners-Lee stworzył na własny użytek program do wyszukiwania informacji na podstawie luźnych skojarzeń. Nazwał go Enquire, czyli Pytaj. Już jako etatowy pracownik CERN wpadł na pomysł powiązania ubogiego jeszcze funkcjonalnie Internetu z technologią hipertekstową, aby w ten sposób umożliwić łatwy dostęp do danych. Wiedział, że w skomplikowanej procedurze pobierania plików z posługiwano się jedynie kilkoma zmiennymi: nazwą komputera, katalogu i pliku. Zaproponował, aby dane te potraktować jako uniwersalną nazwę dokumentu. Tak powstało pojęcie URI (Uniform Resource Identifier), gdzie I zostało później zastąpione L (Locator). "Jeżeli nazwę dokumentu potraktować jako odnośnik hipertekstowy, komputer sam prześle dokument. W ten sposób różne systemy mogą udostępniać różne informacje w ujednolicony sposób - jako zbiór dowiązań do dokumentów" - przekonuje Tim Berners-Lee. System przewidywał także całkowite rozproszenie, co miało umożliwiać jego skalowanie i uruchamianie na różnych komputerach.

EFEKTY: W 1989 r. Tim Berners-Lee zaproponował laboratorium CERN rozwijanie idei światowej pajęczyny. W kolejnym roku próbował bez skutku namówić do pomysłu producentów oprogramowania. W końcu sam stworzył hipertekstowy protokół transmisji, znany dzisiaj jako HTTP, oraz język opisu strony - HTML (HyperText Markup Language). Tim Berners-Lee stworzył także pierwszy serwer dokumentów HTML - httpd - oraz pierwszą przeglądarkę dokumentów HTML - World Wide Web. Aby zainteresować pomysłem programistów, efekty swojej pracy umieścił w Internecie. Gdy studenci zainteresowani tą technologią zaczęli ją rozwijać, rozpoczął się wykładniczy wzrost Internetu i produktów opartych na nim.

Tim Berners-Lee nie założył firmy, lecz niekomercyjną organizację o nazwie World Wide Web Consortium, której rolą jest nadzór nad rozwojem sieci i jej standardów. Przyszłość światowej pajęczyny widzi jako sieć wymiany danych nie tylko między ludźmi, lecz także między maszynami. "Tekst jest zrozumiały tylko dla ludzi. Język XML dzięki wprowadzeniu kontekstu, pozwala uczynić go zrozumiałym również dla komputerów. To będzie podstawa nowych zastosowań Internetu w przyszłości" - przekonuje Tim Berners-Lee.

David Patterson

INSPIRACJA: W latach 80. królem minikomputerów był VAX produkowany przez Digital Equipment. Procesory stosowane w komputerach VAX opierały się na para-dygmacie bogatego zestawu instrukcji, jakie procesor rozpoznawał i wykonywał. Wszystkim wtedy wydawało się, że kluczem do poprawy wydajności komputerów jest implementacja w procesorach większej liczby wyspecjalizowanych instrukcji. Wszystkim - poza Davidem Pattersonem. "Zastanawiałem się, jakie rzeczywiste korzyści wynikają z rozbudowy «słownictwa»" - wspomina D. Patterson.

WYNALAZEK: David Patterson rozwinął teorię, według której przetwarzanie z użyciem mniejszej liczby instrukcji, które można wykonać jednocześnie - w jednym cyklu zegara procesora - powinno przynieść wzrost wydajności. Ten typ przetwarzania nazwał RISC (Reduced Instruction Set Computing).

Teoria wywołała wiele kontrowersji i dyskusji wśród projektantów i producentów układów scalonych. "Tak naprawdę linia podziału zdań biegła między podejściem intuicyjnym a statystycznym" - mówi D. Patterson. Do wcielania teorii w życie zabrały się niezależnie trzy ośrodki: Uniwersytet w Berkeley, Uniwersytet Stanforda i laboratoria IBM. "W 1983 r. sytuacja przedstawiała się inaczej. Nie mówiono już o głupim pomyśle, ale zaczęto się zastanawiać, jak go przenieść na grunt biznesu" - wspomina.

EFEKT: W 1987 r. IBM zbudował i rozpoczął sprzedaż pierwszych komputerów z procesorem RISC - RT PC. Produkt nie znalazł zainteresowania na rynku. Rok wcześniej John Hennessy, który pracował nad RISC w Uniwersytecie Stanforda, założył własną firmę - MIPS Computer Systems, która miała produkować procesory RISC. Udało mu się nawet przekonać do współpracy Sun Microsystems. Sun zatrudnił więc Pattersona jako konsultanta i rozwinął własne procesory Sparc (Scalable Processor Architecture). "Oferując dwa razy większą wydajność za połowę ceny komputera VAX, Sun dosłownie zdeptał DEC-a. Gdy przy tym okazało się, że Sun rzeczywiście zarabia pieniądze, wszyscy złapali się za głowę, mówiąc: dlaczego nie my!" - żartuje D. Patterson.

Przeciętny komputer PC nadal nie korzysta z procesora RISC. Architektura ta zwyciężyła już jednak we wszystkich innych zastosowaniach elektroniki, w tym w wysoko wydajnych serwerach. "Pojawienie się technologii RISC zakończyło erę projektowania procesorów na bazie intuicji. Dzięki naukowemu podejściu komputery stały się szybsze niż mogliśmy przypuszczać" - przekonuje D. Patterson.

David Patterson jest również jednym z współtwórców technologii RAID (Redundant Arrays of Inexpensive Disks), dzięki której powstały używane dziś powszechnie macierze dyskowe.

Robert Metcalfe

INSPIRACJA: Na początku lat 70. należące do Xeroxa laboratorium PARC starało się o przyłączenie do powstającej właśnie sieci ARPANET. Okazało się, że podłączenie do sieci wszystkich działających w PARC komputerów, choć możliwe z technicznego punktu widzenia, będzie bardzo pracochłonne. Ostatecznie zdecydowano, że do ARPANET-u zostaną podłączone tylko 2 minikomputery.

W tym samym czasie naukowcy PARC opracowali urządzenie, uznawane za pierwszą na świecie drukarkę laserową. "Drukowała jedną stronę na sekun- dę z rozdzielczością 500 dpi. Powstało pytanie, jak zapewnić jej ciągłe zajęcie" - mówi Robert Metcalfe, który przeszedł do PARC z Massachusetts Institute of Technology. W laboratorium Xeroxa został specjalistą ds. technologii sieciowych.

WYNALAZEK: "Chcieliśmy podłączyć się do minikomputerów wpiętych do ARPANET-u, a jednocześnie dzielić pliki i drukarki. Potrzebowaliśmy rozwiązania, które pozwoliłoby połączyć setki komputerów w całym budynku" - mówi R. Metcalfe, który w 1973 r. samodzielnie opracował podstawy rozwiązania sieci lokalnych i nazwał je Ethernet. Pomysł zrodził się wcześniej. W swojej pracy doktorskiej w Uniwersytecie Stanforda przedstawił matematyczne podstawy teorii przełączania pakietów, wykorzystane później m.in. przez Vintona Cerfa przy tworzeniu protokołu TCP/IP. Pierwsze prototypy sieci Ethernet pozwalały na transmisję na poziomie 2,94 Mb/s na odległość nie większą niż 1 km. Ethernet wprowadził pojęcie "nasłuchiwania" sieci przed wysłaniem danych, co miało ograniczyć kolizję transmisji.

Idea sieci lokalnej szybko zyskała aprobatę, Ethernet jednak upowszechnił się dopiero wtedy, gdy stał się standardem otwartym. "Intel chciał sprzedawać procesory, Xerox drukarki, a DEC minikomputery. Żadna z nich nie myślała o zarabianiu pieniędzy na sieci, dlatego uczynienie z Ethernetu otwartego standardu nie było dla nikogo ryzykowne" - tłumaczy R. Metcalfe. Po pewnych zmianach, specyfikacja przedstawiona przez trzech producentów została zaakceptowana przez komitet IEEE.

Z PERSPEKTYWY: "Ethernet był wspornikiem Internetu. TCP/IP i Ethernet powstały w tym samym roku i razem się rozwijały. Jeżeli chodzi o stronę biznesową, Ethernet udowodnił, że stosowanie przez firmy otwartych standardów nie ogranicza możliwości zarabiania pieniędzy" - mówi R. Metcalfe. Dodaje, iż żałuje tylko, że w 1980 r. nie udało mu się namówić IBM do stosowania Ethernetu zamiast technologii Token Ring. "IBM był ówczesnym Microsoftem - wspierał głównie swoje rozwiązania. Jednak tę bitwę ostatecznie przegrał" - dodaje.

James Gosling

INSPIRACJA: Był rok 1990. James Gosling wraz z kilkoma programistami zatrudnionymi w Sun Microsystems przekonał zarząd firmy, aby pozwolił im zająć się ambitnym, chociaż bliżej nie doprecyzowanym, projektem systemów rozproszonych. "Chodziło nam o urządzenia niezależne od platformy, które można by sprzedać telewizjom kablowym, producentom telefonów lub popularnej elektroniki" - tłumaczy J. Gosling.

Początkowo grupa pracowała nad urządzeniami podobnymi do dzisiejszych komputerów Palm. Później, we współpracy z zależną od Suna firmą First Person, nad przystawkami do telewizji kablowej. Efektem prac miały być urządzenia, umożliwiające budowanie modnej wówczas sieci telewizji interaktywnej. Niestety, ze względu na kłopoty ze sprzętem i ograniczenia finansowe produkty te nigdy nie ujrzały światła dziennego. Przetrwał jedynie język programowania, opracowany przez J. Goslinga na potrzeby projektu.

WYNALAZEK: Już we wczesnej fazie prac stało się oczywiste, iż używany powszechnie język C++ nie spełniał założeń projektu. James Gosling postanowił stworzyć własny język programowania, który wstępnie określił mianem Oak. Nowy język, choć w dużej mierze bazował na dorobku C++, nie powielał jego wad - był uporządkowany, bezpieczny i z założenia dedykowany dla rozwiązań sieciowych. "To był rzeczywiście pierwszy język zaprojektowany z myślą o zastosowaniach sieciowych" - mówi Gosling. "Z drugiej strony, było to jedynie wygodne narzędzie, opracowne wyłącznie na użytek naszego projektu" - dodaje. Tak powstała Java.

EFEKT: W 1993 r. nikt nie miał wątpliwości, że kontrakt z Time Warner, na który liczyli przedstawiciele Sun Microsystems, nie dojdzie do skutku. Zamiast działającego produktu dla telewizji interaktywnej, First Person opracowała jedynie egzotyczny język programowania. Przebudzenie nie przyszło w jednej chwili. Po kilkutygodniowym zastanowieniu zespół Goslinga zaproponował, aby wprowadzić Javę na rynek jako język dla aplikacji internetowych. Jak się okazało, pomysł był strzałem w dziesiątkę. J. Gosling twierdzi, że nigdy nie zachwycał się możliwościami Javy. "Przecież zostały zaprogramowane" - mówi. "Nie wiedziałem jednak, że w tak krótkim czasie ludzie zrobią z Javą tak nieprawdopodobne rzeczy" - dodaje.

Java dała programistom coś, o czym marzyli od dawna, a czego C i C++ nie mogły im zaoferować: możliwości tworzenia kodu, który można uruchomić na każdym systemie operacyjnym, wyposażonym w wirtualną maszynę Javy. "Kiedyś programiści dzielili się na podstawie narzędzi, których używali. Java zwiastuje koniec tej ery" - przepowiada James Gosling.

James Gosling, oprócz Javy, ma na koncie wiele osiągnięć. Był m.in. szefem projektu słynnego edytora tekstu EMACS dla systemów Unix. Jest także autorem kilku kompilatorów, systemów zarządzania interfejsem okienkowym i programów pocztowych.

Daniel Bricklin

INSPIRACJA: Pod koniec lat 70. pojawiły się pierwsze programy do edycji tekstu, umożliwiające użytkownikom nie znającym zasad programowania dokonywanie zmian w tekście wyświetlanym na ekranie komputera. Świat cyfrowy był jednak nadal daleki od interaktywności. Mimo że w szkołach biznesu zachwalano zalety analizy symulacyjnej, zastosowanie jej w praktyce było technicznie trudne. "Aby to zrobić na komputerze typu mainframe, trzeba było wprowadzić jeden zestaw liczb, poczekać na wynik, a następnie wprowadzić kolejny zestaw. Nie o taką interaktywność chodziło" - mówi Daniel Bricklin, który po ukończeniu studiów w Uniwersytecie Harvarda i w MIT podejmował się różnych zajęć programistycznych - od tworzenia edytora tekstu dla Digital Equipment, po opracowywanie gier i symulatorów lotu.

WYNALAZEK: Po studiach D. Bricklin nabrał przekonania, że rolą komputerów w biznesie nie jest obróbka tekstu, a wykonywanie obliczeń. Razem z kolegą ze studiów, Bobem Frankstonem, rozpoczął prace nad stworzeniem programu obliczeniowego o takich możliwościach, które usprawiedliwiałyby początkowe wpisywanie dużej ilości danych. "Najtrudniejsze było zaprojektowanie interfejsu. Uznałem, że musi być prosty - stąd wzięły się cyfry w wierszach i litery w kolumnach. Zwracaliśmy też dużą uwagę na formatowanie" - mówi Daniel Bricklin. Tak powstał VisiCalc - pierwszy, przełomowy arkusz kalkulacyjny dla komputerów PC.

VisiCalc szybko zdobył ogromną popularność. "Ludzie uświadomili sobie, że to narzędzie może diametralnie zmienić świat liczący «na piechotę»" - wspomina D. Bricklin. Don Eastridge, twórca sukcesu komputerów PC, zrozumiał to od razu. Doskonale zdawali sobie z tego sprawę również Steve Jobs i jego kolega Steve Wozniak, którzy uruchamiali właśnie produkcję komputerów osobistych Apple II. VisiCalc, kosztujący wówczas 100 USD, okazał się motorem napędowym sprzedaży komputerów osobistych.

Z PERSPEKTYWY: Założona przez D. Bricklina firma Software Arts nie nadążała z dostosowywaniem programu VisiCalc do rosnących wymagań rynku, dlatego po kilku latach przewodnim produktem stał się arkusz firmy Lotus (1-2-3). Ten z kolei został wyparty z rynku przez najpopularniejszy obecnie Microsoft Excel.

Software Arts zbankrutowała, a D. Bricklin rozpoczął pracę jako konsultant w Lotusie. Długo tam jednak nie pozostał. Wkrótce założył Software Garden, znaną z programu demo-it!, sprzedanego później firmie Peter Computing.

Arkusz kalkulacyjny VisiCalc dokonał jednak przełomu w sposobie wykorzystania informatyki w przedsiębiorstwach. Jego twórcy zauważyli potrzeby ludzi, których dzisiaj nazywa się końcowymi użytkownikami, co miało fundamentalne znaczenie w przypadku dalszego rozwoju oprogramowania.

Ray Ozzie

INSPIRACJA: W 1979 r. podczas studiów w Uniwersytecie Illinois Ray Ozzie wraz z kolegami zachwycał się możliwościami komputerowego systemu nauczania Plato. System, na który składał się potężny mainframe z 10 tys. terminali, oferował jak na owe czasy oszałamiające możliwości: pogawędki w czasie rzeczywistym, prostą pocztę elektroniczną. Miał także funkcję group notes.

Po ukończeniu studiów R. Ozzie i jego koledzy trafili do firm z branży informatycznej, zajmujących się wówczas głównie przetwarzaniem danych. "Zastanawialiśmy się, dlaczego ludzie nie używają komputerów do tego, do czego zostały one stworzone" - mówi Ray Ozzie. "Chciałem zbudować system, którego istotą byłyby ludzkie interakcje. Byłem za młody, aby wiedzieć, że system taki przydałby się również w biznesie" - wspomina.

R. Ozzie zaczął projektować własny system jeszcze podczas pracy w prowadzonej przez Daniela Bricklina firmie Software Arts, która opracowała pierwszy na świecie arkusz kalkulacyjny. Gdy w 1983 r. przechodził do Lotus Development, miał już biznes- plan: chciał założyć własną firmę. Okazja nadarzyła się po zakończeniu prac nad arkuszem kalkulacyjnym Symphony. Fundusze venture capital nie były chętne do sfinansowania przedsięwzięcia. Zapał wizjonera Ozzy'ego zrozumiał Mitch Kapor, ówczesny prezes Lotusa. Postanowił zainwestować w stworzoną przez R. Ozzy'ego firmę Iris Associates ponad 1 mln USD.

WYNALAZEK: Po pięciu latach Iris Associates wprowadziła produkt o nazwie Notes - graficzne środowisko, umożliwiające współdzielenie dokumentów i komunikację w sieci, zarówno online, jak i offline. W 1989 r. interfejs graficzny znany był głównie w środowisku DTP, a sieci używano jedynie do współdzielenia plików i drukarek. Dane były przechowywane w bazach relacyjnych, tymczasem Notes bazował na danych niestrukturalnych, tak zorganizowanych, by zapewnić użytkownikom maksimum wygody. Użytkownicy mogli tworzyć własne bazy danych dokumentów i dzielić je z innymi współpracownikami "To miało być prawdziwe narzędzie współpracy" - mówi Ray Ozzie.

EFEKT: Lotus Notes pojawił się na rynku w atmosferze zmian zachodzących w korporacjach i w wielu przypadkach stał się częścią procesu reengineeringu. "Nie zdawaliśmy sobie sprawy z tego, jak bardzo użytkownikom zależy na dostosowywaniu środowiska do własnych upodobań. Z początku narzędzia te zapewniały wyłącznie wygodę programistom" - przekonuje R. Ozzy.

Mimo że rozwój Internetu nieco przesłonił sukces Notes, jest on nadal pakietem komunikacyjnym najchętniej kupowanym przez korporacje i pozostaje najważniejszym produktem Lotusa. "Lotus Notes umożliwił komunikację wewnątrz i na zewnątrz przedsiębiorstw" - mówi R. Ozzy. Z oprogramowania Lotus Notes korzysta dziś ok. 30 mln użytkowników w 10 tys. firm na całym świecie.