Niewidzialna generacja

Generacyjność jest niewątpliwą cechą rozwoju technologii informatycznych. Od skonstruowania pierwszych komputerów, kolejne ich generacje pojawiały się w dość regularnych, mniej więcej dekadowych odstępach. Kiedy możemy oczekiwać następnej?

Generacyjność jest niewątpliwą cechą rozwoju technologii informatycznych. Od skonstruowania pierwszych komputerów, kolejne ich generacje pojawiały się w dość regularnych, mniej więcej dekadowych odstępach. Kiedy możemy oczekiwać następnej?

W momencie pojawienia się nowej, przełomowej technologii nikt nie myśli o niej w kategoriach pierwszej generacji

- ta definiowana jest dopiero z perspektywy czasowej, w chwili gdy pojawia się generacja następna. Kiedy w latach 60. zaczęto konstruować maszyny cyfrowe na tranzystorach zauważono, że technologiczny postęp uprawnia, aby mówić o nich jako o sprzęcie drugiej generacji, w odróżnieniu od technologii lampowej, która charakteryzowała generację pierwszą. Jednocześnie określono w ten sposób, co jest podstawą generacyjności komputerów

- technologia wykonania ich podstawowych składników elektronicznych. W tym samym momencie dostrzeżono, że przed lampami były przekaźniki i uzupełniono klasyfikację numerem zerowym dla urządzeń przekaźnikowych.

Można zatem powiedzieć, że w zależności od technologii użytych do budowy komputerów historycznie wyróżniamy następujące ich generacje:

- zerowa - przekaźniki programowane ręcznymi zmianami w obwodach

- pierwsza - lampy, np. ENIAC, 1946 r.

- druga - tranzystory, komputery z pierwszej połowy lat 60.

- trzecia - układy scalone (IC - Integrated Circuit) , pierwszy patent w 1959 r.

- czwarta - IC o bardzo dużym stopniu integracji (VLSI - Very Large Scale Integration), np. mikroprocesory stosowane współcześnie

Mianem komputerów piątej generacji określa się maszyny funkcjonujące na podstawie sztucznej inteligencji (AI - Artificial Intelligence). W praktyce zrealizowano fragmenty tej koncepcji, zapoczątkowane japońskim projektem w powołanym do tego celu instytucie ICOT (Institute for New Generation Computer Technology, 1982 r.).

Czasami, zamiennie z terminem "szósta generacja", mówi się też o alternatywnych i przyszłościowych technologiach komputerowych (optyczne, biologiczne, chemiczne, neuronalne).

Równoległe generacje

Oczywiście, są i inne klasyfikacje, w szczególności wyróżniające podkategorie dla układów scalonych, np. ULSI (Ultra Large Scale Integration). Możliwe jest też bardziej całościowe ujęcie rozwoju IT z uwzględnieniem jego głównych fal i powtarzających się w każdej z nich faz (tab.1). Obszerny opis trzech modeli informatyki w kontekście systemów DSS (Decision Support Systems) podał Jakub Chabik w Computerworld nr 12/2006 ("Trzeci oddech informatyki").

Niewidzialna generacja

Fale i fazy rozwoju IT oraz jego prognoza

Rozważana generacyjność nie odnosi się tylko do sprzętu (komputery i coraz szybsze standardy sieci teleinformatycznych), ale równolegle objawia się również w skojarzony z nim sposób w obszarze oprogramowania:

- programowanie sprzętowe

- pierwsza - języki maszynowe (machine language), korzystające z instrukcji procesora

- druga - asemblery (assembler language), które zachowując strukturę rozkazów maszynowych korzystają z wyrażeń (nazw) symbolicznych

- trzecia - 3GL, obejmująca języki wyższego rzędu (higher programming language), tj. takie, których kod źródłowy (source) może być przenoszony na inne procesory (po kompilacji), w szczególności należą do nich języki imperatywne (imperative language), z najstarszym ich przykładem - Fortranem (1957 r.)

- czwarta - języki 4GL, w odróżnieniu od 3GL mają (założenie teoretyczne) charakter nieproceduralny, tj. dostępną użytkownikowi warstwę projektowania logiki aplikacji i generowaną przez narzędzie warstwę sterowania (proceduralną). Przykładem środowiska 4GL może być zestaw SQL-owo zorientowanych narzędzi Oracle (Forms/Reports). Niekiedy mianem 4GL określa się pakiety CASE (Computer Aided Software Engineering), względnie języki post-3GL, np. obiektowe

- piąta - języki stosowane w obszarze inteligentnych systemów wiedzy IKBS (Intelligent Knowledge Based System)

Podobne zależności odnajdziemy też równolegle w sferze inżynierii software'owej (paradygmat strukturalny, obiektowy) czy generacji baz danych:

- zerowa (pliki, brak bazy danych)

- pierwsza (model liniowy)

- druga (model hierarchiczny)

- trzecia (model sieciowy)

- czwarta (model relacyjny)

- piąta (modele postrelacyjne, obiektowe, niestandardowe)

Cykle generacji

Generacyjność informatycznego rozwoju związana jest z jego cyklicznością, którą można znaleźć w każdej dziedzinie ludzkiej działalności. Cykliczność rozwoju gospodarki jest dobrze znana co najmniej od czasów Clementa Juglara, notabene francuskiego lekarza, który opublikował swoją teorię wahań koniunkturalnych ok. półtora wieku temu. Klasyczny cykl koniunkturalny (kryzys, depresja, ożywienie, rozkwit) trwa kilka lat i można zaobserwować go także współcześnie. Oczywiście cykliczność jest zaburzona, m.in. wskutek interwencjonizmu państwowego, amplituda wahań jest spłaszczona, niemniej samo zjawisko jako cecha systemów gospodarczych czy technicznych występuje. Co ciekawsze, obok cyklów krótszych, występują też znacznie dłuższe:

- cykle Kitchina: 3-4 lata

- cykle Juglara: 7-10 lat

- cykle Kondratiewa: 45-60 lat

- cykle Ewijka: 140-180 lat

Jak może przebiegać taki cykl? Przyjmijmy, że kryzys jest jego początkiem. Wówczas rośnie gotowość do podjęcia ryzyka i przechodzenia na nowe technologie, które mają gwarantować wyższą efektywność (stare już się zużyły). "Ssanie" technologiczne ze strony rynku owocuje nowymi wynalazkami i ideami. A to jest właśnie zmiana obowiązujących paradygmatów. Później następuje faza nasycenia, wreszcie kolejny kryzys i kółko się zamyka. Gdzie jesteśmy obecnie?

Koniec II wojny światowej przyjmuje się za przełom między trzecim i czwartym cyklem Kondratiewa. Druga część kończącego się czwartego cyklu (recesja) zaczęła się w latach 70. Należy podkreślić, że mówimy tu o zależnościach globalnych, a nie o relacji lokalnej - w czasie i przestrzeni czy sytuacji np. poszczególnych państw. Niemniej możemy przyjąć, że właśnie wkraczamy w piąty cykl Kondratiewa, co wskazywałoby na pojawienie się bardzo istotnych przełomów technologicznych w ciągu najbliższych kilku czy kilkunastu lat. Z kolei, trwający obecnie, superdługi cykl Ewijka zaczął się w okresie I wojny światowej. Jego druga część rozpoczęła się mniej więcej w latach 70. Wynikałoby z tego, że kolejnego przełomu cywilizacyjnego możemy oczekiwać w latach 2040-2060.

Las pełen drzew

Tyle, jeśli chodzi o trudną sztukę prognozowania. Pytanie jednak brzmi: czy aktualny stan informatyki to ciągłe "dreptanie w miejscu", czy też mamy już dziś do czynienia z przełomowymi technologiami, a jeśli tak, to z jakimi? W końcu od dziesięcioleci używamy tych samych "scalaków", tyle że coraz gęściej upakowanych. Poczciwe PC z monitorem i klawiaturą mają się dobrze. W użyciu nadal są jedne z pierwszych języków programowania: od Cobola do RPG. Więc może przyjdzie nam jeszcze długo poczekać na tę naprawdę nową generację superinteligentnych urządzeń optyczno-kwantowo-chemiczno-biologicznych? Pewnie tak, ale i dzisiaj postęp jest intensywny - czy byłyby to jednak tylko zmiany ilościowe?

Niekoniecznie, choć niemal w każdej chwili powstają nowe technologie, z których tylko niewiele przebrnie długą drogę "od pomysłu do przemysłu", stając się cywilizacyjnym standardem. Problem polega też na trudności obiektywnej oceny aktualnych procesów, których sami jesteśmy częścią "tu i teraz". Jesteśmy trochę w sytuacji wędrowca, który widzi wokół pojedyncze drzewa, ale nie zauważył, że się znalazł w lesie! Tymczasem jesteśmy właśnie zanurzeni w nowej, niewidzialnej generacji IT i dopiero z perspektywy czasowej nadamy jej nazwę czy numer. Gdzie zatem jest ten nowy paradygmat i w czym się objawia? Przede wszystkim nie musimy go szukać tylko w nowych, pojedynczych technologiach i cząstkowych rozwiązaniach. Te same procesory, programy czy lokalne bazy danych przestały działać w sposób izolowany i intensywnie ze sobą współpracują - coraz bardziej autonomicznie (technologie agentowe). Nowa jakość, o której mowa, wynika w znacznej mierze z systemowych efektów, nowego wykorzystania wcześniej znanych rozwiązań, które na naszych oczach łączą się ze sobą, tworząc zupełnie nowe możliwości. Cechą tej nowej generacji jest m.in. potęgująca się sieciowość (networking), wykraczająca poza klasycznie rozumiany Internet i integrująca kolejne klasy urządzeń i aplikacji we wszech sieci (evernet).

Następnych generacji w informatyce nie należy szukać tylko w nowych, pojedynczych technologiach. Nowa jakość wynika w znacznej mierze z efektów systemowych, nowego wykorzystania wcześniej znanych rozwiązań. Cechą nowej generacji jest m.in. potęgująca się sieciowość, wykraczająca poza klasycznie rozumiany Internet i integrująca kolejne klasy urządzeń i aplikacji we wszech sieci.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200