Megatrendy dzisiaj

Rozwój technologii informacyjnych można traktować jako zbiór idei powtarzających się w różnych okresach, niczym na wznoszącej się spirali coraz wyższych poziomów zaawansowania. Decydujące znaczenie dla tego rozwoju ma kilka najważniejszych trendów.

Rozwój technologii informacyjnych można traktować jako zbiór idei powtarzających się w różnych okresach, niczym na wznoszącej się spirali coraz wyższych poziomów zaawansowania. Decydujące znaczenie dla tego rozwoju ma kilka najważniejszych trendów.

Jedną z ważniejszych publikacji prognostycznych lat 80. ub.w. była książka Johna Naisbitta "Megatrendy". Utrzymywała się przez 60 tygodni na liście bestsellerów "New York Timesa". Dziś, ćwierć wieku później, wiele spostrzeżeń doradcy Białego Domu nadal pozostaje aktualnych, a mimo że były formułowane dla społeczeństwa amerykańskiego, sprawdza się także w kolejnych krajach, zyskując walor uniwersalności. Charakterystyczne, że wśród "dziesięciu nowych kierunków zmieniających nasze życie" (ten new directions transforming our lives), na pierwszym miejscu autor wymienił "megazwrot": od społeczeństwa przemysłowego do informacyjnego. Warto zatem zastanowić się, jakie megatrendy da się wyodrębnić dzisiaj w tym konkretnym obszarze.

Spośród wielu tendencji charakteryzujących rozwój IT, cztery wydają się być najistotniejsze: miniaturyzacja, sieciowość (networking), wirtualizacja i mobilność. Dlaczego akurat te? I co z innymi, takimi jak rosnąca funkcjonalność systemów komputerowych (przyjazność dla użytkownika, user friendly), coraz większa szybkość przetwarzania danych czy dążenie do efektywności ekonomicznej, tak aby technologie były, co najmniej relatywnie, coraz tańsze?

Specyfika informacji

Ostatnie z wymienionych tu tendencji mają charakter metatrendów, uniwersalne wręcz znaczenie dla każdej technologii - bo każda ma służyć człowiekowi i każda musi być coraz lepsza. Podobnie jest w sferze IT - to oczywiste, że chcemy, aby urządzenia elektroniczne były coraz bardziej "inteligentne" i przetwarzały coraz większe ilości danych w coraz krótszym czasie. Natomiast cztery wymienione na początku trendy związane są z właściwościami samej informacji, w szczególności jej niematerialnym charakterem (w odniesieniu do wąsko rozumianej materii, reprezentowanej przez fizyczne obiekty, charakteryzujące się masą czy parametrami energetycznymi).

Miniaturyzacja postępuje zatem nie tylko dlatego, że jest pożądana i technicznie możliwa, ale również z uwagi na brak granicy, poza którą nie miałaby sensu. Inaczej jest w realnym świecie "cegieł i zaprawy" (bricks and mortar) - np. w motoryzacji czy budownictwie granicą miniaturyzacji są wymiary produktów (auto, dom), wynikające z ludzkiej biometrii. W technologii IT owe antropomorficzne zależności występują jedynie na złączu człowiek-maszyna i dotyczą urządzeń wejścia/wyjścia, np. rozmiary klawiatury czy monitora. Dlatego nadal będzie działać prawo Moore'a, zgodnie z którym w okresie niemal czterech dekad nastąpiło "zagęszczenie" liczby układów scalonych na czipie o sześć rzędów wielkości: od kilkuset do kilkuset milionów (410 mln w Itanium-2). Jednocześnie przeszliśmy niepostrzeżenie od mini- i mikroinformatyki do obszaru nanotechnologii, osiągając minimalny wymiar technologiczny 0,065 mikrona, czyli 65 nanometrów dla następcy Pentium-M - Preslera.

Tym samym pokonaliśmy wielokrotnie "nieprzekraczalne" bariery, za którymi miał nastąpić chaos efektów kwantowych, powodujących utratę kontroli nad logiką przetwarzania danych w układzie scalonym. Najpierw tą granicą miało być 0,25 mikrona (250 nanometrów), potem obniżono ją do 150 nm i wreszcie do 100 nm. Nie ma powodów, aby przypuszczać, że "gruboziarnistość" elektronu zablokuje w końcu postępy miniaturyzacji. Już dziś w laboratoriach tworzone są zręby następczyni elektroniki - spinotroniki, wykorzystującej wewnętrzne właściwości elektronu, czyli jego spin (moment pędu). W ten sposób może dokonać się przejście od nano- do pikoelektroniki.

Następny megatrend IT, paradygmat sieciowości, widać wyraźnie także w wymiarze lokalnej konfiguracji komputerowej, zarówno w skali makro (połączenia między wszystkimi elementami całej konfiguracji), jak i mikro (połączenia między elementami układu scalonego). W kolejnych fazach rozwoju IT można wyróżniać następujące etapy: najpierw wzrost indywidualnych możliwości urządzeń, a następnie łączenie się ich w sieci.

W ten sposób po powstaniu pierwszych komputerów w latach 40. i 50., zaczęto je łączyć w sieci w latach 60. (4 węzły w amerykańskiej sieci ARPA w roku 1969). Podobne zjawisko można było zaobserwować wśród komputerów osobistych, które najpierw "poprawiały" swoją indywidualną wydajność (lata 70.), aby następnie "łączyć się" w sieci lokalne (lata 80.) i globalne (lata 90.), przechodząc od klasycznego PC do terminala sieciowego NC (Network Computer).

Sieciowa podłoga

Obecnie podobny proces obserwujemy w obszarze mobilnych urządzeń elektronicznych, a w bliskiej przyszłości wystąpi on w związku z rozpowszechnieniem etykietek RFID. Wiąże się to z rozwojem małych urządzeń elektronicznych wyposażonych w transpondery, czyli miniurządzenia zdolne do wysyłania i odbioru sygnałów (transmitter-responder), a także dysponujące własną pamięcią (choćby jednobitową). Zaawansowane transpondery wyposażone są w pamięci ROM i RAM, posiadają własną logikę sterowania, w szczególności mikroprocesor. Mogą być zatem strukturalnie postrzegane jako prosty komputer i być pełnoprawnym składnikiem sieci teleinformatycznych.

Już dziś, za sprawą znaczników RFID, znajdziemy transpondery w towarach zabezpieczanych przed kradzieżą (EAS, Electronic Article Surveillance), w systemach magazynowych (palety), różnego rodzaju kartach chipowych (kontrola towarów i osób), systemach logistycznych (identyfikacja i lokalizacja pojazdów), a nawet umieszczone w zegarkach czy odzieży dla zarządzania personelem produkcyjnym. Przykładem zastosowania tych urządzeń dla tworzenia nowego rodzaju mikroinfrastruktury produkcyjnej są tzw. inteligentne podłogi (Infineon Technologies), gdzie bezprzewodowe znaczniki umożliwiają automatyczną nawigację robotom transportowym, zastępując klasyczne wózki indukcyjne.

W sieci zaczynają się łączyć również roboty, zarówno te hardware'owe jak i software'owe (technologie agentowe). Robot przyszłości będzie zatem także robotem sieciowym - połączony z Internetem będzie dysponował zawsze najnowszym oprogramowaniem i aktualną wiedzą całej sieci. Może to być mu pomocne w tworzeniu indywidualnej mapy przestrzeni, niezbędnej do wykonywania zleconych zadań. Weryfikując swoje położenie, napotykając przeszkody czy zagrożenia, robot nie będzie sam. Będzie mógł korzystać z potężnych baz informacji, zawierających np. dane o najnowszych modelach pralek, które ma obsługiwać, o topografii gruntu, po którym się porusza, czy topologii wszelkiego rodzaju niewidocznych instalacji.

Informatyczna sieciowość, połączona z mobilnością, ma także swój wymiar organizacyjny. Oznacza przechodzenie od klasycznych, funkcyjnych organizacji hierarchicznych do zorientowanych procesowo struktur sieciowych, zarówno w wymiarze przedsiębiorstwa, jak i globalnym, prowadząc w efekcie do fenomenu ekonomii sieciowej (network economy). W obszarze bazodanowym także już dawno przeszliśmy od liniowych czy hierarchicznych baz danych do standardów sieciowych, przy czym sztywna sieciowość CODASYL-owska (COnference on DAta SYstems Languages) została zastąpiona bardziej elastyczną - relacyjną, a ta z kolei poszerzana jest o wymiar obiektowości (object oriented).

Rzeczywista i wirtualna

I wreszcie najbardziej "informacyjny" z wymienionych trendów: wirtualizacja. Mamy tu do czynienia z fascynującym zjawiskiem zastępowania materii informacją. Odbywa się to na drodze wyizolowania w konfiguracji systemowej warstwy fizycznej i logicznej. Powszechnie znanym przykładem takiego mechanizmu jest przyporządkowanie grupie dysków ich logicznego odpowiednika, co jest także podstawą systemów RAID (Redundant Array of Independent Disks). W sferze bazodanowej grupie relacyjnych tabel można przyporządkować jedną tabelę wirtualną będącą ich projekcją (view).

Szczególnie w rozbudowanych systemach informatycznych, wirtualizacja podnosi efektywność zarządzania heterogenicznym środowiskiem wieloserwerowym, co wymaga stosowania specjalnego oprogramowania dla żądanej abstrakcji zasobów. Innym zastosowaniem wirtualizacji są wirtualne pamięci lub emulatory. Możliwe jest tu również stosowanie całych maszyn wirtualnych (virtual machine), czyli oprogramowania instalowanego na platformie fizycznej w celu stworzenia określonego środowiska uruchomieniowego dla aplikacji ("Rootkit ex machina", Computerworld nr 13/2006).

Najważniejszy program każdego komputera - system operacyjny - też może być postrzegany jako rozszerzenie sprzętu, czyli jego wirtualizacja. W końcu przed skonstruowaniem UNIVAC-a (1951 r.) komputery były przede wszystkim sprzętem, czyli maszynami obsługiwanymi ręcznie przez człowieka z zewnątrz. Tak działał przekaźnikowy MARK I, sterowany taśmą papierową (1944 r.) czy legendarny ENIAC, programowany tablicami połączeń. Dziś mamy także wirtualne klawiatury, które można uaktywniać wszędzie (w razie potrzeby nawet na kolanie), gdzie klawisze są jedynie refleksami świetlnymi wyświetlanymi na niemal dowolnej powierzchni. Z kolei wirtualne monitory wykorzystują oko ludzkie jako część układu optycznego - rzutując bezpośrednio na nie obraz z okularu-obiektywu. Są już wirtualne sklepy, organizacje, przedsiębiorstwa i wirtualna rzeczywistość (virtual reality).

W tym ostatnim przypadku mamy do czynienia z procesem towarzyszącym całemu rozwojowi ludzkości. Wirtualizacją rzeczywistości było pismo obrazkowe, naturalistyczne malarstwo, czy nasz język naturalny. Technologie komputerowe jedynie potęgują możliwości tego trendu. Współczesna rzeczywistość wirtualna jest nadal symulacją, w której zawsze wiemy, że odbierane przez nas wrażenia są symulowane. Wrażenia te będą symulowane coraz doskonalej i intensywniej, aż do momentu kiedy przekroczymy granicę, za którą nasz mózg nie będzie w stanie odróżnić rzeczywistości naturalnej od symulowanej. Wirtualność stanie się w tym momencie tak samo realna jak rzeczywistość.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200