Sieciowisko

Rozwój sieci teleinformatycznych jest podobnie dynamiczny jak całej branży IT. Ów fenomen powoduje powstawanie na naszych oczach nowego rodzaju cywilizacji, korzystającej z ''inteligentnej'' materii.

Rozwój sieci teleinformatycznych jest podobnie dynamiczny jak całej branży IT. Ów fenomen powoduje powstawanie na naszych oczach nowego rodzaju cywilizacji, korzystającej z ''inteligentnej'' materii.

Starej maksymie "dziel i rządź" odpowiada w informatyce nowa: "mnóż i łącz". Czyli "coraz więcej komputerów" i "komputery łączcie się". Tymi dwoma megatrendami można by właściwie opisać cały rozwój technologii informacyjnych. Pierwszy z nich zawsze wyprzedzał drugi. Na każdym etapie rozwoju IT najpierw pojawiały się coraz doskonalsze urządzenia techniczne, a potem łączyły się ze sobą, potęgując w ten sposób swoje możliwości. Paradygmat sieciowości widać wyraźnie w mikroskali kosmosu wewnętrznych połączeń układu scalonego (mikroprocesora) i skali makro - telekosmosu wszechplanetarnego Internetu, łączącego wszelkie, zdolne do tego, urządzenia.

"Usieciowienie" na poziomie lokalnej konfiguracji komputerowej jest czymś zupełnie oczywistym: wszystkie dyski, wewnętrzne pamięci, procesory, urządzenia wejścia/wyjścia czy urządzenia specjalizowane muszą być połączone ze sobą dla zagwarantowania normalnej pracy systemu. Natomiast w skali globalnej można by sobie wyobrazić świat, gdzie izolowane znalazłyby się w każdej klamce i cegle, ale byłby to układ statyczny, o bardzo ograniczonych możliwościach rozwoju, podobnie jak ludzkość, składająca się z wielu odrębnych jednostek niestanowiących współdziałającej społeczności.

Terabity na horyzoncie

Nie wystarczy zatem dalszy rozwój techniczny komputerowych urządzeń, którymi się posługujemy. Potrzebna jest możliwość współpracy między nimi. Z pewnością urządzenia te będą stawały się coraz bardziej inteligentne, ale to będzie też wzmagało presję na wzrost inteligencji łączących je sieci. Oczywiście, sieciowa inteligencja będzie implementowana przede wszystkim software'owo. Wymagać będzie jednak stosownej platformy hardware'owej, czyli coraz szybszych sieci o coraz większej przepustowości.

Zagregowana przepustowość sieci zależy od szybkości transferu danych przez medium. Historyczny wzrost wartości tego parametru jest wykładniczy i odpowiada prawu Moore'a, tj. podwajaniu co kilkanaście miesięcy. Podobnie jak w odniesieniu do gęstości upakowania mikroelementów na chipie (szerokości ścieżki podstawowej), mamy tu do czynienia z empirią, będącą raczej kwalifikowanym oszacowaniem niż precyzyjną formułą matematyczną.

Istotna jest przy tym identyfikacja trendu, a nie pozorna dokładność "niedokładnie" wyliczonych miejsc po przecinku. Przyjmijmy zatem jako punkt wyjścia standard transmisji szeregowej z drugiej połowy lat 60. RS-232 o szybkości 19,2 kb/s (norma RS-232C EIA w 1969 r.). Obecnie, po 40 latach, mamy standardy ethernetowe 10 Gb/s, co daje współczynnik wzrostu 500 000, czyli ok. 219, a więc podwojenie średnio co dwa lata. Przy innych założeniach, gdy na przykład weźmiemy za punkt wyjścia rozpoczęcie w 1999 r. projektu 10 Gb/s w IEEE, można oszacować długość okresu podwojenia na 18 miesięcy. Z grubsza możemy zatem powiedzieć, że szybkość sieci teleinformatycznych wzrosła milion razy w historii ich rozwoju (w 1969 r. istniały 4 węzły sieci ARPA).

Tymczasem na horyzoncie rysuje się kolejny standard Ethernetu, zgodnie z tradycją również 10 razy szybszy, czyli 100G i mamy już pierwsze prototypy tej sieci (patrz artykuł Wiesława Pawłowicza "Ethernet mierzy w 100 Gb/s", CW 9/2006). Przygotujmy się zatem na sieci terabitowe (!) w okolicach roku 2010. Choć parametry te przyprawiają o zawrót głowy, to pytanie o celowość ich poprawiania wydaje się retoryczne. Dowodem na potwierdzającą odpowiedź jest dotychczasowy rozwój teleinformatyki. A nasze potrzeby przecież ciągle rosną.

Telefonokomputery

Wzrost potrzeb jest generowany nie tylko przez stały rozwój klasycznego już "komputerowego" Internetu. Oto na naszych oczach popularne komórki stają się komunikatorami osobistymi PC (Personal Communicator) i telefonokomputerami. Nosimy je stale przy sobie, jak wcześniej zegarek, który staje się mniej potrzebny, bo "komórka" też oferuje funkcję czasomierza z budzikiem i kalendarzem. Wysyłamy przez nią SMS-y i MMS-y, robimy zdjęcia, słuchamy muzyki, chcemy kupować bilety i dokonywać płatności, a po "zadokowaniu" w samochodzie używać jako drogowego nawigatora. Podobno nawet niektórzy używają jeszcze przenośnego telefonu do... telefonowania. Ale żarty na bok, bo transmisja ludzkiego głosu to nie schody dla teleinformatyki - te zaczynają się wówczas, gdy dla milionów użytkowników trzeba transmitować np. pliki filmowe.

ĺwierć wieku temu, gdy definiowano standard ISDN 64 kb/s (jako luksus dla wybrańców), przepustowość ta miała wystarczać na długie lata. W końcu ile stron tekstu na sekundę zechcemy przesłać i kto to zdąży tak szybko przeczytać? Ba, ale informacja w trybie graficznym a nie znakowym i to taka, która nie tylko "mówi", ale i "rusza się", to już znacznie większe wyzwanie dla sieci. A przecież "w kolejce" czekają już następne usługi sieciowe. Wymieńmy tu chociażby biomonitoring, czyli automatyczną transmisję parametrów zdrowotnych organizmu, takich jak ciśnienie, EKG czy poziom cukru w przypadku diabetyków. Źródłem tych danych nie musi być mierzący puls telefon komórkowy na przegubie ręki, ale np. komputery do noszenia (wearables), zaszyte w naszej odzieży.

A przecież to tylko początek wyliczanki. Nie chodzi tu jednak o podawanie przykładów kolejnych zastosowań teleinformatyki związanych z przesyłaniem danych między ludźmi czy komputerami. Przed nami informacyjna fala tsunami, znacznie potężniejsza niż ta, której świadkami byliśmy dotąd. W końcu jest nas na Ziemi kilka miliardów. Co prawda, demonizowana do niedawna, demograficzna bomba D okazuje się raczej niewypałem (załamują się prognozy wykładniczego przyrostu naturalnego, kraje rozwijające się przejmują styl życia państw wysoko uprzemysłowionych) i należy spodziewać się nawet spadku liczby mieszkańców naszej planety w następnych dziesięcioleciach, ale bomba informacyjna będzie jednak eksplodować dalej.

Komputer w każdym kącie

Już dziś bowiem informacja o informacji, czyli generowana automatycznie, przekracza swym rozmiarem tę wytwarzaną oryginalnie przez człowieka. A każda informacja, prędzej czy później, musi znaleźć się w sieci i być przez nią przetworzona, a więc i transmitowana. A sieć "wciska się" do każdego najdrobniejszego przedmiotu w naszym otoczeniu, dosłownie do każdego guzika od koszuli. Dzieje się tak za sprawą elektronicznych radioetykietek RFID. Niezależnie od aktywnego czy pasywnego wariantu wykonania tych układów zawierają one transponder (transmitter-responder), czyli urządzenie zdolne do wysyłania i odbioru sygnałów, a także dysponujące własną pamięcią (choćby jednobitową). Zaawansowane transpondery wyposażone są w pamięci ROM i RAM, posiadają własną logikę sterowania, w szczególności mikroprocesor.

Mogą być zatem strukturalnie postrzegane jako prosty komputer i być pełnoprawnym składnikiem teleinformatycznych sieci. Już dziś znajdziemy transpondery w towarach zabezpieczanych przed kradzieżą (EAS, Electronic Article Surveillance), w systemach magazynowych (palety), różnego rodzaju kartach chipowych (kontrola towarów i osób), logistycznych (identyfikacja i lokalizacja pojazdów), w zegarkach czy narciarskich rękawicach umożliwiających przejście przez bramkę prowadzącą do wyciągu. Amerykańska agencja FDA (Food and Drug Administration) przewiduje wszczepianie mikrochipów ludziom dla zwiększania efektywności pomocy medycznej w nagłych przypadkach. W Europie od lipca 2004 r. obowiązuje unijna dyrektywa przewidująca wszczepianie transpondera każdemu psu i kotu (zwierzęta domowe mają być oznakowane do roku 2012). Podobna, dotycząca owiec i kóz, wejdzie w życie już za dwa lata. Z czasem należy spodziewać się analogicznych regulacji dotyczących także dzikich zwierząt i ptactwa, co jest niezbędne w walce z występującymi wśród nich chorobami.

Rynek transponderów, z roczną dynamiką wzrostu 30-50%, należy do najszybciej rozwijających się obszarów zastosowań technologii naszej współczesnej cywilizacji. Takie potrzeby generują wymagania w zakresie bezpieczeństwa (biometria w bankowości, paszportach czy prawach jazdy). Amerykańska sieć handlowa Wal Mart już żąda radioetykietek od swoich najważniejszych dostawców. Rewolucja czeka nas także w sferze zakupów - wkrótce kasjerki w sklepach nie będą musiały skanować osobno każdego przedmiotu, zrobią to za nie samoobsługowe kasy. Tak dzieje się już w sklepie przyszłości Future Store, szwajcarskiego koncernu Metro. Tu inteligentne są także wyświetlacze na wózkach do zakupów, regały kontrolujące ilość towarów czy wagi do owoców sprzężone z kamerami rozpoznającymi rodzaj towaru. W podobnym kierunku zmierza też brytyjskie Tesco czy francuski Carrefour.

Informatyczna ewolucja

W 1993 r. na amerykańskim MIT po raz pierwszy zaprezentowano system elektronicznego kodowania towarów EPC (Electronic Produckt Code). Dekadę później utworzono joint venture, łączące ważne gremia standaryzujące: EAN i UCC (Uniform Code Council). Pierwszy standard, 64-bitowy EPC-64, wkrótce rozszerzono do EPC-96, a to nie koniec rozwoju technologii, która ma zastąpić poczciwe kody kreskowe EAN. Celem jest znajdowanie informacji o produktach bezpośrednio w Internecie, za pomocą serwisu ONS (Object Name Service), wykorzystującego podobny do XML język PML (Physical Markup Language).

Elektroniczne i małe urządzenia elektroniczne przechodzą zatem ewolucyjny cykl w rozwoju informatycznym podobny do tego, jak opisany wcześniej dla komputerów: najpierw stają się coraz bardziej zaawansowane (inteligentne), a potem zaczynają łączyć się ze sobą w sieci. Nietrudno zauważyć, że otaczająca nas materia, naszpikowana elektroniką i zaszytą w niej logiką, sama staje się bardziej inteligentna - dzięki sieciom właśnie.


TOP 200