Rewolucja w Internecie ?

Podstawą działania Internetu jest protokół komunikacyjny IP (Internet Protocol). Obecnie używana jest jego czwarta wersja (IPv4) i budzi ona coraz większe zastrzeżenia. Od dłuższego czasu trwa dyskusja o nowym, pozbawionym błędów obecnej wersji i lepiej dostosowanym do wymagań przyszłości protokole, nazywanym IPng - Internet Protocol/new generation.

Podstawą działania Internetu jest protokół komunikacyjny IP (Internet Protocol). Obecnie używana jest jego czwarta wersja (IPv4) i budzi ona coraz większe zastrzeżenia. Od dłuższego czasu trwa dyskusja o nowym, pozbawionym błędów obecnej wersji i lepiej dostosowanym do wymagań przyszłości protokole, nazywanym IPng - Internet Protocol/new generation.

Błędy przeszłości

Zbyt mała przestrzeń adresowa. 32-bitowy adres oznacza, że teoretycznie w Internecie może pracować ponad 4 mld komputerów. W praktyce jednak coraz trudniej "dostać" pulę numerów odpowiadającą potrzebom większych sieci bądź instytucji. Wynika to ze sposobu podziału na klasy (A, B, C) i niemożliwości elastycznej gospodarki numerami.

Kłopotliwe łączenie sieci lokalnych z Internetem .W przypadku sieci lokalnych korzystających z protokołu IP administrator może dowolnie ustalać numery poszczególnych komputerów i dostosować ich podział do logicznego bądź fizycznego rozkładu sieci. Problemy zaczynają się, gdy stosujemy połączenie sieci lokalnej z Internetem - każdy komputer może przecież mieć tylko jeden numer i musi on być unikalny w skali światowej. Nie dość, że trzeba (zazwyczaj ręcznie) zmieniać dotychczasowe numery komputerów, tablice routingowe, to trzeba także często instalować na nowo większość oprogramowania. Przemnóżmy liczbę komputerów w sieci przez liczbę programów na każdym z nich - i mamy już pewność, że jest to operacja, która prowadzi do powstania wielu błędów.

Przerośnięte tablice routingowe. W dawnych czasach każdy węzeł Internetu otrzymywał codziennie listę wszystkich innych węzłów - ich numerów i nazw. Co prawda niezwykle ułatwiało to ustalanie drogi pakietów przesyłanych do dowolnego komputera, ale wraz ze wzrostem liczby węzłów sieci szybko prowadziło do sytuacji, gdy głównym zajęciem komputerów i routerów było przesyłanie listy adresowej. Dziś obowiązuje system DNS (Domain Name Server), który umożliwia znacznie rozsądniejsze zarządzanie nazwami i adresami, ale wydłuża czas odnalezienia właściwej drogi do przesyłanych informacji.

Problemy z bezpieczeństwem pracy. Problemy te wynikają raczej z chaotycznej struktury sieci, a nie z rozwiązań technicznych, ale nie mogą być pominięte, jeśli Internet ma służyć "poważnym" zastosowaniom. Brak jest standardowych rozwiązań dobrze chroniących przesyłane dane, mechanizmów automatycznego szyfrowania transmisji między określonymi węzłami, pełnej i wiarygodnej autentyfikacji nadawcy informacji. Oczywiście każdy może zabezpieczać się na własną rękę, ale znacznie lepiej byłoby, gdyby było to wbudowane w system.

Nowe wymagania

Tworzenie wydzielonych grup roboczych. Obecnie gdy chcemy wysłać informację do jakiejś grupy użytkowników sieci, musimy wielokrotnie nawiązywać połączenia i przesyłać dane osobno do każdego odbiorcy. Z wielu względów wygodnie byłoby, gdyby istniała możliwość jednoczesnej transmisji i sam system troszczyłby się o prawidłowe rozprowadzenie danych.

Nowe formaty danych i nowe rozwiązania techniczne .W zależności od rodzaju i przeznaczenia danych zmieniają się wymagania dotyczące szerokości pasma transmisji i jego jakości. Przy przesyłaniu poczty elektronicznej, tekstów itp. nie jest szczególnie istotne, co dzieje się "po drodze" - ważne, by dane dotarły do nas poprawnie w skończonym czasie. Jeśli jednak przesyłamy np. mowę, która ma być odbierana na bieżąco, to wymagania rosną - nadal wystarczają niewielkie prędkości, ale, nawet bardzo krótkie "przestoje" są niedopuszczalne - mowa staje się wtedy nieczytelna. Jeszcze gorzej, gdy mamy do przesłania pełny sygnał wideo - wymagane jest bardzo szerokie pasmo transmisji, ciągłe połączenie i nie można "zgubić" nawet pojedynczej klatki (po prostu tracimy wtedy synchronizację obrazu).

Istnieją już rozwiązania sprzętowe dostosowane do takich wymagań - np. sieci oparte na standardzie ATM (Asynchronuous Transfer Mode), które dysponują zarówno dostateczną szybkością, jak i mechanizmami pozwalającymi na zarezerwowanie sobie na czas trwania przekazu pasma o odpowiedniej szerokości i jakości.

W ostatnim czasie, wraz z upowszechnieniem się komputerów przenośnych i telefonii komórkowej, rośnie znaczenie sieci bezprzewodowych - w niektórych państwach planowane jest nawet powstanie struktur pokrywających cały obszar kraju, opartych bądź na sieci nadajników naziemnych bądź satelitarnych. Internet powinien się dostosować również do takich nowinek.

Propozycje rozwiązań

Nowy standard protokołu IP jeszcze nie istnieje, ale wydaje się, że zgłaszane propozycje są zbieżne. Wymieńmy główne postulaty:

64-bitowa przestrzeń adresowa - tak, by nie powtórzyła się sytuacja z brakiem wolnych numerów.

Hierarchiczna struktura adresów - powinno to zdecydowanie ułatwić adresowanie pakietów, odciążyć routery i pozwolić na swobodną gospodarkę nazwami i adresami komputerów wewnątrz sieci lokalnych włączonych do Internetu.

Automatyczna translacja adresów - zarówno między "starymi" i "nowymi" adresami Internetowymi, jak i między adresami w sieci lokalnej oraz adresami widocznymi na zewnąrz. Zlikwiduje to konieczność przeinstalowywania oprogramowania i adaptacji go do nowego systemu numeracji.

Obsługa nowych rozwiązań sieciowych (ATM, Frame Relay, Cell Relay) - tak, by można było wprowadzić standardowe metody i narzędzia do przesyłania sygnałów takich jak dźwięk i wideo.

Bezpieczne łącza, pełna autentyfikacja nadawców informacji - systemowe, globalne rozwiązanie tego problemu powinno przyciągnąć do Internetu instytucje, dla których wiarygodność przekazu i jego niezaprzeczalność są bardzo ważne - banki, instytucje finansowe, sieci sprzedaży wysyłkowej itp.

Transmisje typu multicast - adresowane do wielu odbiorców i przesyłane jednocześnie, bez niepotrzebnego obciążania sieci.

Możliwość korzystania ze stacji przenośnych i łączy bezprzewodowych - podkreślam, że nie chodzi tu o konkretne rozwiązania techniczne - te już istnieją, ale o wprowadzenie standardów, pozwalających np. na podłączenie swojego notebooka do sieci zarówno w Australii, jak i w Polsce i korzystanie zawsze z jednego numeru oraz nazwy stacji. Przewiduje się także obsługę urządzeń typu personal communicator - połączenia telefonu komórkowego i komputera.

Komu to służy?

Dla większości użytkowników Internetu tych, którzy korzystają z połączeń modemowych lub pracują w sieci lokalnej przyłączonej do Internetu, wprowadzenie nowego protokołu IP nie będzie miało żadnego znaczenia. Zmianę wymusili administratorzy sieci, przede wszystkim w dużych firmach i przez organizacje zajmujące się budową szkieletowej sieci Internetu. Bardzo ważnym argumentem za akceptacją IPng może stać się planowane uznanie go przez ISO za oficjalny, międzynarodowy standard.

Prawdopodobnie wprowadzanie IPng nastąpi "od góry", czyli najpierw zastąpi on IPv4 w sieciach szkieletowych, później w gateway'ach i routerach łączących sieci lokalne z Internetem, a zmiany wewnątrz sieci lokalnych bądź następowały przy okazji wymiany sprzętu lub oprogramowania. Proces ten można porównać do wymiany łącz telefonicznych na cyfrowe, oparte na światłowodach - wiadomo, że jest on potrzebny, że postępuje, czasem nawet są widoczne jego skutki - łatwiej się dodzwonić i jakość rozmów jest lepsza, ale zwykły użytkownik nie ma z tym nic wspólnego.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200