IP do lamusa

Internet Protocol (IP) jest reliktem zimnej wojny. W zamierzeniu twórców miał zapewnić łączność po ataku jądrowym. Udostępniony cywilom odniósł wielki, komercyjny sukces, chociaż tak naprawdę pozostaje militarnym złomem. Tymczasem protokół ATM - w przeciwieństwie do IP - zapewnia bezpieczeństwo i gwarancję jakości.

Internet Protocol (IP) jest reliktem zimnej wojny. W zamierzeniu twórców miał zapewnić łączność po ataku jądrowym. Udostępniony cywilom odniósł wielki, komercyjny sukces, chociaż tak naprawdę pozostaje militarnym złomem. Tymczasem protokół ATM - w przeciwieństwie do IP - zapewnia bezpieczeństwo i gwarancję jakości.

Tego samego dnia zaczynają się dwie konferencje: w Warszawie i Londynie. Organizatorzy obu konferencji zapewnili uczestnikom transport. W Warszawie - taksówki. W Londynie - metro i kolej. Te pierwsze symbolizują protokół IP, przy którym nie są znane trasa, czas i koszty. Te drugie - protokół ATM, gwarantujący jednoczesne przybycie wszystkich uczestników zgodnie z rozkładem i ceną.

Jednak fani IP uważają ten protokół za najlepszy. W laboratoriach producen- tów wymyślono już wiele rozwiązań (jak RSVP, RTCP, IGMP czy IPSec), by poprawić jego działanie. Świetnie, ale to wciąż przypomina jazdę taksówkami, wyposażonymi w przyciemniane szyby, poduszki powietrzne, pasy bezpieczeństwa, kierowane przez taksówkarzy zrzeszonych w korporacji, którym zasugerowano jazdę w kolumnie po trasie naszkicowanej uczestnikom na odwrocie zaproszenia.

Gwarancje jakości

Europejski ATM w praktyce narodził się na początku 1997 r., gdy na międzynarodowym rynku transmisji danych działało już szesnastu operatorów telekomunikacyjnych. Gwałtownie rosnąca wrzawa wokół Internetu, nieuzasadniona nadzieja, że nadchodzi czas niemal darmowej komunikacji, zepchnęła ATM na dalszy plan. Rozwój sytuacji na rynku zdaje się wskazywać, że ATM nie spełnił pokładanych w nim nadziei, że to właśnie IP będzie powszechnie obowiązującym protokołem przyszłości. Można się jednak spodziewać, iż zepchnięcie ATM na dalszy plan było jedynie zjawiskiem chwilowym. Trudno dociec, dlaczego wciąż nie nastąpił moment, w którym zauważy się, iż Internet, czyli protokół IP, to nie kończące się pasmo nieprzewidzianych wydatków i ciągła niepewność. Firmy powinny chętniej zapłacić operatorom, zapewniającym gwarancję jakości na jasno zdefiniowanych warunkach finansowych. Sprzęt ATM jest już wystarczająco wydajny i tani. Nieco zaniedbano oprogramowanie urządzeń, ale prędko zostanie ono poprawione, gdy zleceniodawcy skierują wysiłki programistów w stronę bardziej opłacalnych protokołów. Dzięki temu - przy masowej produkcji - cena liczona dla zestawienia pojedynczego łącza będzie do przyjęcia przez rynek (500 USD dla masowego odbiorcy).

Od lat producenci sprzę- tu telekomunikacyjnego usiłują zapewnić gwarancję jakości usług transmitowanych w sieciach IP (QoS). Dotąd jej namiastki możliwe są do osiągnięcia wyłącznie w wyni-ku przekazania na potrzeby Internetu ogromnych przepustowości współczesnych sieci, o jakiej nie śnili twórcy datagramowego protokołu.

IP świetnie spełniał zadanie w czasach kiepskiej jakości linii dzierżawionych. W pierwszej połowie lat 90. osiągnięciem był V.32bis (14,4 Kb/s). Wówczas ISDN (144,0 Kb/s) wydawał się szybki jak błyskawica. Na dodatek państwowy monopol w telekomunikacji sprawiał, że międzynarodowe łącza cyfrowe miały zawsze za małą przepustowość w stosunku do potrzeb i dostępnych wówczas możliwości technicznych. Wtedy IP dostarczał pakiety byle jak, nie wszystkie, niekoniecznie po kolei i nie wiadomo kiedy. Ale dostarczał. Obecnie stopa błędów dobrego łącza nie przekracza 1*10-7, co oznacza w przypadku ISDN, że błędy powinny się pojawiać nie częściej niż co 156 sekund. Tutaj pojawia się wątpliwość, czy w takich wydajnych i dobrze pracujących łączach nadal jest potrzebny protokół IP?

Telekomunikacja polityczna

W latach 80. i częściowo 90. łącz- ność zdominowało multipleksowanie z podziałem czasu - Time Division Multiplexing (TDM). TDM oddaje całość wykupionego pasma na potrzeby usługi. Gdy pasmo nie jest wykorzystane, czeka w pogotowiu, czyli leży odłogiem, choć za nie zapłaciliśmy. Na tym tle Internet wypada niezwykle korzystnie - za znacznie mniejsze pieniądze otrzymuje się podobne pasmo. Przynajmniej teoretycznie.

Internet (zamiennie IP) obiecuje pasmo jak w komunizmie - każdemu według potrzeb. W praktyce oznacza tłum chętnych w kolejce do niewydolnych zasobów. Dostarczona usługa per saldo jest droga i kiepskiej jakości. Natomiast ATM usiłuje wykluczyć wady obu rozwiązań. Słowem, kapitalizm z socjaldemokratyczną twarzą. Chociaż podatek na cele ogólne, tj. nagłówek, przyprawia o ból głowy, bo stanowi 12% pasma, to jednak w zamian otrzymujemy standaryzowany produkt o wysokich gwarancjach jakości. W protokole ATM mamy uporządkowany szereg komórek (w żargonie celek), które przybywają w określonej przez protokół kolejności i czasie. Wielo-usługowe łącze transmituje celki, które sekwencyjnie niosą dane abonowanych usług. Bardziej wymagająca usługa (wysokiej jakości głos, wideo) zajmuje więcej celek. Celki nie wykorzystane przez ważniejsze usługi są natychmiast udostępniane mniej wymagającym usługom.

Wszyscy wiedzą, że łącze jest tak dobre, jak najsłabszy jego element. Jednak konsekwencje tego są wymierne: produkty cyfrowe wymagające wysokiej jakości muszą zostać umieszczone możliwie blisko klienta. Będą to centra operatorskie wyposażone w wysoko wydajne serwery mocy obliczeniowej i nośniki pamięci. Dostawcy produktów cyfrowych i ich klienci docenią operatorów, którzy sprzedają usługi wysokiej jakości. Nastanie moda na operatorów o dobrej reputacji, którą można osiągnąć poprzez zapewnienie i utrzymanie dostępności, integralności, niezawodności, poufności i możliwości rozliczania udostępnionych zasobów, czyli pryncypialnych cech jakości i bezpieczeństwa.

Gwoli sprawiedliwości koniecznie należy zwrócić uwagę na protokół MPLS (Multiprotocol Label Switching). Ten obiecujący protokół oparty na IP, opracowany w laboratoriach Cisco, wprowadza mechanizm etykietowania pakietów, który determinuje rodzaj usługi i trasę. MPLS, którego zadaniem jest przedłużyć żywotność IP, ma wiele wspólnego z ATM. Ma on również niedogodności protokołów połączeniowych (liczba połączeń rośnie kwadratowo). Zarządzanie zmianami wymaga automatyzacji tworzenia połączeń wirtualnych. Rzecz szczególnie istotna dla sieci heterogenicznych, czyli przy współpracy różnych operatorów. Niestety, pomimo wieloletnich zmagań, prawidłowa współpraca urządzeń czołowych producentów, tj. Cisco, Alcatel, Ericsson, Juniper, Lucent i Nortel, wciąż nie jest możliwa.

Inżynierowie wychowani na IP pogodzili się z jego złożonością. Jednak tuż za chwilę przemysł nasyci gospodarstwa domowe nowościami obsługującymi "konwergentnie" wszystko po IP. Zbiegnie się to w czasie z międzynarodowymi ustaleniami legislacyjnymi, uniemożliwiającymi dostęp do treści przestępczych, oraz nieuchronnym znudzeniem internautów kakofonicznym zalewem informacji i nachalną reklamą. Jednocześnie presja rynku wymusi usługi szerokiego pasma o prawdziwych gwarancjach jakości. Wtedy skierujemy się ponownie w stronę protokołów połączeniowych. Znów odkryjemy protokół, który za pomocą prostych metod spełnia wysokie wymagania. Wówczas łącze abonenckie będzie zakończone urządzeniem ATM wydzierżawionym od operatora, koncentrujące opłacone usługi i integrujące dane płynące z różnych cyfrowych źródeł.

Agnus Dei

Według przewidywań Internet Surveys do 2005 r. podaż przepustowości wzrośnie dziesięciokrotnie, popyt zaś aż czterdziestokrotnie. Czy popytowi sprostają nasze sieci teleinformatyczne? Musimy podołać dwóm problemom: zwiększyć wydajność i dostępność sieci szkieletowych oraz łączy abonenckich. O ile optyczne sieci szkieletowe są właśnie wspomagane technikami zagęszczania, o tyle budowę nowych traktów hamuje nieoczekiwanie podaż włó- kien światłowodowych. Potrzeby traktów już eksploatowanych, miejmy nadzieję, zaspokoi kolejna generacja technologii DWDM. Dzisiaj pozwala ona na szesnastokrotnie większe przepustowości bez konieczności układania nowych światłowodów. Tym samym DWDM przynosi istotne oszczędności infrastruktury sieci przy wciąż niezadowalających perspektywach. Producenci w swoich śmiałych wizjach obiecują trzystukrotne zwielokrotnienie pas- ma, jednak problem nie leży wyłącznie w przepustowości. Problemem nadrzędnym jest elastyczność konfiguracji.

Gdy autostrada z Berlina do Moskwy przetnie warszawski Ursynów, bądź co bądź studwudziestotysięczne miasto, lokalne drogi pozostaną bez zmian zakorkowane, ponieważ niewiele osób dojeżdża codziennie do pracy do Niemiec i Rosji. Podobne niebezpieczeństwo grozi budowanym sieciom opartym na DWDM, jeżeli powstające struktury punkt-punkt "grubą rurą" ominą lokalizacje najbardziej zaintere- sowane poprawą możliwości transmisyjnych. Od początku procesu inwestycyjnego rozbudowy szerokopasmowych sieci należy uwzględnić wiele czyn- ników, m.in. względną stałość połączeń długodystansowych i częste zmiany połączeń lokalnych, czyli metropolitalnych.

Pierwsze uruchomienia DWDM zakładały zwiększenie przepustowości łączy, które znalazły się na granicy nasycenia. Tymczasem prawdziwy zysk płynący z technologii DWDM będzie możliwy przy praktycznym zastosowaniu urządzeń Optical Cross Connect (OxC). Pozwolą one na stworzenie struktury o elastycznych możliwościach routingu. Innymi słowy, pozwolą zrezygnować z topologii ring na rzecz ulubionej i niezawodnej topologii mesh. Takie podejście umożliwi rozbudowę i elastyczne zarządzanie strukturą całkowicie optyczną, która ma alternatywne zabezpieczenie połączeń. Powstanie kompletny i sprawny system teleinformatyczny: od włókna światłowodowego do podłączeń klientów protokołami IP/MPLS/ATM. Wszystkie elementy od OxC do routera IP lub abonenckiego terminatora ATM znajdą się pod kontrolą operatorskiego centrum zarządzania, zaś klient otrzyma "konwergentną" fakturę w zamian za wymagany poziom jakości i ilości usług.

--------------------------------------------------------------------------------

Paweł Musiał jest specjalistą IT/ITSec. Pracuje w Dyrekcji Teleinformatyki Kolejowej.


TOP 200