Trudno oderwać się od korzeni

Jeśli wierzyć internetowym guru, to sieć globalna wciąż pęcznieje - i to w tempie 5-10% tygodniowo - mierząc jej wzrost liczbą przesyłanych bajtów. Z ekspansją sieci globalnej dobrze radzą sobie ci operatorzy, którzy modernizują własne magistrale do prędkości T3 (45 Mbps) i OC3 (155 Mbps). Nie wszyscy jednak tak postępują.

Jeśli wierzyć internetowym guru, to sieć globalna wciąż pęcznieje - i to w tempie 5-10% tygodniowo - mierząc jej wzrost liczbą przesyłanych bajtów. Z ekspansją sieci globalnej dobrze radzą sobie ci operatorzy, którzy modernizują własne magistrale do prędkości T3 (45 Mbps) i OC3 (155 Mbps). Nie wszyscy jednak tak postępują.

Najbardziej przeciążone stają się niektóre starsze "punkty spotkań" podsieci, czyli huby w internetowej nomenklaturze określane skrótami: NAP - National Attachment Point; MAE -Metropolitan Area Exchange; CIX - Commercial Internet Exchange. Sytuacja nie jest także najlepsza w przypadku innych, drogich i ograniczonych zasobów - w pierwszym rzędzie w takich jak połączenia międzykontynentalne.

Jednak, według obserwatorów, aktualnie dostępne technologie, na których oparte są routery i sposoby transferu danych, powinny dać sobie radę z dziesięciokrotnym wzrostem ruchu. Oczywiście wszyscy internetowi operatorzy i dostawcy muszą nadal modernizować swoje wyposażenie. Podstawowy protokół Internetu, jakim jest TCP/IP, dobrze się skaluje; podobnie SMTP - natomiast HTTP już nie. Nowsze wersje i nowe protokoły mogą lepiej uporać się z większym nasileniem ruchu.

Większość użytkowników jest przekonana, iż sposób, w jaki usługi internetowe są oferowane dzisiaj - jako usilne próby transmisji przy użyciu dzielonych zasobów - nie gwarantuje uzyskania wydajności wymaganych przez nowsze wysoko wydajne aplikacje: internetowa telefonia czy wideokonferencje. Potrzebne są nowe protokoły, dające gwarantowaną szerokość pasma - po wyższej cenie. Jednakże nie wiadomo, czy będą one rzeczywiście dobrze współdziałały z "tradycyjnymi" internetowymi usługami, a zwłaszcza niekomercyjnym wykorzystaniem sieci.

Przeciążony, lecz wciąż żywy

Jeśli Internet jest rzeczywiście "zatkany" - u podłoża czego leży niewiarogodny nań popyt - aż dziw bierze, jak dobrze się on trzyma. Jego wykorzystanie bezpośrednio zależy od pory dnia. "Zawsze tak się dzieje, że tylko pewne fragmenty Internetu są przeciążone" - mówi David Clark, naukowiec z amerykańskiego uniwersytetu MIT. "Inne zaś działają zupełnie dobrze. Konkretnego użytkownika żywotnie obchodzi to, w której części sieci globalnej aktualnie się znajduje".

Niektórzy specjaliści mimo wrzawy czynionej wokół wizji zagrażającego kolapsu i coraz wolniejszych połączeń, uważają, iż w ostatnich latach Internet sprawuje się coraz lepiej. "Myślę, że Internet jest znacznie sprawniejszy niż trzy lata temu" - mówi jeden z nich. "Opierając się na badaniach, jakie od ponad trzech lat prowadzi moja firma, korzystając z pomiarów czasu dostępu do prognoz pogody przez Internet, zaobserwowaliśmy 30% polepszenie średniego wyniku (czasu drogi przez sieć tam i z powrotem). To jednak nie dowodzi, że wszędzie jest lepiej, bowiem nie mierzymy czasu dostępu do każdego serwera w sieci" - dodaje.

"W ogóle trudno o jakieś bardziej generalne twierdzenia, ponieważ Internet nie stanowi jednego organizmu" - przestrzega Scott Bradner z Harvard University. "Jeśli jeden dostawca wypada z gry - z powodu braku właściwego finansowania czy zapewnienia odpowiedniego poziomu obsługi technicznej - choćby nie miał wiele wspólnego z pozostałymi, to komunikacja z klientami korzystającymi z jego usług staje się problemem. Nie ma to wszakże nic wspólnego ze strukturalnym defektem Internetu".

Nigdy nie pada cały Internet, ponieważ nie ma w nim żadnej (pojedynczej) magistrali. Każdy operator ma własną. Kiedy boczne łącza prowadzące od klientów do magistrali dostawcy uzyskują coraz większe przepustowości, to trzeba poszerzać własną sieć szkieletową, bo inaczej wpadnie się w tarapaty.

Wsparcie dla silnej magistrali

"Nie wszystkie problemy z wydajnością można zrzucić na przeciążenie magistrali dostawcy" - mówi Vinton Cerf, wiceprezes MCI Communications. "Może być kilka innych przyczyn pojawiających się kłopotów. Serwer może być zbytnio obciążony i nie mieć wystarczającej mocy wobec stawianych przed nim wymagań, zaś linie dostępu do niego mogą być za słabe". Jednak Vinton Cerf przyznaje, iż kwestia przeciążenia sieci jest całkiem realną groźbą. "Pojawiają się zatory, które jasno na to wskazują, np. w miejscach dołączania całych sieci krajowych. W dodatku nie wszystkie magistrale w 100 tys. podsieciach Internetu rozwijają swoją wydajność w tym samym tempie" - mówi Vinton Cerf. MCI rozwija obecnie swoją magistralę na terenie USA do OC3 (155 Mbps). Niewątpliwie inni główni dostawcy pójdą za tym przykładem - a wszyscy już wyglądają za OC12 o prawie gigabitowej przepustowości.

Pod względem wydajności istnieją zarówno dobre, jak i złe obszary Internetu. Łatwo wskazać sektory, gdzie gubionych jest ponad 30% pakietów i nie można na to poradzić. Gdzie indziej wszystko przechodzi bardzo dobrze. Ma to często odbicie w cenie połączenia. Jeden dostawca może liczyć sobie tylko 300 USD miesięcznie za połączenie o transferze 56 Kbps, podczas kiedy drugi bierze dwa razy więcej za tę samą usługę. Różnicę może stanowić właśnie wydajność i niezawodność.

Routery, będące na wyposażeniu węzłów sieci, z dużym trudem dotrzymują kroku dostawcom modernizującym swoje magistrale. Wówczas poprawa jakości łączy związana z modernizacją magistral niekoniecznie poprawia całkowitą wydajność Internetu. O przeciążeniu sieci decyduje gwałtowny wzrost ruchu spowodowany przesyłaniem głosu i obrazu wideo oraz wzrastająca fala zainteresowania zasobami informacyjnymi Internetu, napływająca z Azji, Afryki i Europy. Wystarczy 20% utrata pakietów w punktach wymiany, aby końcowi użytkownicy postrzegali Internet jako sieć stale zmniejszającą szybkość.

Nowoczesne leki

Inni weterani Internetu pobłażliwie przyglądają się obecnym problemom z tą siecią. Przyznają, iż chcieliby dawniej mieć tylko takie kłopoty, wskazując na czasy, kiedy poszczególne jego części naprawdę padały. Obecnie pojawiający się pojedynczy problem dotyka coraz mniejszego kręgu użytkowników. Coraz rzadziej awaria jednego routera jest w stanie odciąć spory fragment sieci.

"Pamiętam" - dodaje Kent England, główny konsultant z Six Sigma Network - kiedy TCP działał tak fatalnie, iż Internet faktycznie ulegał załamaniu z powodu przeciążenia. Od tej pory nigdy nie mieliśmy takich awarii związanych z metodami transferu. Technologia działa dobrze. Nie ona jest przyczyną problemu - każde przeciążenie, które widzimy, powstaje z innych powodów - nierozbudowywania odpowiednio wcześnie wystarczających zasobów".

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200