Czy zbliża się koniec Internetu?

Sieć zaczyna nie wytrzymywać obciążenia, a atak nadchodzi z dwóch stron - ruchu P2P, a także portali, które zaczynają masowo oferować usługi transmisji wideo. Na razie nikt nie ma jeszcze pomysłu, jak sobie z tym poradzić.

Sieć zaczyna nie wytrzymywać obciążenia, a atak nadchodzi z dwóch stron - ruchu P2P, a także portali, które zaczynają masowo oferować usługi transmisji wideo. Na razie nikt nie ma jeszcze pomysłu, jak sobie z tym poradzić.

Internet został tak zaprojektowany, aby dostarczyć niezawodną usługę w zawodnej sieci. Sieć nie została jednak przystosowana do transmisji wideo w trybie ciągłym lub przesyłania gigabajtów danych w postaci filmów DVD lub HDTV. Gartner opublikował ostatnio raport z którego wynika, że 60% ruchu w Internecie jest już obecnie związane właśnie z przesyłaniem plików z filmami wideo lub oglądaniem telewizji.

Prezentowane przez Gartnera statystyki pokazują, że pierwszy raz w historii Internetu pojawił się realny problem - obciążenie sieci rośnie znacznie szybciej niż jej przepustowość. Użytkownicy nie przeglądają już tylko stron internetowych lub listów e-mail, a w skali masowej zaczynają oglądać ulubione seriale lub wiadomości swojej ulubionej stacji informacyjnej. Standardem staje się promowanie nowych utworów muzycznych przez takie strony, jak myspace lub teledysków przez bliższe nam teledyski.onet.pl, systematycznie rośnie popularność VoIP i połączeń wideotelefonicznych.

Jednocześnie faktem jest, że pobranie jednego filmu generuje taki ruch w sieci, jak korzystanie z poczty internetowej przez rok. A trzeba dodać, że jeszcze rok temu filmy przesyłane przez takie programy, jak Bittorrent były głównie obrazami silnie kompresowanymi w formatach XviD lub DivX. Obecnie wraz ze wzrostem średniej prędkości indywidualnych łączy, która zaczyna osiągać poziom 2-6 MB/s, coraz większa liczba użytkowników zaczyna sięgać po filmy o wyższej jakości zapisane w formatach DVD lub , które są co najmniej kilkakrotnie większe i ich ściąganie trwa o wiele dłużej.

Spadająca wydajność

Przeciążenie Internetu indywidualni użytkownicy odczują jako dłuższe niż dotąd wczytywanie stron WWW, problemy z nawiązywaniem połączeń VoIP (telefonia internetowa) lub brak możliwości pobrania poczty z powodu upłynięcia limitu czasu żądania.

Natomiast firmy ucierpią z powodu spadku jakości wideokonferencji, połączeń między oddziałami, ograniczenia dostępu do korporacyjnych serwerów poczty i wydajności aplikacji wykorzystujących Internet. W szczególności może to nawet poważnie zagrozić działalności biznesowej, jeśli sieć jest podstawą jej prowadzenia, jak np. w przypadku sklepów internetowych. Dodatkowym elementem zwiększającym wymagania na przepustowość jest bezpieczeństwo. Już obecnie większość przedsiębiorstw utrzymuje jeden centralny serwer poczty, z którym użytkownicy łączą się przez szyfrowane kanały VPN, a takie połączenia oznaczają wzrost zapotrzebowania na pasmo transmisji.

Giganci czekają na pomysł

Google podczas Kongresu Telewizji Kablowej w Europie (CEC) ogłosił, że zatrzymuje projekt wprowadzenia telewizji internetowej z powodu braku możliwości technicznych. Przedstawiciele firmy przyznali, że Internet nie został stworzony do telewizji. Google zapewnia jednocześnie, że będzie poszukiwać nowych rozwiązań technicznych, ale jakich na razie nie wiadomo.

Wydaje się, że firma nie ma pomysłu, jak umożliwić ludziom oglądanie telewizji w Internecie przy obecnie dostępnych przepustowościach łączy i szkieletów sieciowych. Nie ulega wątpliwości, że sieć nie wytrzymałaby obciążenia, gdyby Google uruchomił transmisję TV. Pojawiają się opinie, że nowe metody wideo mogłyby zmienić sytuację, ale to mit. Google jest światową domeną i gdyby firma ta uruchomiła kanały TV, pewne jest, że dziesiątki milionów ludzi chciałoby mieć do nich dostęp, a to, niezależnie od efektywności kompresji, raczej wcześniej niż później zablokowałoby Internet.

Na razie nie wiadomo, jak problemy ujawnione przez Google wpłyną na opracowywaną przez Microsoft technologię Live. Obecnie działa ona poprawnie, ale wiadomo, że także wymaga względnie dużej przepustowości.

Pojawia się pytanie, czy stosowanie systemów Live lub Windows Live będzie miało sens w wolno działającym środowisku? Microsoft już prowadzi testy systemów, które będą działać tylko w trybie terminala wykorzystującego przeglądarkę internetową. Jeżeli jednak Microsoft ogłosi, że nowy Office będzie tylko w wersji Live, to wyobraźmy sobie, że każdy użytkownik tego pakietu zaczyna przesyłać dane do odpowiedniego serwera Microsoft zawsze po uruchomieniu aplikacji - zablokowanie sieci jest wówczas prawie nieuniknione.

Inwestycje i nowe techniki

Najprostszym pomysłem jest oczywiście zwiększenie przepustowości Internetu. Ale oznacza to, że operatorzy muszą zainwestować nawet setki milionów dolarów w rozwój infrastruktury. Powoduje to, że mniejsi operatorzy, w szczególności w Polsce, mogą znaleźć się w trudnej sytuacji, bo nie będą w stanie podjąć tak wielkich inwestycji.

Ale według niektórych specjalistów, nawet duże firmy nie będą w stanie zaspokoić rosnących oczekiwań użytkowników oraz dostawców usług szerokopasmowych i dlatego trzeba szukać nowych rozwiązań. Zdaniem przedstawicieli firmy Cachelogic, specjalizującej się w rozwijaniu technologii nadzorowania i optymalizowania sieci, rozwiązanie obecnie jest tylko jedno - pamięć cache.

Cachelogic proponuje dużym operatorom zapisywanie filmów i danych w pamięci podręcznej zainstalowanej wewnątrz szkieletu ich sieci, co umożliwia odciążenie jej styków. Firma, która posiada centra serwerowe na całym świecie, zapewnia, że jest w stanie istotnie odciążyć sieci operatorów przez zapisywanie, kolejkowanie i udostępnianie na jej serwerach przesyłanych w sieci plików. Oprócz tego Cachelogic pracuje wspólnie z firmą Bittorrent nad nowym protokołem, który ma ułatwić zarządzanie tym co klient chce ściągnąć, zanim jeszcze uruchomi proces transmisji.

Spowolniona sieć TP

Dowodem na problemy operatorów jest polski przykład TP Neostrada. 9 lutego firma usunęła limit ściągania danych, co szybko spowodowało znaczne spowolnienie działania sieci TP. Jego przyczyną był 70-proc. wzrost ruchu między komputerami P2P. Telekomunikacja Polska informuje, że sytuacja została opanowana, ale nie podaje szczegółów jak. Można się domyśleć, że skończyło się to po prostu ograniczeniami w postaci brzegowych limitów transferu. TP przyznaje się do takich praktyk w usłudze DSL.


TOP 200