Świat w Sieci

Najwyższa pora, aby przestać postrzegać sieci komputerowe jako niezależne medium. Nie są one bytem samym w sobie i w rzeczywistości istnieją tylko i wyłącznie po to, by pełnić usługową rolę wobec aplikacji, z których korzystają użytkownicy.

Najwyższa pora, aby przestać postrzegać sieci komputerowe jako niezależne medium. Nie są one bytem samym w sobie i w rzeczywistości istnieją tylko i wyłącznie po to, by pełnić usługową rolę wobec aplikacji, z których korzystają użytkownicy.

Z historycznego punktu widzenia do realizacji transmisji różnego rodzaju przekazów były wykorzystywane niezależne infrastruktury. Transmisja danych odbywała się we wszelkiego rodzaju sieciach komputerowych, rozmowy telefoniczne były realizowane za pomocą dedykowanych sieci telefonicznych, a informacje multimedialne przekazywane najczęściej bezprzewodowo - za pośrednictwem radia i telewizji. Każdy z tych przekazów miał inną charakterystykę: sieci komputerowe realizowały pakietową transmisję danych, sieci telefoniczne - połączenia komutowane, a sieci multimedialne w sposób ciągły nadawały jednokierunkowy przekaz typu broadcast. Obecnie w przypadku wszystkich sieci ujawnia się tendencja do pełnej integracji.

Ze względu na to, że sieci transmisji danych rosną najszybciej, a jednocześnie zapewniają zaawansowane mechanizmy kontroli w połączeniu z dobrym gospodarowaniem pasmem, to właśnie one są wykorzystywane do integracji innych rodzajów transmisji - przekazu głosu i wideo.

Droga do takiej pełnej konwergencji w skali globalnej jest jednak daleka. Wymaga bowiem zarówno znaczącego zwiększenia przepustowości globalnych sieci transmisji danych (w szkielecie sieci i na odcinku "ostatniej mili", łączącym użytkownika końcowego z siecią), wprowadzenia nowej klasy aplikacji, które dokładnie wykorzystują potencjał wysoko wydajnej sieci, jak i wprowadzenia nowych rozwiązań, umożliwiających zmniejszenie opóźnienia transmisji danych, wynikających nie tylko z opóźnienia pracy serwerów udostępniających informacje, ale również fizycznych ograniczeń mediów, jakimi są światłowody, przewody miedziane itp. (przy ogromnych odległościach między źródłem informacji a odbiorcą mają one niebagatelne znaczenie).

Przepustowość

Jeszcze do niedawna największym problemem sieci komputerowych była ich mała przepustowość, co dotyczyło zarówno dużych sieci szkieletowych, jak i ostatniego odcinka komunikacyjnego łączącego sieć lokalną klienta bądź użytkownika indywidualnego z siecią operatora. Obecnie problem ten jest już w zasadzie rozwiązany. Dostępne są produkty umożliwiające budowę wysoko wydajnych sieci szkieletowych, pozwalających na realizację transmisji na poziomie setek gigabitów na sekundę. Stale prowadzone są prace zmierzające do "zapakowania" jak największej ilości różnokolorowych impulsów świetlnych w pojedynczym światłowodzie, co w ciągu kilku najbliższych lat powinno umożliwić skalowanie rozwiązań szkieletów sieci do przepustowości terabitowych.

Stały postęp dotyczy również sieci lokalnych i rozwiązań dostępowych. W przypadku tych pierwszych dopiero niedawno zatwierdzono standard Gigabit Ethernet, a już trwają prace nad jego dziesięciokrotnie wydajniejszym następcą. Użytkownicy indywidualni mogą włączać się obecnie do globalnej sieci z wykorzystaniem zarówno terminali xDSL, jak i modemów kablowych i szerokopasmowych technologii bezprzewodowych o przepustowości rzędu dziesiątek megabitów na sekundę.

Jedynym krytycznym czynnikiem jest w tym przypadku cena, jaką trzeba zapłacić za wykorzystanie łączy o wymaganej przepustowości. I to na tym obszarze w najbliższych latach należałoby oczekiwać największej rewolucji.

Problem wielkości

Paradoksalnie jedną z największych przeszkód stanowiących barierę wzrostu dzisiejszych sieci transmisji danych jest właśnie ich wielkość i wynikająca z niej złożoność. Sieci rozległe obecnie budowane w architekturze typu mesh (wiele niezależnych połączeń w całej sieci bez hierarchicznej struktury), w szczególności duże sieci operatorów oparte na protokole IP, muszą dynamicznie reagować na uszkodzenia poszczególnych łączy sieciowych (w momencie awarii jednego łącza sieć "wypracowuje" alternatywną trasę przesyłania pakietów). Taka dynamiczna odpowiedź sieci jest coraz większym utrapieniem operatorów. Ze względu na to, że struktura ruchu w dużych sieciach szkieletowych jest nieprzewidywalna (nigdy nie wiadomo czy w jakimś miejscu sieci nie pojawi się nowy, bardzo popularny wśród jej użytkowników serwis) dynamiczna odpowiedź sieci na pojedynczą awarię może prowadzić do komplikacji. W ten sposób dodatkowym ruchem mogą zostać przeciążone łącza, które nie były planowane do obsługi tak dużych transmisji.

Istotnym problemem i wyzwaniem na najbliższe lata jest z jednej strony opracowanie efektywnych narzędzi służących do zarządzania dużą infrastrukturą sieciową (rozwiązania tego typu już zaczynają się pojawiać na rynku)

z drugiej - inteligentnych algorytmów dynamicznego odpowiadania sieci na pojawienie się awarii. Przy rosnącej komplikacji sieci awarie, ze statystycznego punktu widzenia, będą się zdarzać coraz częściej, a przy popularyzacji usług sieciowych i wprowadzeniu sieci IP np. do wszystkich telefonów komórkowych (co oferują już sieci GPRS) konsekwencje takich awarii zwiększą straty finansowe.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200