Sieci coraz mniej klasyczne

Wirtualizacja, systemy ujednoliconej komunikacji, zintegrowana infrastruktura centrów danych i multimedia to technologie, które mają największy wpływ na kierunki rozwoju architektury urządzeń sieciowych.

Systematyczne zwiększanie przepustowości to podstawowy, najłatwiej widoczny kierunek rozwoju technologii, zarówno sieci LAN, jak i WAN. Wysoka wydajność urządzeń sieciowych wciąż jest parametrem najbardziej cenionym przez odbiorców i chyba jedyną barierą hamującą popyt na nowe generacje sprzętu jest kalkulacja ekonomiczna - bilansowanie kosztów ich zakupu i utrzymania, a także potencjalnych zysków z wprowadzania nowych usług lub aplikacji.

Wszystkie te elementy wpływają na bieżący popyt, ale również kierunki rozwoju technologii, które w znacznym stopniu zależą od producentów finansujących badania i starających się wzmocnić swoją aktualną pozycję rynkową czy też pragnących przygotować podstawy do jej wzmocnienia w perspektywie wieloletniej.

Zobacz również:

  • Wyjaśniamy czym jest SD-WAN i jakie są zalety tego rozwiązania
  • Najszybszy światłowód w Polsce - łącze 8 Gb/s od Orange
  • Cisco wzmacnia bezpieczeństwo dwóch platform sieciowych

Ale oprócz wzrostu przepustowości, pojawiają się również inne rozwiązania i pomysły, które mają sprzyjać rozwojowi rynku i dopasować ofertę do jego wymagań. Można tu wymienić ograniczenie zużycia energii, które bezpośrednio przekłada się na zmniejszenie kosztów utrzymania systemów, popularyzację wielofunkcyjnych urządzeń sieciowych lub modyfikację klasycznej, 3-warstwowej architektury w kierunku prostszych i bardziej efektywnych systemów 2-warstwowych.

Router, czyli urządzenie udostępniające usługi

Choć urządzenia sieciowe służące do odpowiedniego kierowania przekazem pakietów z danymi są wciąż określane jako routery, to nazwa ta wynika z przyzwyczajenia. We współczesnych routerach zarządzanie ruchem pakietów jest jednak często tylko jedną z funkcji. Urządzenia te są bowiem wyposażane w zintegrowane zapory sieciowe, bramy VoIP, koncentratory VPN, mechanizmy do zarządzania monitoringiem wideo itd.

Przykładem mogą być uniwersalne, modułowe rozwiązania, takie jak Cisco ISR (Integrated Services Router), które umożliwiają instalację i uruchamianie innych dodatkowych aplikacji i usług potrzebnych użytkownikowi. W efekcie nazwa router przestaje odpowiadać rzeczywistym funkcjom urządzenia. Zwłaszcza że z drugiej strony, funkcje routingu są wbudowywane również do innych urządzeń zapór sieciowych, UTM, bramek obsługujących ruch multimedialny itp.

Według ocen Dell'Oro Group, wartość rynku routerów osiągnęła prawie 13 mld USD w roku 2008. Ale analitycy tej firmy zauważają, że kolejne analizy tego segmentu rynku będą coraz trudniejsze, ponieważ rozszerzanie funkcji powoduje, że pojawia się poważny problem, jakie urządzenia można zakwalifikować jako routery, a jakie już nie.

Przed laty specjalizowane układy ASIC i dedykowane procesory do przetwarzania pakietów były podstawowymi elementami routerów. "A producenci projektowali kolejne, niezależne urządzenia do obsługi każdej z nowych funkcji sieciowych, która miała być realizowana. Liczba tych funkcji i urządzeń systematycznie rosła i obecnie widać tendencję do ich integracji. Bo nie ma sensu umieszczania w każdym miejscu sieci trzech, czterech, a może pięciu niezależnych jednofunkcyjnych urządzeń, które później wymagają synchronizacji i zarządzania. Lepiej i łatwiej jest skorzystać z urządzeń wielofunkcyjnych" - mówi Dave Roberts, wiceprezes firmy Vyatta.

Jednocześnie oprogramowanie coraz silniej definiuje, czym dane urządzenie sieciowe jest. "Podstawą routingu jest zaszyta w oprogramowaniu logika, która realizuje połączenia między różnymi punktami sieci i może funkcjonować na różnych platformach sprzętowych" - twierdzi Eric Wolford, wiceprezes Riverbed.

Dlatego też wiceprezes amerykańskiego operatora telekomunikacyjnego Qwest, Eric Bozich proponuje określenie "service enabling devices" (urządzenia udostępniające usługi) jako nową nazwę dla routerów. "Zwykły modem DSL jest wyposażony w oprogramowanie do zarządzania routingiem mające bardzo podobne funkcje do tego, które wykorzystują duże, kosztujące wiele tysięcy dolarów routery dla firm" - wyjaśnia Eric Bozich.

Bo routing to względnie prosty mechanizm, zarządzający przepływem pakietów z jednego interfejsu do drugiego, który musi podejmować decyzje o kierunku ich przekazania z wydajnością określoną przez fizyczną przepustowość łącza. Zwykłe modemy DSL są wyposażane w wiele innych, znacznie bardziej zaawansowanych funkcji - zaporę sieciową, mechanizmy ACL, stację dostępową Wi-Fi itd. Należy jednak zauważyć, że bez routingu wszystkie one są praktycznie bezużyteczne.

Rozszerzanie liczby funkcji realizowanych przez urządzenia określane jako routery powoduje, że rośnie poziom skomplikowania ich konstrukcji, ale routing pakietów wciąż pozostaje podstawowym mechanizmem, który musi być udostępniony. Dlatego też tradycyjna nazwa tego typu urządzeń ma uzasadnienie.

Niektórzy specjaliści zgadzają się z tego typu opiniami. Jeśli urządzenie realizuje przekazywanie pakietów w warstwie 3 na podstawie analizy informacji dotyczących ich źródła i odbiorcy, to powinno być nazywane routerem niezależnie od liczby innych dodatkowych funkcji. "Choć funkcje routingu są realizowane również przez inne oprogramowanie, to najczęściej nie dotyczy to warstwy 3. Na przykład brzegowe kontrolery sesji (session border controler) wykonują routing w warstwie 5, akceleratory aplikacji - w warstwach 4 i 7, a zapory sieciowe w wielu różnych warstwach" - mówi Mike Morris, Cisco Certified Design Expert.

"Przełączniki i mosty pracują w warstwie 2, routery - w warstwie 3, a inne urządzenia, które przetwarzają pakiety, w warstwach wyższych i może należałoby je określać jako bramy. Niezależnie od integracji różnych funkcji, nazwa router wciąż jest uzasadniona i dobrze zdefiniowana" - uważa Paul Congdon, CTO w HP ProCurve.

Niedawno HP wprowadziła serwery kasetowe ProCurve ONE przeznaczone do instalacji w przełącznikach 8200 i 5400. Integrują i konsolidują one funkcje przełączania pakietów i ich przetwarzania przez aplikacje, które mogą być instalowane w serwerach, takie jak oprogramowanie Microsoft do zabezpieczania i kontroli dostępu do sieci, systemy McAfee (bezpieczeństwo, filtrowanie stron WWW, narzędzia IPS), oprogramowanie Avaya do obsługi zintegrowanej komunikacji, programy F5 Networks do równoważenia obciążeń i kontroli procesów dostarczania aplikacji, oprogramowanie Riverbed do optymalizacji połączeń WAN i inne. "I mimo że rozwiązanie to integruje funkcje przełączania z aplikacjami działającymi w wyższych warstwach, HP nie ma zamiaru zmieniać nazwy swoich przełączników na bramy 8200 i 5400' - przyznaje Paul Congdon.

Mniej warstw - większa efektywność

Popularyzacja standardu 10Gigabit Ethernet, a jednocześnie technologii wirtualizacyjnych powoduje, że klasyczna trójwarstwowa architektura sieci stosowana w centrach danych ulega modyfikacji i będzie ustępować prostszej architekturze dwuwarstwowej.

Nowa generacja przełączników z interfejsami 10GbE (10 Gb/s) i mechanizmami asynchronicznej komunikacji zapobiegającymi blokowaniu transmisji (non-blocking) umożliwia bezpośrednie łączenie interfejsów serwerowych z przełącznikami rdzeniowymi, z pominięciem klasycznej warstwy agregacyjnej.

Tego typu architektura, w której wyeliminowane zostają pośredniczące w transmisji danych przełączniki agregacyjne, pozwala na zwiększenie wydajności sieci, zmniejszenie opóźnień i strat pakietów.

Jest to więc rozwiązanie bardzo pożądane z punktu widzenia systemów zwirtualizowanych, w których następuje zwiększenie liczby aplikacji uruchamianych na fizycznych serwerach, a w efekcie - wzrost wymagań na przepustowość interfejsów I/O. Jednocześnie w zyskujących popularność systemach o zintegrowanej infrastrukturze (unified fabric), obsługujących różne protokoły, takie jak FC i Ethernet, rosną wymagania na małe opóźnienia i minimalizację strat pakietów. W tym wypadku uproszczenie architektury jest również korzystnym rozwiązaniem.

Klasyczna architektura sieci korporacyjnej lub centrum przetwarzania danych składa się z trzech warstw: przełączników dostępowych, agregacyjnych i rdzeniowych.

Jej zastąpienie bardziej wydajną i efektywną architekturę dwuwarstwową ma jednak ograniczenia. Ta druga wymaga zapewnienia wysokiej przepustowości warstwy rdzeniowej, co może być trudne i nieopłacalne szczególnie w dużych sieciach korporacyjnych, gdzie warstwa agregacyjna ułatwia skalowanie i optymalizowanie przepustowości sieci.

Ale w centrach przetwarzania danych jest to rozwiązanie, które niewątpliwie będzie zyskiwać popularność, zwłaszcza, że wkrótce - wraz z pojawieniem się nowej generacji interfejsów 40Gigabit oraz 100Gigabit Ethernet - budowa systemów o architekturze dwuwarstwowej będzie jeszcze łatwiejsza.

Klasyczne funkcje zaczynają przeszkadzać

Niektóre standardowe funkcje przełączników sieciowych, takie jak store-and-forward czy Spanning Tree Algorithm, zostaną najprawdopodobniej wyeliminowane w nowych generacjach sprzętu.

Rosnące wymagania minimalizacji opóźnień w transmisji pakietów powodują też, że klasyczna architektura przełączników wykorzystująca funkcję store-and-forward, a więc gromadzenie pakietów w pamięci buforowej przed ich dalszym przesłaniem, staje się nieefektywna. Bo tego typu rozwiązania, w przypadku systemu trójwarstwowego, prowadzą do opóźnień transmisji sięgających nawet 80 mikrosekund, co dla wielu aplikacji jest niedopuszczalne. Stąd też można oczekiwać popularyzacji znanej już techniki przełączania typu cut-through, która ogranicza lub w ogóle eliminuje buforowanie danych w przełączniku i umożliwia zmniejszenie opóźnień w transmisji na linii przełącznik-przełącznik z typowych 15-50 mikrosekund do zaledwie 2-4.

Można też oczekiwać, że rosnące wymagania dotyczące przepustowości i minimalizacji opóźnień spowodują, że nowe generacje przełączników przestaną korzystać z klasycznego mechanizmu Spanning Tree Algorithm. Obecnie wszystkie przełączniki warstwy 2 wykorzystują tę funkcję do określenia optymalnej drogi dla przesyłanych pakietów. Później transmisja jest realizowana przy wykorzystaniu tylko jednej, optymalnej ścieżki, a inne dostępne kanały są nieaktywne dopóty, dopóki nie pojawi się problem z przesyłaniem danych.

Technologie umożliwiające jednoczesne wykorzystanie wielu dostępnych kanałów do przesyłania pakietów są więc atrakcyjną alternatywą, która najprawdopodobniej już wkrótce zacznie być powszechnie wykorzystywana w nowych generacjach sprzętu sieciowego.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200