Poszukiwania mocnego szkieletu

Wydajność sieci lokalnej zależy przede wszystkim od właściwego zaplanowania dostępnej przepustowości w różnych jej fragmentach. Chociaż sformułowanie: ''sieć funkcjonuje, tak jak jej najsłabsze ogniwo'' - traci aktualność ze względu na stosowanie przełączania pakietów, to faktem jest, że instalacja zbyt wolnego łącza blisko szkieletu sieci może znacząco spowolnić transmisję.

Wydajność sieci lokalnej zależy przede wszystkim od właściwego zaplanowania dostępnej przepustowości w różnych jej fragmentach. Chociaż sformułowanie: ''sieć funkcjonuje, tak jak jej najsłabsze ogniwo'' - traci aktualność ze względu na stosowanie przełączania pakietów, to faktem jest, że instalacja zbyt wolnego łącza blisko szkieletu sieci może znacząco spowolnić transmisję.

Budowa wydajnych szkieletów sieci korporacyjnej nabiera szczególnego znaczenia w czasach rosnącej popularności aplikacji multimedialnych, które wymagają określonego pasma sieciowego. O ile wielooddziałowe firmy mające duże sieci prowadzą dosyć wnikliwą analizę ruchu na łączach WAN, o tyle nawet one mniejszą wagę przykładają do ruchu w sieci lokalnej, który ze względu na specyfikę pracy (jak również rozrywki) może być bardzo chaotyczny.

Osobom odpowiedzialnym za projektowanie lokalnych sieci z pomocą przychodzą nowe technologie: wydzielone sieci wirtualne, mechanizmy Quality of Service, zaawansowane przełączanie w górnych warstwach sieciowych z możliwością filtrowania transmisji (de facto jest to routing) oraz skalowanie wydajności dzięki agregacji połączeń. Umiejętne stosowanie tych rozwiązań oraz monitorowanie bieżącego obciążenia umożliwiają szybsze reagowanie na rosnące potrzeby aplikacji sieciowych. Najlepiej, gdy reakcja sprowadza się do optymalizacji wykorzystania dostępnego już pasma, a nie do "bezkrytycznej" rozbudowy infrastruktury. Rozbudowa wiąże się zazwyczaj z dużymi kosztami, a poza tym nie eliminuje źródeł problemów w sieci, tylko doraźnie zwiększa przepustowość.

Nadsubskrypcja

Jednym z najczęściej wykorzystywanych zabiegów przy projektowaniu sieci lokalnych i określaniu ich przepustowości jest obliczanie współczynnika obciążenia poszczególnych łączy, tzw. over-subscription. Niewłaściwy współczynnik obciążenia może powodować, że w pewnym miejscu sieci będą się pojawiać opóźnienia w transmisji, prowadzące do "gubienia" pakietów.

Współczynnik obciążenia oblicza się, sumując wszystkie nominalne przepustowości portów dostępnych w danym węźle, a następnie dzieląc otrzymaną sumę przez całkowitą przepustowość łącza, którym jest ono włączone do kolejnego urządzenia w hierarchii sieciowej (zazwyczaj do szkieletu sieci). Przykładowo, jeśli przełącznik sieciowy jest wyposażony w 24 porty 10/100 Mb/s, to jego potencjalna przepustowość wynosi 2,4 Gb/s albo 4,8 Gb/s przy zastosowaniu komunikacji full duplex. Jeśli ten przełącznik jest włączony do szkieletu sieci z wykorzystaniem jednego portu uplink Gigabit Ethernet, to umożliwia on przesłanie 1 Gb/s danych lub 2 Gb/s w trybie full duplex. Oznacza to, że współczynnik obciążenia wynosi 2,4:1.

Czy to dużo? Zależy, w jakim miejscu sieci pracuje przełącznik i do łączenia jakich urządzeń jest wykorzystywany. Wartość współczynnika jest satysfakcjonująca, gdy przełącznik obsługuje komputery użytkowników końcowych - w takim przypadku zalecaną wartością współczynnika jest 3:1. W przypadku punktów agregacji komunikacji, jakimi są segmenty sieciowe, zalecanym współczynnikiem obciążenia jest 2:1; w farmach serwerowych i szkielecie sieci współczynnik powinien wynosić 1:1.

Technologią umożliwiającą zmniejszenie niekorzystnego współczynnika obciążenia jest agregacja połączeń (link aggregation). Dostępna jest ona pod różnymi nazwami w urządzeniach sieciowych większości producentów (np. EtherChannel w przypadku Cisco, Port Trunking - 3Com) i teoretycznie opisana standardem IEEE 802.3ad. Pozwala łączyć parami równolegle przełączniki sieciowe lub serwery z przełącznikami z wykorzystaniem kilku łączy. Dzięki temu można nawet czterokrotnie zwiększyć przepustowość, np. zamiast uplinku 1 Gb/s uzyskuje się łącze 4 Gb/s do przełącznika szkieletowego (8 Gb/s w trybie full duplex).

Wydajność urządzeń

Istotnym parametrem, decydującym o efektywności komunikacji, jest to, czy urządzenia wykorzystane do budowy sieci umożliwiają przełączanie strumieni danych bez blokowania (non blocking architecture). Łatwo to sprawdzić, sumując nominalne wartości przepustowości wszystkich portów urządzenia i zestawiając tę wartość z podawaną przez producenta przepustowością wewnętrznej magistrali urządzenia. Jeśli uzyskana suma jest większa, to z pewnością przy pełnym natężeniu ruchu na wszystkich portach (co jest wprawdzie mało prawdopodobne, ale może się zdarzyć) urządzenie będzie przeciążone, a komunikacja zakłócona (jest to architektura blokująca).

Przykładowo, 48-portowy przełącznik 10/100 Mb/s z magistralą 2 Gb/s nie będzie mógł obsłużyć pełnego ruchu na wszystkich portach, gdyż do tego wymagałby magistrali o szybkości 9,6 Gb/s (w trybie full duplex). Jego architektura umożliwia obsługę z maksymalną szybkością zaledwie dziesięciu portów 10/100 Mb/s.

Ponadto przy wyliczeniach wymaganej przepustowości magistrali należy również doliczyć sumę maksymalnych przepustowości portów uplink, wykorzystywanych do łączenia z przełącznikami nadrzędnymi.

Przełączanie w trzeciej warstwie

Jednym z najważniejszych wydarzeń w dziedzinie konstrukcji dużych sieci lokalnych było upowszechnienie przełączania w trzeciej warstwie modelu sieciowego. Zapotrzebowanie na nie pojawiło się, gdy dzięki popularyzacji Internetu i związanych z nim technologii WWW drastycznie zmieniły się proporcje dotyczące rozkładu ruchu w sieciach korporacyjnych.

Jeszcze kilka lat temu obowiązywała zasada 80/20. Według niej, w typowej sieci lokalnej 80% ruchu realizowano w obrębie grup roboczych, połączonych przełącznikami pracującymi w drugiej warstwie sieciowej, a 20% ruchu przenikało granice grupy roboczej i za pośrednictwem routerów dostawało się do innych sieci. Te 20% ruchu musiało być przesyłane według określonych zasad, np. adresu nadawcy, adresu odbiorcy, typu transmisji (TCP, UDP) oraz w zależności od wykorzystywanej aplikacji (determinowanej przez numer portu komunikacyjnego). Dlatego też routerom przyklejono plakietkę "urządzeń inteligentnych", które

potrafiły analizować ruch w trzeciej i czwartej warstwie sieciowej. Typowe programowe routery miały jednak istotne ograniczenie - pracowały dosyć wolno, umożliwiając przesyłanie kilkuset tysięcy pakietów na sekundę. Eksplozja Internetu spowodowała zmianę charakterystyki ruchu w sieciach LAN - obecnie mówi się, że zasada 80/20 zmieniła się na zasadę 20/80.

Z pomocą administratorom zainteresowanym coraz dokładniejszym filtrowaniem transmisji już nie tylko na poziomie routerów pracujących na obrzeżach sieci, lecz także na poziomie pojedynczych portów przełączników obsługujących grupy robocze, przyszły przełączniki trzeciej i czwartej warstwy. Realizują one funkcję routingu całkowicie sprzętowo z wykorzystaniem specjalizowanych układów ASIC. Mogą dzięki temu przełączać kilkadziesiąt lub kilkaset milionów pakietów w ciągu sekundy, czyli obsługiwać porty 10/100/1000 Mb/s bez opóźnień.

Priorytety i jakość usług

Zapewnienie dużej przepustowości sieci lokalnej oraz wzbogacenie jej w funkcje przełączania pakietów w trzeciej warstwie nie gwarantują jeszcze, że niektóre z bardziej zatłoczonych łączy nie staną się "wąskim gardłem" dla przepływu danych aplikacji podstawowych do funkcjonowania firmy. Mechanizmem, który pozwala kontrolować transmisję danych na całej trasie pakietów, jest Quality of Service (QoS).

Obecnie istnieją dwa sposoby zapewnienia należytej jakości usług w sieci korporacyjnej. Pierwszy sprowadza się do wykorzystania sygnalizacji przy każdej realizowanej transmisji pakietów, drugi, do wcześniejszego określenia polityki wykorzystania dostępnych zasobów sieci poprzez zdefiniowanie polis QoS.

Przykładowym protokołem wykorzystującym sygnalizację jest RSVP (Resource Reservation Protocol). Stacje robocze wzajemnie informują się o tym, jaka przepustowość jest im potrzebna do przeprowadzenia komunikacji z wykorzystaniem danej aplikacji. Nie ma jednak sposobu, by rzeczywiście wymaganą przepustowość zagwarantować na całej drodze pakietów. Rozwiązanie to jest więc niewystarczające i - co więcej - wymaga ingerencji w oprogramowanie pracujące na stacjach roboczych (by mogły one obsługiwać RSVP).

Wymagania takiego nie stawia rozwiązanie, polegające na definiowaniu polis QoS. W tym przypadku nadawanie wyższego bądź niższego priorytetu pakietom realizuje przełącznik sieciowy (trzeciej i czwartej warstwy) na podstawie reguł opracowanych wcześniej przez administratora. Jeśli przełączniki routujące pracują w całej sieci, możliwe jest szczegółowe kontrolowanie przepływu danych oraz wykorzystywanego przez nie pasma w zależności od adresu MAC kart sieciowych, uczestniczących w komunikacji, numerów IP, fizycznego portu przełącznika, do którego jest podłączona dana stacja, oznaczeń pakietów w standardzie 802.1Q, numerów portów TCP/UDP itd.

Polisy QoS należy wdrażać nawet wtedy, gdy wydaje się, że przepustowość sieci lokalnej jest wystarczająca dla wszelkiego rodzaju komunikacji. Gwarantują one bowiem, że nawet w przypadku nieprzewidzianego wzrostu natężenia ruchu do dyspozycji pakietów, np. aplikacji SAP R/3, pozostanie 30% dostępnego pasma w szkielecie sieci - bez względu na to, jak bardzo użytkownicy aplikacji multimedialnych, przeglądarek internetowych itp. domagają się prawa do transmisji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200