Skalowalność na warsztacie

Łatwo skalowalna firmowa sieć rozległa to w równej mierze wynik przemyślanej architektury i codziennej o niej dbałości.

Łatwo skalowalna firmowa sieć rozległa to w równej mierze wynik przemyślanej architektury i codziennej o niej dbałości.

Skalowalność firmowych sieci rozległych zależy od wielu czynników, m.in. przyjętej architektury, medium transportowego, konfiguracji urządzeń sieciowych i protokołów oraz oczywiście od rodzaju uruchamianych w sieci aplikacji. Możliwości stwarzane przez infrastrukturę operatorów stanowią jedynie podstawę, na której można zbudować rozwiązanie zarówno łatwo, jak i trudno skalowalne.

Bez drogi na skróty

Projektowanie sieci rozległej należy rozpocząć od analizy aplikacji, które będą w niej uruchamiane. Znaczenie tego etapu trudno przecenić - wszelkie pomyłki będą kosztowne, a ich usuwanie znacznie trudniejsze niż w przypadku sieci lokalnej. Aplikacje, które w sieci LAN działają bez zarzutu, w sieci WAN często okazują się zbyt wymagające i pod względem zajmowanego pasma, i odporności na opóźnienia w transmisji, które w sieciach rozległych bywają wielokrotnie większe. Dla systemów pocztowych czy aplikacji WWW nie ma to wielkiego znaczenia, jednak większość systemów biznesowych typu klient/serwer tworzona z myślą o sieci lokalnej może napotkać w sieci rozległej poważne problemy.

Udostępnianie w sieci WAN aplikacji typu klient/serwer wymaga łączy o bardzo dobrych parametrach, a więc relatywnie drogich. W większości przypadków, zwłaszcza w dłuższym okresie, opłacalne będzie umieszczenie aplikacji klienckich na serwerze terminalowym.

Gdy model przetwarzania jest już znany, można przystąpić do definiowania technologii dostępowej. Jeżeli niskie czasy opóźnień są priorytetem, znajdą zastosowanie łącza dzierżawione. Wynajem łączy fizycznych to w praktyce samoograniczenie skalowalności. Znacznie lepszym rozwiązaniem jest - preferowane również przez operatorów - zestawianie kanałów cyfrowych o gwarantowanej przepustowości. Małe opóźnienia zapewnia przede wszystkim technologia ATM. Łącza Frame Relay - choć ich teoretyczne możliwości są w zasadzie zbliżone do ATM - w polskiej praktyce (zwłaszcza w przypadku należącej do Telekomunikacji Polskiej sieci Polpak-T) mają spore, a przy tym zmienne opóźnienia. Opóźnieniami charakteryzuje się również łączność satelitarna. Opóźnienia, zwłaszcza zmienne, powodują problemy we wdrożeniach aplikacji głosowych i multimedialnych.

Oddzielną grupę rozwiązań stanowią sieci VPN, których skalowalność jest ograniczona jedynie pasmem łączy internetowych i wydajnością urządzenia terminującego kanały VPN. Niestety, tylko teoretycznie. Uzyskanie dobrej jakości, a tym bardziej gwarancji pasma w łączu do Internetu, to w Polsce wciąż poważny problem i dlatego stałe sieci prywatne wykorzystujące Internet rzadko stosują rozwiązania Internet VPN. Od kilku miesięcy można już jednak kupować usługi IP VPN realizowane na platformie operatora (m.in. Tel-Energo, Telbank, Energis i NASK) z użyciem wciąż "dojrzewającej" technologii MPLS. Jeżeli protokół MPLS potwierdzi w praktyce pokładane w nim oczekiwania w zakresie zarządzania jakością usług, będzie to najbardziej elastyczna metoda budowy sieci WAN. Bez względu na używaną technologię dostępową, zawsze warto pozostawić alternatywę w postaci co najmniej jednego wolnego portu WAN w routerze.

Protokoły zamiast mapy

Na skalowalność sieci rozległej także mogą mieć wpływ zastosowane w niej protokoły routingu. Można je podzielić na dwie grupy: Distant Vector i Link State.

W pierwszym przypadku zgłaszanie przez dany router informacji o dostępnych mu sieciach obejmuje tylko najbliższych jego "sąsiadów" - routery od których dzieli go jedno bezpośrednie połączenie. Konsekwencją tej prostej zasady jest powstawanie list routingu "do najbliższego" routera - na każdym routerze wykorzystującym ten typ protokołu (np. RIP 1, RIP 2, IGRP). Mankamentem takiego rozwiązania są opóźnienia wynikające z analizy potencjalnej ścieżki routingu na każdym kolejnym urządzeniu. Korzyścią z punktu widzenia skalowalności jest to, że nie występują tu żadne ograniczenia co do topologii sieci. W skrajnym przypadku można jej nawet nie segmentować. To jednak tylko teoria. Sieci oparte na protokołach Distant Vector są bardzo podatne na zjawisko tworzenia się pętli w routingu, co w praktyce ogranicza ich skalowalność do kilkunastu (RIP 1, RIP 2) lub kilkudziesięciu (IGRP) węzłów.

Protokoły typu Link State (np. OSPF - Open Shortest Path First czy też IS-IS - Intermediate System-Intermediate System) są w pełni odporne na zapętlenie. Zakładają one grupowanie routerów w tzw. domeny, w których każde urządzenie tworzy własną listę sieci będących w bezpośrednim zasięgu wszystkich routerów należących do domeny. Domyślne ścieżki routowania są tworzone dopiero wtedy, gdy każdy z routerów należących do domeny rozpozna całą jej strukturę. Zwiększa to efektywność routowania, jednak ze względu na konieczność utrzymania stałej synchronizacji informacji między routerami ogranicza skalowalność domeny do kilkudziesięciu (OSPF) lub kilkuset (IS-IS) węzłów. Większość działających w Polsce dużych sieci WAN wykorzystuje protokół OSPF.

Szybko, bo bez korków

Jednym ze źródeł skalowalności sieci WAN (a w każdym razie czynnikiem obniżającym koszty jej utrzymania) może być inteligentne zarządzanie treścią. W najprostszej formie może to oznaczać buforowanie treści WWW na internetowym serwerze proxy. Jeżeli prowadzona przez firmę działalność wymaga intensywnej wymiany plików pomiędzy rozproszonymi placówkami, rozwiązaniem może być centralizacja lub buforowanie najczęściej przesyłanych danych na wewnętrznych serwerach cache sprzężonych z lokalnymi serwerami plików w oddziałach. Synchronizacja między nimi może się odbywać np. w nocy, gdy sieć jest mniej obciążona.

W przypadku firm wykorzystujących transmisję wideo, np. streaming notowań w czasie rzeczywistym, rozwiązaniem zwiększającym dostępne pasmo jest transmisja w trybie multicast: obraz/dźwięk są przesyłane przez sieć WAN jednostrumieniowo, a dopiero w sieci lokalnej następuje rozdzielenie do poszczególnych użytkowników. Aby skorzystać z dobrodziejstw transmisji multicast, trzeba jednak zainwestować w sprzęt i aplikacje wykorzystujące jej zalety.

O ile w sieci lokalnej stosowanie mechanizmów QoS można uznać za opcjonalne, o tyle w sieciach rozległych to konieczność. Dostępne metody to m.in. kolejkowanie/priorytetowanie zapewniające minimalne pasmo dla poszczególnych usług/aplikacji, polityki transmisji (policing), umożliwiające ustalanie górnych limitów pasma oraz modelowanie ruchu (traffic shaping), będące czymś pośrednim pomiędzy dwoma pierwszymi technikami. Wykorzystanie mechanizmów QoS jest zasadne szczególnie wtedy, gdy - zazwyczaj ze względów bezpieczeństwa - oddziały nie mają własnego łącza do Internetu, lecz korzystają z łącza internetowego centrali. Istnieje spora szansa, że wraz z rozwojem technologii MPLS konieczność wyboru między szybkością transmisji a bezpieczeństwem w oddziałach terenowych zniknie, przy jednoczesnym zachowaniu zaawansowanych reguł QoS.

W sieciach metropolitalnych kuszącą propozycją z punktu widzenia szybkości transmisji może się wydawać rezygnowanie z relatywnie wolnych łączy do sieci WAN na rzecz - znacznie wydajniejszego - przełączania w warstwie trzeciej. Umożliwia to uzyskiwanie szybkości gigabitowych, wcześniej trzeba jednak zainwestować we własny światłowód.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200