Zwiększanie wydajności sieci

Co zrobić, gdy nasza sieć zaczyna się "zatykać"? Jaka jest najprostsza droga do poprawy sprawności sieci? Odpowiedź wydaje się prosta: zwiększyć liczbę łączy, przełączników, zamówić większą przepustowość u operatora. Jednak postępowanie takie, chociaż wydaje się naturalne, nie zawsze jest najlepszym rozwiązaniem problemu zapchanej sieci. Można wydać fortunę na infrastrukturę i większe pasmo, ale sama przepustowość nie rozwiąże kwestii sprawności sieci.

Co zrobić, gdy nasza sieć zaczyna się "zatykać"? Jaka jest najprostsza droga do poprawy sprawności sieci? Odpowiedź wydaje się prosta: zwiększyć liczbę łączy, przełączników, zamówić większą przepustowość u operatora. Jednak postępowanie takie, chociaż wydaje się naturalne, nie zawsze jest najlepszym rozwiązaniem problemu zapchanej sieci. Można wydać fortunę na infrastrukturę i większe pasmo, ale sama przepustowość nie rozwiąże kwestii sprawności sieci.

Zwiększanie wydajności sieci
Lepszym pomysłem jest inteligentne zapobieganie przeciążeniom za pomocą urządzeń i oprogramowania do zarządzania ruchem. Z pomocą przychodzą tu akceleratory sieci WAN, aplikacji, inteligentne systemy buforujące, mechanizmy równoważenia obciążenia (load balance), bramy obsługujące różne polityki obsługi ruchu, a także rozwiązania specyficzne dla danych aplikacji, zwiększające tzw. QoE klienta (Quality of Experience).

Umiejętna centralizacja

Działy IT stoją przed wyzwaniem centralizacji rozproszonych dotychczas zasobów serwerowych, aby zapewnić zgodność i aktualność danych, zwiększyć ich poufność oraz zmniejszyć koszty utrzymania usług sieciowych. Musi to być dokonane bez zmniejszenia produktywności i zmiany nawyków pracowników zdalnych oddziałów.

Dostęp do aplikacji bogatych w treści, takich jak e-mail, za pośrednictwem łączy WAN o dużych opóźnieniach i ograniczonej przepustowość potrafi być frustrujący. Dotychczas rozwiązaniem tego problemu było tworzenie rozproszonych, lokalnych kopii serwerów z danymi. Najnowszym trendem lansowanym przez producentów (np. Cisco, HP czy Nortel) jest centralizacja zasobów, przy jednoczesnym rozmieszczeniu w oddziałach urządzeń usprawniających wymianę danych centrala-oddział.

Optymalizacja pracy w sieci ma charakter dwuczęściowy. Opiera się na akceleracji obsługi danej aplikacji oraz technikach przyśpieszających wymianę danych w sieciach WAN. Pozwala to na centralizację aplikacji i redukcję kosztownych serwerów oraz pamięci rozproszonych dotychczas w oddziałach.

Trzy poziomy akceleracji

Zwiększanie wydajności sieci
Do podstawowych mechanizmów należą: kompresja, eliminacja nadmiarowego przesyłu danych, optymalizacja transportu, buforowanie oraz odchudzenie protokołów sieciowych. Akceleracja dokonywana jest zwykle na trzech poziomach:
  • Redukcja opóźnienia i zajmowanej przepustowości w warstwie 7 - poprzez optymalizację ukierunkowaną na aplikacje: usunięcie niepotrzebnych komunikatów, grupowanie wiadomości i operacji, zastosowanie technik buforowania minimalizujących ilość podróżujących w sieci danych.
  • Zwiększenie możliwości przesyłowych przy tej samej szerokości pasma w warstwie 4 - dzięki mechanizmom Data Redundancy Elimination (DRE), kompresji LZ (Lempel-Ziv) oraz Transport Flow Optimization (TFO) opartemu na rozszerzeniu standardu TCP.
  • Transparentna integracja sieci w warstwach 3 i 4, umożliwiająca wspólne stosowanie technik klasyfikacji ruchu, QoS, reguł routingu czy równoważenia obciążenia.
Wymienione powyżej metody akceleracji mają charakter ogólny. W przypadku aplikacji o znaczeniu krytycznym i często dużym obciążeniu należy zagłębić się w szczegółową konfigurację i optymalizację danej usługi (np. serwery baz danych, serwery http). Osoby, które konfigurowały narzędzia do obsługi wielu zgłoszeń mają świadomość jak pracochłonne jest dostrojenie takich aplikacji. Czasami nie ogranicza się to tylko do zmiany parametrów w plikach konfiguracyjnych, ale także do modyfikacji kodu źródłowego aplikacji.

Część z rozwiązań przyśpieszających pracę sieci zawiera mechanizmy kompresji nagłówka TCP. Istnieje niebezpieczeństwo, że podczas tego zabiegu stracimy informacje związane z bezpieczeństwem, QoS czy wykorzystywane do monitorowania połączenia.

Czy to się opłaca?

Oczywistą wartością biznesową jest przyśpieszenie pracy naszej sieci. Po pierwsze zmniejsza to czas oczekiwania przy pracy ze zdalnymi plikami i aplikacjami, po drugie poprawia komfort pracy w sieci i zadowolenie użytkownika. Trzecią zaletą jest zmniejszenie pasma, za które należy płacić dostawcy Internetu - odchudzone są nie tylko protokoły sieciowe, ale również ograniczona zostaje wielokrotna transmisja tych samych danych. Ponieważ część serwerów można przenieść do centralnej lokalizacji, zmniejsza się liczba wymaganych dla nich licencji, a także można ograniczyć liczbę osób potrzebnych do obsługi systemu (co nie dla wszystkich jest dobrą wiadomością). Centralizacja zasobów likwiduje problem tworzenia backupów danych ze zdalnych oddziałów.

Jeżeli chcemy korzystać z dobrodziejstw akceleracji, niekoniecznie musimy inwestować od razu w dedykowane urządzenie. Coraz częściej mechanizmy akceleracyjne dostępne są jako moduły oprogramowania lub karty rozszerzeń.

Poczta na sterydach

Zwiększanie wydajności sieci
Pomimo że poczta jest usługą powszechną, to jej sprawne działanie dla wielu firm jest bardzo ważne. Pamiętać należy, że usługi pocztowe mogą wykorzystywać kilka protokołów IMAP, microsoftowy MAPI oraz najbardziej popularną parę SMTP i POP3.

Mechanizmy stosowane w rynkowych rozwiązaniach to: TFO, DRE i kompresja LZ.

TFO (Transport Flow Optimizations) - kończy lokalnie sesje TCP i transparentnie optymalizuje strumień przesyłany dalej do sieci WAN. TFO działa m.in. w taki sposób:

  • ustawia duże, początkowe okno transmisyjne TCP (TCP Window size), dzięki czemu połączenia "rozpędzają" się szybciej do dostępnych w danych warunkach przepływności. W tradycyjnych sesjach TCP początkowe okno transmisyjne jest małe i zwiększane stopniowo powoli, dopóki w przesyłanej sekwencji pakietów nie zaczynają występować błędy lub straty pakietów. Mechanizm ten ma na celu dostosowywanie transmisji do możliwości sieci i unikanie zatorów;
  • zwiększa rozmiar okna transmisyjnego, aby możliwe było przesyłanie jednocześnie większej ilości danych;
  • zaawansowana obsługa zatorów, polegająca na odpowiednim sterowaniu ruchem, retransmisją straconych danych, dzięki czemu sieć powraca szybciej do stanu pełnej przepustowości.
DRE (Data Redundancy Elimination) to eliminacja transferu redundantnych danych. Polega na wyłapywaniu powtarzającego się strumienia bitu i zastępowaniu go znacznikiem. W miejscu docelowym ów identyfikator zamieniany jest z powrotem na ciąg danych. Mechanizm ten działa nie tylko na całych plikach, ale także na ich fragmentach. Odtworzone pliki w celach kontrolnych mogą być weryfikowane przez zdalne urządzenie akcelerujące. Mechanizm działa dwukierunkowo i nie ma znaczenia czy przesyłamy dane do czy z centrum danych. Ponadto zidentyfikowany, powtarzający się fragment danych wykorzystywany przez jedną aplikację może być zastosowany w przypadku innej aplikacji. Zmniejsza to ilość pobieranych danych szczególnie przy korzystaniu z poczty (powtarzalne załączniki) i pracy zdalnej z dokumentami. Administrator systemu ma możliwość definiowania wartości krytycznej, powyżej której powtarzający się fragment zastępowany jest znacznikiem.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200