Szybciej, ale z klasą

Akceleracja w centrum danych jest potrzebna, ale tylko taka, która nie powoduje dodatkowych problemów. Tak sądzą klienci, a pod ich wpływem coraz częściej również producenci rozwiązań.

Akceleracja w centrum danych jest potrzebna, ale tylko taka, która nie powoduje dodatkowych problemów. Tak sądzą klienci, a pod ich wpływem coraz częściej również producenci rozwiązań.

Szybciej, ale z klasą
Określenie "akcelerator" jest stosowane w różnych kontekstach i nazwach rozwiązań sprzętowych, programowych i hybrydowych. Akceleracja to zwiększanie wydajności, zazwyczaj w odniesieniu do wykonywania pewnych wąsko specjalizowanych operacji przez z natury uniwersalne komputery i serwery. Przykładem oczywistym jest akceleracja przetwarzania grafiki obecna w prawie każdym współczesnym komputerze, a w świecie rozwiązań dla przedsiębiorstw akceleracja obejmuje m.in. obsługę szyfrowania danych oraz komunikacji w sieciach TCP/IP.

Względnie nowym i szybko rozwijającym się segmentem rynku są urządzenia do akceleracji aplikacji (application acceleration devices). Tego typu systemy są określane również jako przełączniki treści (content switches) lub kontrolery dostarczania aplikacji (application delivery controllers). Umożliwiają one zwiększenie wydajności dostarczania treści, ograniczając potrzebę inwestycji w wydajne serwery i szerokopasmowe łącza. Akceleratory aplikacji są już oferowane przez wielu producentów, np. Array Networks, Crescendo Networks, Citrix Systems, F5 Networks, Foundry Networks i Juniper Networks.

Najlepiej wszystko w jednym

Warto zauważyć, że obecnie zarówno urządzenia do zabezpieczania dostępu do sieci i analizy ruchu, wydajne szyfratory, jak i akceleratory aplikacji są najczęściej dodatkowymi urządzeniami typu appliance instalowanymi w sieci. Rozwiązania tego rodzaju z zasady mają ułatwić konfigurację i zarządzanie systemami, ale w dużych organizacjach powstaje z reguły mieszanka różnego rodzaju rozwiązań, co paradoksalnie tworzy dodatkowe problemy właśnie z zarządzaniem takim heterogenicznym środowiskiem.

Ale nie ma róży bez kolców. Owe "wygodne i łatwe w konfiguracji" rozwiązania programowo-sprzętowe dostarczane są bardzo często z własnymi narzędziami do zarządzania, które niekoniecznie integrują się dobrze z większymi rozwiązaniami do zarządzania infrastrukturą. O ile w małej czy średniej firmie jest to do zniesienia, w dużej organizacji będzie to poważna wada.

Niezależnie od tego akceleracja dotyczy różnych warstw infrastruktury, więc rozwiązania ją realizujące bywają instalowane przez różne zespoły. Przykładowo, administratorzy serwerów instalują systemy do równoważenia obciążeń i akceleratory dla sieci WAN, administratorzy sieci - moduły VPN, a pracownicy IT odpowiedzialni za bezpieczeństwo - systemy przyspieszające filtrowanie pakietów, inspekcję treści i analizę ruchu pod kątem prób włamań.

W związku z tymi problemami rozwój akceleratorów przeróżnych funkcji dąży w kierunku integracji z urządzeniami ogólnego przeznaczenia - serwerami, przełącznikami, routerami, bramami VPN.

Chodzi przede wszystkim o zmniejszenie liczby urządzeń, którymi trzeba niezależnie zarządzać. Taka integracja nie ogranicza funkcjonalności, bowiem zakres funkcjonalny i kontekst działania takich rozwiązań jest bardzo jasno określony.

Technologie dla nowej generacji przełączników dla sieci LAN są już obecnie przygotowywane przez producentów sprzętu, choć na ich masowe zastosowania trzeba będzie zaczekać jeszcze przynajmniej 2-3 lata. Wiadomo jednak, że ich architektura będzie rozwijana przede wszystkim w kierunku wyposażenia w zaawansowane, zintegrowane funkcje zabezpieczeń, jak zapora firewall, systemy IDS/IPS i moduły do obsługi połączeń SSL.

Bardzo wyraźnie rysuje się także przyszła możliwość uruchamiania na urządzeniach sieciowych mechanizmów optymalizacji dostępu do aplikacji, m.in. akceleracji transmisji HTTP, optymalizacji dostępu do plików w sieciach WAN lub równoważenia obciążeń serwerów aplikacyjnych i buforowanie danych. Zależnie od producenta technologie tego typu noszą różne określenia: 3Com mówi o blade control, Cisco - application-aware networking, Juniper - application fluency, a Enterasys - context networking.

W praktyce pod tymi nazwami kryje się nowa generacja przełączników, które mają zawierać nie tylko ulepszone klasyczne mechanizmy analizy i precyzyjnego przesyłania pakietów, ale również możliwości detekcji i zarządzania strumieniami danych przesyłanych przez pojedyncze aplikacje. Tego typu funkcjonalności będą mogły być wykorzystane do zwiększenia poziomu zabezpieczeń transmisji lub też do zwiększenia jej wydajności.

Przyspieszyć aplikację

Szybciej, ale z klasą

John Roese, CTO w firmie ENTERASYS

Podstawowe funkcje implementowane w akceleratorach aplikacji, a odróżniające je od klasycznych systemów do równoważenia obciążeń, to przełączanie w warstwie aplikacji (warstwa 7), kompresja HTTP, odciążanie serwerów od przetwarzania protokołu TCP (TCP Offload), mechanizmy buforowania oraz zabezpieczanie serwerów przed gwałtownymi przyrostami liczby zapytań.

Przełączanie w warstwie 7 oznacza, że urządzenie sieciowe wykorzystuje kryteria udostępniane przez warstwę aplikacji, by określić, gdzie mają być przesyłane żądania. W efekcie serwery WWW mogą precyzyjniej adresować kierunek przesyłania pakietów niż ma to miejsce przy zastosowaniu tradycyjnych urządzeń do równoważenia obciążeń działających w warstwie czwartej.

Jeżeli przykładowo żądanie zawiera adres URL zakończony ciągiem znaków ".html", to może być bezpośrednio skierowane do grupy serwerów obsługujących pliki tekstowe, a jeśli kończy się znakami ".jpg" - do serwerów zarządzających plikami graficznymi. Natomiast urządzenia pracujące w warstwie 4 widzą jedynie żądanie dostępu do portu 80 TCP i nie pozwalają na bardziej precyzyjne określenie adresata żądania.

Kompresja HTTP umożliwia redukcję pasma wykorzystywanego do transmisji danych, a jej implementacja w akceleratorze odciąża procesory serwerów od konieczności przetwarzania odpowiednich algorytmów kompresyjnych. Zastosowanie tego mechanizmu może przyspieszyć dostarczanie treści, ale wymaga uwzględnienia odpowiednich reguł pozwalających na kontrolowanie, które pliki mogą być kompresowane, a które nie, a także dobrze współpracować z różnymi przeglądarkami internetowymi znajdującymi się w urządzeniach klienckich.

Multipleksacja TCP to mechanizm umożliwiający scalanie dużej liczby jednoczesnych połączeń zewnętrznych ze strony klientów do znacznie mniejszej liczby połączeń nawiązywanych bezpośrednio z serwerami. Ponieważ obsługa przełączania TCP bezpośrednio przez serwery powoduje duże obciążenie ich procesorów, zewnętrzne mechanizmy multipleksacji umożliwiają istotne zmniejszenie wymagań odnośnie do liczby procesorów lub alternatywnie - pozwalają zwiększyć wydajność.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200