Budujemy sieć SAN

Łatwość instalowania i obsługi

Przyznając punkty w tej kategorii oceny sprawdzano, ile czasu trzeba poświęcić, aby urządzenie zainstalować, odpowiednio skonfigurować i następnie wdrożyć do eksploatacji.

Testy wykazały, że przełączniki SilkWorm 2400 i 2800 (Brocade) zasługują rzeczywiście na to, aby nazwać je urządzeniami typu „włącz i używaj”. Na drugim miejscu uplasował się przełącznik Capellix 2000G (Gadzoox). Proszę jednak pamiętać o tym, że przełącznik ten nie brał udziału w testach uruchamianych w sieci o topologii składającej się z wielu takich węzłów sieci.

Przełączniki 7100 i 7200 (Vixel) - oraz w mniejszym stopniu SANbox - stwarzały pewne problemy. Uwaga ta dotyczy szczególnie tych sytuacji, gdy urządzenie musiało współpracować z innymi przełącznikami (a więc problemy z kompatybilnością).

Metodologia testowania przełączników

Budujemy sieć SAN
Stanowisko testowania przełączników SAN składało się ze stałych elementów: siedmiu serwerów Windows NT wyposażonych w interfejsy HBA (Host Bus Adapter - tak są nazywane w tym środowisku karty sieciowe), wyprodukowane przez firmę QLogic (model QLA2200F/33), i z identycznego docelowego podsystemu dyskowego (pamięć masowa). Zmieniały się tylko testowane przełączniki i dlatego wydajność sieci SAN zależała od wydajności zainstalowanych w niej przełączników.

Wszyscy producenci (oprócz firmy Gadzoox) dostarczyli cztery przełączniki (dwa 8- i dwa 16-portowe), które podczas testowania łączono ze sobą w odpowiedni sposób (topologia rombu). Gadzoox udostępnił tylko jeden przełącznik. Przełączniki łączono w taki sposób m.in. po to, aby przetestować, czy rozdzielnica (sieć szkieletowa) potrafi przekierowywać automatycznie pakiety na inną ścieżkę wtedy, gdy w sieci zdarzy się awaria unieruchamiająca któryś z przełączników lub jedno z połączeń rozdzielnicy odmówi posłuszeństwa. Każdy przełącznik testowano też, gdy obsługiwał całą sieć sam, podłączając do niego wszystkie serwery i docelową pamięć masową. Produkt firmy Gadzoox nie obsługuje topologii opartej na wielu przełącznikach, dlatego testowano w tym wypadku sieć składającą się tylko z jednego przełącznika.

Do generowania ruchu pakietów - chodzi o pakiety wymieniane z układami I/O dysków twardych - używano serwerów (od jednego do siedmiu) platformy Windows NT 4.0 (z zainstalowanym pakietem serwisowym SP 6a). Były to serwery wyposażone w procesor Pentium III (500 MHz) i 128 MB pamięci RAM. W serwerach zainstalowano identyczne adaptery sieci Fibre Channel (produkt firmy QLogic), obsługujące światłowód wielomodowy (wiązka światła o małej długości), którymi zarządzał zawsze taki sam sterownik.

Na każdym z serwerów zainstalowano pomiarowe narzędzie programistyczne opracowane przez Intel (bezpłatny produkt IOMeter wersja 1999.10.20). IOMeter generuje pakiety (uruchamiając zadania odczytywania i zapisywania danych i obciążając nimi układy I/O dysków twardych) i mierzy wydajność testowanego produktu, a następnie tworzy na podstawie przeprowadzonych pomiarów stosowne raporty. Narzędzie to pracuje w ten sposób, że jeden serwer pełni rolę stacji głównej (kontrolującej i uruchamiającej testy na innych serwerach), która następnie zbiera i konsoliduje dane zawierające informacje o wydajności.

Jeśli chodzi o docelową pamięć masową, to w sieci zainstalowano dwa systemy Eurologic XL-400 JBOD (Eurologic Systems), każdy dysponujący siedmioma dyskami Seagate Cheetah 18LP (18 GB) i firmowym interfejsem Fibre Channel. Systemy te połączono w kaskadę, tak iż w testowanej sieci SAN pracowało 14 docelowych obiektów pamięci masowej.

Do mierzenia wydajności i opóźnień użyto analizatora Gigabit Traffic Analyzer firmy Finisar (analizator wyposażony w bufor śledzący o pojemności 256 MB).

Mierzenie przepustowości przebiegało w następujący sposób. Najpierw testowano konfigurację z jednym serwerem inicjującym i czterema dyskami docelowymi - przesyłając pakiety przez jeden przełącznik, a następnie przez sieć szkieletową składającą się z wielu przełączników. Następnie testowano konfigurację z siedmioma serwerami inicjującymi i z czternastoma dyskami docelowymi - przesyłając pakiety przez jeden przełącznik, a następnie przez rozdzielnicę. Za każdym razem analizator IOMeter generował operację czytania, następnie zapisywania danych (bloki o długości 10 MB), a w kolejnym kroku zadania będące kombinacją tych operacji (50 proc. - odczytywanie danych i 50 proc. zapisywanie). Każdy z powyższych testów powtarzano trzy razy i dla każdego obliczano wartości średnie - przepływności w megabajtach na sekundę (jest to wartość informująca, ile razy plik mający długość 10 MB może być w ciągu jednej sekundy zapisywany lub odczytywany) i czasy odpowiedzi układów I/O (jest to podawana w milisekundach wartość informująca, ile czasu musi upłynąć, aby operacja czytania i zapisywania danych została zakończona).

Do mierzenia opóźnień użyto analizatora Finisar Gigabit Traffic Analyzer, który dodawał znaczniki czasu do pierwszych dziesięciu poleceń SCSI generowanych przez serwer (polecenia te były przekazywane do rozdzielnicy SAN opartej na wielu przełącznikach). Następnie znaczniki te porównywano ze znacznikami czasu dołączanymi do poleceń opuszczających rozdzielnicę przełącznika. Test powtarzano dwa razy i obliczano wartość średnią opóźnienia.

Do pomiaru czasu potrzebnego do awaryjnego przekonfigurowania sieci użyto analizatora IOMeter, który generował ciągły strumień operacji odczytujących dane (bloki danych o długości 2 KB; żądania generowane przez serwer inicjujący, wysyłane do czterech dysków docelowych). Następnie unieruchamiano jedno z łącz obsługujących transmisję danych między przełącznikami i sprawdzano, jak zachowuje się sieć. W kolejnym teście siedem serwerów inicjujących generowało żądania odczytu danych (bloki o długości 10 MB) kierowane do czternastu dysków docelowych i następnie (jak poprzednio) znienacka unieruchamiano aktywne łącze sprzęgające przełączniki. Za każdym razem sprawdzano, ile czasu musi upłynąć, zanim sieć powróci do normalnej pracy.

Na koniec uruchamiano kilka testów na wydajność sieci SAN świadczącej swe usługi serwerowi NT, który archiwizuje dane, zapisując je na docelowym systemie pamięci taśmowej.


TOP 200