Tamy na SANnie

Jednym z celów wdrożenia technologii SAN jest osiągnięcie wysokiej wydajności dostępu do danych. Jednak mnogość elementów znajdujących się na trasie od serwera do dysku twardego rodzi niebezpieczeństwo powstawania wąskich gardeł.

Jednym z celów wdrożenia technologii SAN jest osiągnięcie wysokiej wydajności dostępu do danych. Jednak mnogość elementów znajdujących się na trasie od serwera do dysku twardego rodzi niebezpieczeństwo powstawania wąskich gardeł.

Tamy na SANnie

O macierzy do serwera

Coraz bardziej skomplikowana struktura sieci SAN powoduje, że wzrasta liczba miejsc, w których powstają wąskie gardła. Należy je identyfikować już na etapie planowania sieci, przeprowadzając dokładną analizę projektu i natężenia ruchu w różnych wariantach. Wydajność rozwiązania zależy m.in. od wolumenów przesyłanych danych, liczby serwerów i pamięci masowych oraz typu aplikacji transmitujących dane.

Dyski

Najważniejszym elementem na trasie danych do docelowego serwera są dyski twarde. "Częstym błędem popełnianym przy konsolidacji zasobów dyskowych z wielu serwerów do jednej macierzy pracującej w sieci SAN jest zmniejszenie liczby dysków na rzecz zastosowania dysków o większej pojemności" - twierdzi Piotr Jelski, prezes firmy Comtegra specjalizującej się w budowie rozwiązań pamięci masowych.

Zmniejszenie liczby dysków powoduje, że efektywna szybkość zapisu/odczytu danych spada. "Talerze w każdym z dysków kręcą się z określoną szybkością, dysk ma określony czas wyszukiwania danych, pamięć podręczną i zdolny jest obsłużyć określoną liczbę zapytań I/O na sekundę. Wymieniając wiele mniejszych dysków na kilka większych, można wprawdzie obsłużyć tę samą wielkość danych, ale sumaryczna wydajność będzie mniejsza" - twierdzi Piotr Jelski. Lepszym rozwiązaniem jest zatem wyposażenie macierzy w większą liczbę dysków, na których dzięki programowym mechanizmom można rozproszyć dane (informacje są zapisywane równomiernie na wszystkich dyskach). A ponieważ do zapisu i odczytu danych wykorzystywanych jest więcej głowic, proces odbywa się szybciej niż na jednym dysku o dużej pojemności.

Konstrukcja magistrali

Dla wydajności duże znaczenie ma również sposób konstrukcji magistrali komunikacyjnej, która może być zorganizowana jako klasyczna magistrala typu bus (stosowana zazwyczaj w macierzach modularnych) lub jako magistrala o konstrukcji przełącznika (crossbar). Urządzenia dołączone do magistrali typu bus "konkurują" o prawo do przesyłania danych. W przypadku magistrali krzyżowej wszystkie urządzenia mogą transmitować dane równolegle (połączone są punkt-punkt), co powoduje, że praktycznie nie następuje spadek wydajności z powodu obciążenia magistrali.

W macierzach modularnych dyski podłączone są zazwyczaj do wewnętrznej pętli Fibre Channel, której przepustowość jest z góry ograniczona (pracują one z szybkością 1 Gb/s lub 2 Gb/s). W zaawansowanych macierzach występuje kilka wewnętrznych pętli FC. I chociaż standard FC pozwala dołączyć do jednej pętli 127 urządzeń (np. dysków), to w rzeczywistości pętla zostaje "nasycona" przy znacznie mniejszej liczbie dołączonych dysków.

Przykładowo, jeśli pojedynczy dysk umożliwia sekwencyjną transmisję danych z szybkością 5 MB/s, to do pętli FC-AL o przepustowości 2 Gb/s można podłączyć ok. 40 takich dysków. Jednocześnie należy pamiętać, że część pasma w każdej pętli jest wykorzystana do tzw. sygnalizacji (przekazywania komunikatów i poleceń), a nie transmisji właściwych danych. W efekcie rzeczywista przepustowość pętli jest mniejsza. "Do osiągnięcia maksymalnej wydajności zaleca się instalację 30-50 dysków na jednej pętli FC" - mówi Piotr Jelski. Warto zwrócić uwagę, że wielu producentów, wyliczając maksymalną pojemność swoich macierzy, zapewnia, że na jednej pętli FC można instalować znacznie większą liczbę dysków, np. 120. Chociaż operacja taka jest możliwa do przeprowadzenia i pozwala np. na potrzeby marketingowe kilkakrotnie zwiększyć maksymalną objętość obsługiwanych dysków, to pod względem wydajności efekt rzadko bywa satysfakcjonujący.

Kontroler i cache

Newralgicznymi elementami macierzy są: kontroler i pamięć cache. Zastosowanie efektywnych algorytmów zarządzania pamięcią podręczną umożliwia zwiększenie wydajności całej macierzy - część danych odczytywana z pamięci cache jest transmitowana co najmniej o rząd wielkości szybciej niż dane odczytywane z dysków macierzy. I odwrotnie: nieefektywne algorytmy zarządzania pamięcią podręczną powodują wydłużenie czasu odczytu i zapisu danych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200