Trudne testowanie wydajności

Nie tylko macierze...

Problem wydajności nie dotyczy tylko pamięci masowych. Bardzo istotnym elementem jest ocena wymagań aplikacji, bo to do nich powinien być dopasowany sprzęt, także ze względu na wydajność. Wartość biznesowa takich analiz nie jest obecnie doceniana.

"Zdaniem wielu decydentów, koszt takich analiz jest zbyt duży. A skuteczności narzędzi analitycznych nie da się udowodnić potencjalnemu klientowi, zanim nie zobaczy on praktycznych skutków ich wykorzystania w swoim własnym środowisku. Oprócz tego wielu decydentom wydaje się, iż jest to jednorazowe działanie i kupowanie oprogramowania, by wykonać jedną analizę nie ma sensu" - zauważa Jacek Woytynowicz, Senior Presales Consultant w Symantec. Tymczasem wciąż powstają nowe wersje baz danych lub aplikacji i rodzą się nowe wąskie gardła. Często też zdarza się, że aplikacje bazodanowe są źle napisane i zawierają błędy. Niestety wielu użytkowników dopiero, gdy zaczynają kończyć się granice możliwości dokładania kolejnych procesorów i rozszerzania pamięci, zaczyna doceniać znaczenie narzędzi do analizy i optymalizacji aplikacji.

Tymczasem dostępne jest na rynku oprogramowanie, które pozwala na pełną analizę wydajności systemu i wykrywanie jego słabych punktów, obejmującą komputery PC lub terminale, serwery webowe, aplikacje dostępowe, systemy bazodanowe i pamięci masowe. Przykładem mogą być narzędzia Symantec i3, które analizują wydajności i przepustowości w tych wszystkich warstwach systemu i zawierają wtyczki programowe plug-in dla popularnych baz danych. Na podstawie rejestrowanych statystyk oprogramowanie to umożliwia m.in. określenie długookresowych zmian w obciążeniu elementów systemu i szacowanie, co się wydarzy nawet za pół roku, co ułatwia metodyczne planowanie i modyfikacje infrastruktury.

Problematyczne testy

Naturalną czynnością przy planowaniu zakupu macierzy dyskowych jest przeprowadzenie odpowiednich testów wydajnościowych i większość producentów deklaruje pomoc i udział w ich realizacji. Testy jednak okazują się dość problematyczne. Trudno jest odtworzyć w warunkach laboratoryjnych bazę danych klienta, nie mając dostępu do jego danych. Do takich testów warto zastosować dostępne na rynku oprogramowanie, które zamienia wszystkie dane w bazie na losowy ciąg znaków, ale zostawia jej strukturę, dając możliwość wykonania testów dobrze przybliżających realne warunki.

Bartosz Charliński przestrzega jednak użytkowników, którzy sami chcieliby wykonać proces oceny wydajności pamięci masowych, znając liczbę operacji IOPS, którą chcą uzyskać od macierzy. "Typowy błąd polega na tym, że użytkownicy wykorzystują parametry macierzy określone w specyfikacji technicznej. Producenci często zaś zamieszczają tam parametr IOPS, ale dotyczący ruchu między pamięcią cache i hostem, czyli przy założeniu, że cały LUN mieści się w pamięci cache. Ma to niewiele wspólnego z rzeczywistym środowiskiem" - wyjaśnia.

Zbigniew Swoczyna, Storage Architect w polskim oddziale Sun Microsystems, wskazuje na jeszcze jeden aspekt. "Praktycznie wszyscy producenci korzystają z dysków od tych samych dostawców i różnice wydajności nie mogą być zbyt duże. Wprawdzie architektura macierzy pozwala czasami lepiej wykorzystać możliwości dysku, ale są to różnice rzędu kilkunastu procent. Podobny wpływ na wydajność może mieć konfiguracja środowiska: kart FC, sieci SAN, a szczególnie ustawienia parametrów systemu plików czy sterowników kart. Warto też pamiętać że wydajności prezentowane w testach osiągane są zwykle w bardzo dużych systemach, więc jeżeli konfiguracja jest uboższa, to również parametry wydajności będą niższe" - konkluduje.


TOP 200