Wirtualne korzyści

Za mało automatu

Dostarczenie określonej wielkości przestrzeni dyskowej czy nawet zapewnienie jej wydajności to nie wszystko. Są firmy, w których systemy pamięci masowych muszą oferować pewien minimalny, a przy tym możliwy do zmierzenia poziom usług. Ciężar odpowiedzialności personelu przesuwa się wtedy z działań doraźnych w stronę określania polityki udostępniania zasobów na podstawie zdefiniowanych wcześniej wymagań biznesowych. Aby miało to sens, raz zdefiniowane parametry powinny być automatycznie utrzymywane na określonym poziomie.

Część czynności, np. przenoszenie danych obciążonego napędu na mniej obciążony czy równoważenie obciążenia między kanałami Fibre Channel, można już realizować. Upowszechnienie tego rodzaju funkcji niewątpliwie podniosłoby walory wirtualizacji w oczach potencjalnych użytkowników. Wiele innych czeka jednak na implementację lub jest implementowanych wycinkowo, np. interfejsy pozwalające na wzajemną komunikację aplikacji z systemem przechowywania danych i dostosowywanie sposobu pracy macierzy do bieżących potrzeb systemu informatycznego. Obserwując prace nad włączaniem specyfikacji CIM/Bluefin do produktów poszczególnych producentów, nie ma powodów do zbytniego optymizmu.

Zagrożenia jawne i ukryte

Platforma wirtualizacji, ze względu na rolę, jaką pełni, staje się od razu krytycznym elementem infrastruktury informatycznej. Budzi to oczywiście uzasadniony niepokój osób rozważających możliwość wdrożenia takiego systemu. Oprócz analizy tej koncepcji, niezbędne wydaje się przeprowadzenie wszechstronnych testów. Referencje wdrożeniowe mogą być dobrym źródłem informacji, ale w przypadku pionierskich rozwiązań są one z oczywistych względów trudno osiągalne.

W opinii wielu szefów informatyki wprowadzenie wirtualizacji stwarza znacznie większe zagrożenie niż przynosi korzyści, a oni sami, świadomi odpowiedzialności, z trudem dają się namówić do pełnienia roli królika doświadczalnego. Do podjęcia ryzyka może ich zachęcić rzetelne przedstawienie możliwości uzyskania konkretnych korzyści biznesowych i to pod warunkiem, że dostawca będzie w stanie udowodnić wysoką niezawodność proponowanego rozwiązania. Producenci zdają sobie z tego sprawę i zapewniają swoim rozwiązaniom nadmiarowość w razie awarii. Zabezpieczenia sprzętowe można względnie łatwo zweryfikować. Znacznie trudniej jest rozproszyć obawy związane z niezawodnością algorytmów sterowania czy platformy systemowej.

Systemy wirtualizacyjne muszą współpracować bezbłędnie z innymi elementami sieci SAN: systemami operacyjnymi, urządzeniami pamięci i całą warstwą sieciową. Wiadomo przy tym, że w tej akurat dziedzinie problemów z kompatybilnością - wynikających choćby z różnego interpretowania wspólnych teoretycznie standardów - było dotychczas bardzo dużo. Nawet jeżeli w momencie uruchomienia system działa poprawnie, mogą się one pojawić w każdej chwili, np. w wyniku włączenia do sieci SAN rozwiązań innego dostawcy, zmiany wersji oprogramowania czy choćby aktualizacji sterownika karty HBA.

W materiałach marketingowych producenci rozwiązań wirtualizacji często kładą nacisk na możliwości uniezależnienia się użytkownika od dostawcy systemów pamięci masowych. To prawda - większość dostępnych produktów może obsłużyć szeroki wachlarz urządzeń różnych producentów. Niestety, jednocześnie przemilczany jest fakt, że w zamian klient uzależnia się od dostawcy systemu wirtualizacji. Uzależnienie to jest przy tym znacznie bardziej brzemienne w skutki - aby wirtualizacja miała sens, musi objąć całą infrastrukturę. Raz podjętą decyzję bardzo trudno później zmienić. Zagrożenie uzależnieniem od jednej firmy w tak strategicznym obszarze musi u wielu budzić uzasadniony niepokój, tym bardziej że platformy wirtualizujące wprowadzają własne rozwiązania z zakresu szyfrowania i kontroli dostępu do danych.

Wygoda kontra wydajność

W dyskusjach o wirtualizacji rzadko porusza się kwestię wydajności. Chociaż operacje logiczne wykonywane przez warstwę wirtualizacji nie są zbyt skomplikowane, fakt jej istnienia wydłuża czas realizacji odwołań do systemów pamięci masowych bez względu na formę rozwiązania wirtualizacyjnego (sprzętowe, programowe) i przyjętą architekturę.

Przed podjęciem decyzji użytkownik musi odpowiedzieć na pytania: czy w tym konkretnie przypadku, biorąc pod uwagę wymagania użytkowników, jest możliwe wprowadzenie dodatkowego opóźnienia na ścieżce przesyłania danych i, co więcej, czy to opóźnienie nie przekroczy akceptowalnych wartości w przypadku dalszej rozbudowy systemu. Szczególnie ta druga kwestia, ze względu na niewielki zasób doświadczeń, może być trudna do oszacowania.

Korzyści nie dla każdego

W początkowym okresie systemy wirtualizacji pamięci masowych były przez producentów adresowane przede wszystkim do największych użytkowników, mających bardzo rozbudowane instalacje. Liczono na to, że propozycja jednolitej platformy zarządzania coraz bardziej skomplikowaną infrastrukturą i możliwość pełnego wykorzystania niejednokrotnie marnowanych zasobów spotkają się z ich zainteresowaniem.

Praktyka pokazała jednak, że objęcie wspólnym rozwiązaniem wszystkich zainstalowanych już rozwiązań reprezentujących różny poziom zaawansowania i pochodzących od różnych dostawców nie jest łatwa. Nawet jeżeli producenci deklarują chęć współpracy, w praktyce nie nastąpi to prędko.

Na obecnym etapie rozwoju technologii wirtualizacji wdrożenie rozwiązań wirtualizacyjnych można polecić przede wszystkim firmom wykorzystującym dużą liczbę systemów pamięci masowych o relatywnie prostej konstrukcji. W rozbudowanych środowiskach zawierających mieszankę macierzy różnej klasy wirtualizacja ciągle jeszcze może przynieść więcej szkody niż pożytku.

Na co zwrócić uwagę przy zakupie rozwiązania wirtualizacyjnego?
  • Czy produkt rzeczywiście zapewnia korzyści biznesowe?

  • Czy rozwiązanie może współpracować ze wszystkimi eksploatowanymi i planowanymi do wdrożenia systemami operacyjnymi i systemami plików; czy są dostępne wszystkie niezbędne sterowniki; co się stanie w przypadku konieczności ich aktualizacji?

  • Jak szeroki wachlarz systemów pamięci masowych rozwiązanie obsługuje?

  • Czy rozwiązanie współpracuje z szerokim spektrum urządzeń pamięci masowych i czy potrafi wykorzystać ich specyficzne funkcje?

  • Czy rozwiązanie zapewnia odpowiedni poziom bezpieczeństwa i niezawodności? Jak rozwiązanie jest zabezpieczone w razie awarii, konieczności zmiany wersji oprogramowania lub rozbudowy, również w kontekście wydajności i skalowalności?

  • Jak szczegółowe informacje o stanie infrastruktury wybrane rozwiązanie jest w stanie zbierać? Co można z takimi informacjami zrobić? Czy konfiguracja urządzeń może być zautomatyzowana?

  • Czy dane o stanie systemu są zbierane w czasie rzeczywistym i czy zbierane są automatycznie? Jakie są możliwości ich dalszego wykorzystania?

  • Jakie zabezpieczenia przed wzajemnym oddziaływaniem na siebie aplikacji rozwiązanie przewiduje? Jakie środki bezpieczeństwa danych i kontroli dostępu są możliwe?

TOP 200