Wirtualne korzyści

Architektura poszukiwana

Pomimo, wydawałoby się, niezaprzeczalnych walorów, istnieją konkretne powody, dla których zastosowanie wirtualizacji w korporacjach na razie pozostaje głównie na poziomie interesującej koncepcji. Nawet na tym poziomie dostawcy nie zdołali dotychczas wypracować wspólnego stanowiska i każdy proponuje własną wizję architektury, która jest zwykle przedłużeniem dotychczasowych doświadczeń firmy w obszarach, w których zdobyła relatywnie duże kompetencje. I tak producenci rozwiązań programowych forsują rozwiązania serwerowe, producenci macierzy preferują rozwiązania w formie oprogramowania firmware, zaś producenci przełączników Fibre Channel właśnie je widzą jako najlepszą platformę wirtualizacji.

Taka różnorodność propozycji, a przede wszystkim trudności z obiektywnym wykazaniem wyższości jednego rozwiązania nad innymi nie ułatwiają potencjalnym użytkownikom podjęcia decyzji. Z punktu widzenia twórców rozwiązań ich działania są uzasadnione, gdyż pozwalają im wykorzystać posiadaną wiedzę i przyśpieszyć proces przygotowania produktu. Dla klientów jest to jednak po prostu mało wiarygodne. Paradoksalnie więc najkorzystniej wypadają firmy młode, bo nie są obciążone zaszłościami. Większość z nich rozwija rozwiązania działające w warstwie sieciowej, co zapewnia im niezależność od dostawców pozostałych elementów infrastruktury - zarówno serwerów, jak i pamięci dyskowych.

Bez kupowania na zapas

W początkowym okresie eksploatacji systemu pamięci masowych ilość przechowywanych danych jest zwykle niewielka i dyski są wykorzystywane w małym stopniu, co powoduje bezproduktywne zamrożenie środków inwestycyjnych. Biorąc pod uwagę to, że ceny systemów dyskowych maleją obecnie w tempie ok. 30% rocznie, najlepszym wyjściem jest kupowanie tylko tyle pamięci dyskowej, ile jest w danej chwili potrzebne. Z drugiej jednak strony każdy administrator, pragnąc ograniczyć liczbę poważnych operacji przeprowadzanych w trakcie eksploatacji systemu, od początku dąży do konfiguracji systemu w formie jak najbardziej zbliżonej do postaci docelowej.

Niektóre platformy wirtualizacji zapewniają jednak rozwiązanie tego dylematu. Podejście zwane thin provisioning polega na tym, że podczas konfiguracji nowego woluminu jest od razu określany jego rozmiar docelowy i tak jest on widziany przez system operacyjny. Z punktu widzenia systemu pamięciowego natomiast jest to definicja umowna - w rzeczywistości warstwa wirtualizująca blokuje we wspólnej puli fizycznej pamięci dyskowej tylko tyle miejsca, ile potrzeba jedynie w danym momencie, niejako oszukując system operacyjny. W efekcie wykorzystanie przestrzeni dyskowej może być nawet większe niż 100%. Dzięki warstwie wirtualizacyjnej serwery nieświadomie współdzielą pulę wolnego miejsca, dzięki czemu potrzeba rozbudowy systemu pamięci pojawia się dopiero wtedy, gdy jest on rzeczywiście bliski całkowitego zapełnienia.

Rozwiązania tego rodzaju, choć istnieją, nie są jeszcze w pełni uniwersalne, np. nie działają tak samo z każdym systemem operacyjnym. Pełna automatyzacja w tym zakresie jest jednak warunkiem ich upowszechnienia.

Jednolitość bez przesady

Producenci oferujący rozwiązania do wirtualizacji systemów pamięci masowych często podkreślają, że umożliwiają one całkowitą unifikację zasobów i uniezależnienie logicznej reprezentacji pamięci dyskowej od fizycznych właściwości sprzętu. Na pierwszy rzut oka unifikacja wydaje się korzystna, ponieważ ułatwia zarządzanie zasobami. W pełni jednolite zarządzanie wszystkimi systemami nie zawsze jednak jest pożądane, może bowiem utrudniać pełne wykorzystanie bardziej zaawansowanych możliwości już eksploatowanych systemów. Choć zwykle warstwa wirtualizacji zapewnia wiele dodatkowych funkcji, podobnych do oferowanych od dawna przez potentatów rynku, nie są to rozwiązania bardziej wydajne czy o szerszej funkcjonalności.

Oczywiście, można sobie wyobrazić sytuację, w której zewnętrzna platforma zarządzająca potrafi w pełni wykorzystać specyficzne właściwości dowolnego sprzętu i współpracującego z nim oprogramowania. Wymagałoby to jednak bliższej współpracy producentów co najmniej na poziomie wymiany informacji o interfejsach API, co przy ostrej konkurencji pozostaje ciągle w sferze pobożnych życzeń. Jeżeli platforma wirtualizująca nie jest w stanie uzyskać bezpośredniego wpływu na działanie każdego elementu macierzy dyskowej i związanego z nią oprogramowania, to sens jej wdrażania staje pod znakiem zapytania. W praktyce oznacza to, że wirtualizacja jest dziś efektywna tam, gdzie występuje dużo względnie prostych urządzeń, np. zestawy dysków typu JBOD (Just Bunch of Disks).


TOP 200