Wirtualizacja pamięci masowych

Wirtualizacją zajmują się też mniejsze firmy, takie jak DataCore, FalconStor i Vicom. Firmy te oferują oprogramowanie, które jest instalowane na standardowych serwerach Intelowskich.

IBM i Fujitsu-Softek oferują produkt noszący nazwę SANsymphony (opracowany przez Datacore). StorageTek i MTI używają oprogramowania Ipstore (dzieło firmy FalconStor), podczas gdy Sun używa w swoich nowych pamięciach StorEdge 6900, oprogramowania noszącego nazwę Storage Virtualization Engine (motor wirtualizacji opracowany przez Vicom).

Różne wizje wirtualizacji

Możliwość gromadzenia wszystkich pamięci masowych (danych) w jednej puli i tworzenia wirtualnego obrazu danych jest kuszącym rozwiązaniem.

Niektórzy producenci gromadzą we wspólnej puli tylko te dane, które są przechowywane na ich dyskach twardych; inni budują pule, w których można umieszczać dane przechowywane na różnych pamięciach masowych; są też tacy producenci, którzy tworzą pulę i oferują aplikacje, takie jak lustrzany zapis danych, replikowanie danych i tworzenie migawkowych kopii danych. Analitycy mówią, że aplikacje takie są tak samo ważne (chodzi o proces zarządzania pamięciami masowymi) jak wirtualizacja danych.

Trzy sposoby implementowania wirtualizacji mają swoje plusy i minusy.

Wirtualizacja wykonywana przez serwer lub macierz

Wirtualizacja pamięci masowych

Wizualizacja pamięci masowych - firmy, które mają w swojej ofercie takie produkty

Na początku producenci implementowali wirtualizacje oparte na serwerze lub macierzy. Wirtualizacja taka charakteryzuje się tym, że oprogramowanie i cała inteligencja pozwalająca gromadzić dane w jednej puli są instalowane na serwerze lub w macierzy.

Rozwiązanie takie jest stosowane przez wiele firm i dzisiaj. Przykład: firma EMC wirtualizuje dane znajdujące się na dyskach twardych wchodzących w skład poszczególnych macierzy Symmetrix.

Ponieważ wirtualizacja oparta na serwerze lub na macierzy nie wymaga instalowania na ścieżce danych dodatkowego urządzenia, to ma w porównaniu z wirtualizacją opartą na urządzeniu sieciowym jedną podstawową zaletę - można ją elastycznie skalować.

Kolejna korzyść polega na tym, że nie trzeba wtedy modyfikować innych urządzeń zainstalowanych w sieci (takich jak przełączniki Fibre Channel, rutery itp.). Wada takiego rozwiązania polega na tym, że serwer wirtualizujący dane jest obciążony dodatkowymi zadaniami, co może stwarzać określone problemy z czasem odpowiedzi serwera na żądania zgłaszane przez podstawowe aplikacje.

Producenci argumentują, że wirtualizacja oparta na macierzy ma jeszcze jedną niebagatelną zaletę - aplikację taką można dokładnie stroić, ponieważ każdy producent zna doskonale zasady pracy swoich macierzy.

Wirtualizacja wykonywana przez urządzenie sieciowe

Jak dotąd większość dostawców wydaje się preferować wirtualizację opartą na oprogramowaniu przetwarzającym dane w ramach pasma, które jest instalowane na urządzeniu sieciowym (najczęściej jest to standardowy serwer intelowski pracujący pod systemem Windows NT/2000 lub Linux).

Jeśli chodzi o wirtualizację opartą na urządzeniu sieciowym, to może tu wystąpić ten sam problem, z którym administratorzy borykają się często po zaimplementowaniu wirtualizacji opartej na serwerze. Wirtualizacja taka spowalnia pracę innych serwerów zainstalowanych w sieci, które nie są co prawda odpowiedzialne za wirtualizację, ale muszą i tak cały czas monitorować urządzenie sieciowe (czyli serwery wirtualizujące dane w ramach pasma), po to aby uzyskać od nich informacje, gdzie są przechowywane ich dane.

Problem polega na tym, że układy I/O instalowane w urządzeniach wirtualizujących dane (standardowe serwery intelowskie) pracują za wolno, aby mogły z powodzeniem obsługiwać aplikacje, takie jak tworzenie migawkowych kopii danych, replikowanie czy buforowanie danych.

Compaq i Sun zapewniają, że przygotowują technologie wirtualizacji, które nie będą stwarzać takich problemów. Obie firmy pracują nad hybrydowymi urządzeniami wirtualizacji, które pracują na zewnątrz ścieżki danych i nie wpływają na szybkość, z jaką dane są wymieniane między serwerami a pamięciami masowymi.

Specjaliści wymieniają dwie zalety wirtualizacji "w ramach pasma", opartej na urządzeniu sieciowym. Po pierwsze użytkownik nie musi instalować dodatkowego oprogramowania na serwerach. Po drugie wystarczy, aby wszystkie żądania I/O i odpowiedzi przechodziły przez motor wirtualizacji (nie trzeba instalować nigdzie w sieci dodatkowego oprogramowania).

Co dalej: wyspecjalizowane przełączniki wirtualizacji

Można sobie w tym momencie zadać ważne pytanie: jak będzie w przyszłości realizowana idea wirtualizacji pamięci masowych? Bo chyba nikt nie ma wątpliwości, że urządzenia (lub oprogramowanie) wirtualizujące pamięci masowe będą stanowić w przyszłości ważną i nieodzowną część każdego systemu informatycznego.

Specjaliści przewidują, że za kilka lat pierwsze skrzypce będą grać wyspecjalizowane przełączniki, dysponujące oprogramowaniem wirtualizującym pamięci masowe. Jak wieść niesie, nad urządzeniami takimi pracują już niektóre firmy (Pirus Networks i Maranti Networks). Urządzenia te mają być bardzo wydajne, nie wprowadzając do sieci znaczących opóźnień. A poważną wadą dzisiejszych rozwiązań (niezależnie od tego, czy są oparte na serwerze, na macierzy czy też na urządzeniu sieciowym) są właśnie spore opóźnienia, które spowalniają pracę systemu informatycznego.

Taki wyspecjalizowany przełącznik będzie świadczyć wiele usług (archiwizowanie danych, zapis lustrzany danych, pojemność na żądanie, wykonywanie migawkowych kopii danych czy replikacja danych), które są oparte na wirtualizacji pamięci masowych.


TOP 200