Dla dużych i dla małych

Wirtualizacja zasobów storage, określana również mianem wirtualizacji blokowej, udowodniła już swoją wartość w dużych środowiskach korporacyjnych. Jako standardowa usługa w wielu centrach przetwarzania danych, wirtualizacja zasobów może być również remedium na wiele problemów występujących w małych i średnich przedsiębiorstwach.

Dla dużych i dla małych
Z drugiej strony, dedykowane rozwiązania pochodzące od najlepszych twórców oprogramowania, gwarantują najwyższy wskaźnik ROI dla centrów posiadających duże macierze SAN, spełniające rygorystyczne normy czasu dostępu do danych.

Wirtualizacja zasobów tworzy abstrakcyjną warstwę, łączącą komputer hosta i fizyczny interfejs, maskując idiosynkrazję pojedynczych urządzeń przechowujących i przetwarzających dane. Zaimplementowana w obsługę SAN zapewnia spójny system zarządzania wszystkimi urządzeniami obsługującymi przechowywanie danych. Ujmując rzecz prosto: wirtualizacja zasobów wykorzystuje pojedynczy zasób sprzętowy spośród wielu dostępnych urządzeń sieciowych i przedstawia go w postaci wirtualnych zasobów gotowych do użycia.

Jako dodatek do możliwości stworzenia osobnych udziałów z zasobów składowanych na różnych, fizycznych macierzach, wirtualizacja zasobów dostarcza również szerokiego, stałego zakresu usług. Obejmują one zakres od podstawowego zarządzania woluminami, włączając maskowanie LUN (ang. Logical Unit Number), kaskadowość, grupowanie udziałów i ich dzielenie, aż po warunkowanie, automatyczne zwiększanie objętości zasobu, zautomatyzowane przemieszczanie danych i ich ochronę, funkcjonalności odzyskiwania danych (włączając możliwość tworzenia kopii migawkowych i lustrzanych). W skrócie - rozwiązania oparte o wirtualizacje mogą zostać wykorzystane jako główny punkt wdrażania zarządzania danymi oraz reguł bezpieczeństwa bezpośrednio i pośrednio z nimi związanych.

Dane ciągle w ruchu

Być może najważniejszą usługą związaną z wirtualizacją blokową jest nieprzerwana migracja danych. Dla dużych przedsiębiorstw konieczność prawie nieustannego "ruchu" danych to fakt - starzenie się sprzętu komputerowego i związana z tym zjawiskiem konieczność okresowej wymiany infrastruktury sprawia, że wirtualizacja umożliwia swobodne przenoszenie danych na poziomie fizycznym, z urządzenia na urządzenie, bez zauważalnych spowolnień systemu. Dzięki temu, administratorzy mogą swobodnie dokonywać przeglądów czy wymieniać podzespoły, nie komplikując życia użytkownikom, a systemy produkcyjne mogą pracować bez przerw.

Cztery podejścia zależne od architektury

Wirtualizując architekturę SAN fabric, mamy do dyspozycji cztery metody stosowania wirtualizacji: rozwiązania zwane "in-band", "out-of-band" oraz "split path" i rozwiązania bazujące na kontrolerach. Niezależnie od architektury, wszystkie rozwiązania muszą spełniać trzy podstawowe wymogi: utrzymywać i aktualizować bazę napędów wirtualnych oraz zasobów fizycznych i metadanych konfiguracyjnych; wykonywać komendy związane ze zmianami danych konfiguracyjnych i uruchamianiem oraz zarządzaniem zadaniami związanymi z właściwym przechowywaniem danych i zarządzaniem nimi; oraz - oczywiście - móc przesyłać dane pomiędzy serwerami a hostami klienckimi. Wspomniane cztery architektury różnią się w przyjętej metodzie wypełniania tych założeń: obsłudze metadanych, kontroli nad nimi oraz zarządzania ścieżkami dostępu do danych. Z tych różnic wynikają odmienne implikacje związane z wydajnością i skalowalnością systemu.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200