Wirtualne korzyści

Wirtualizacja systemów pamięci masowych, choć może ułatwić zarządzanie, nie jest doskonała - niesie nowe problemy i wyzwania.

Wirtualizacja systemów pamięci masowych, choć może ułatwić zarządzanie, nie jest doskonała - niesie nowe problemy i wyzwania.

W historii technologii informatycznych pojawiało się wiele interesujących idei i rozwiązań. Jedne szybko spotkały się z szeroką akceptacją, inne mozolnie musiały przebijać się na rynek, jeszcze inne zaś, po krótkotrwałej fascynacji, popadły w całkowite zapomnienie. Jednym z ostatnio lansowanych przez dostawców informatyki pojęć-haseł jest pamięci masowych. Czy jest to sposób na zwiększenie sprzedaży istniejących rozwiązań czy technologia, która odmieni oblicze zastosowań informatycznych?

Na razie trudno tu mówić o spektakularnym sukcesie. Istnieją firmy analityczne, które wręcz zakwalifikowały wirtualizację do największych rozczarowań ub.r. w dziedzinie rozwiązań pamięciowych. Być może w obecnym klimacie ekonomicznym klienci chcą płacić dostawcom jedynie za dostarczanie tego, co daje konkretne korzyści biznesowe, a nie za to, co tak naprawdę powinni byli dostarczyć już dawno - za wygodne i uniwersalne narzędzia do zarządzania.

Jednym z powodów dotychczasowego braku powodzenia rozwiązań wirtualizacyjnych jest brak jednoznaczności co do znaczenia pojęcia wirtualizacji. Czym jest wirtualizacja - ideą, technologią, produktem? Uczestnicy specjalistycznych konferencji i prezentacji organizowanych przez dostawców wciąż nie są co do tego zgodni. Dodatkowe zamieszanie powoduje wzajemne przenikanie się wielu technologii w dziedzinie pamięci masowych. Osobie niezorientowanej trudno na pierwszy rzut oka odróżnić wirtualizację pamięci od rozwiązań typu SRM (Storage Resource Management) czy HSM (Hierarchical Storage Management), gdyż ich obszary działania, odnosząc się do szeroko pojętego zarządzania infrastrukturą pamięci masowych, wzajemnie się przenikają.

Powtórka z historii

Dwie zasadnicze architektury wirtualizacji

Dwie zasadnicze architektury wirtualizacji

Wirtualizacja, najkrócej rzecz ujmując, to odseparowanie fizycznego środowiska pamięci masowych od jego logicznej interpretacji. Idea nie jest bynajmniej nowa. Każdy użytkownik komputera, dzieląc swój dysk twardy na partycje, poddaje go wirtualizacji. W następstwie tego zabiegu bezpośrednie odwzorowanie rzeczywistego sprzętu na jego obraz logiczny zostaje bowiem utracone.

Wirtualizacja stosowana jest też od dawna w rozwiązaniach korporacyjnych. Wszelkie produkty do zarządzania dyskami w świecie systemów otwartych typu volume manager oferują w praktyce funkcje wirtualizacji. Ponadto już prawie 10 lat firma StorageTek oferuje podsystemy dyskowe z mechanizmem wirtualizacji dla systemów mainframe. Można więc powiedzieć, że wirtualizacja w dzisiejszym wydaniu jest niczym innym jak próbą rozwinięcia i skonsolidowania w ramach jednego produktu wielu znanych od dawna pomysłów.

Dlaczego wirtualizacja miałaby obecnie zrobić karierę w przedsiębiorstwach? Bez wątpienia powodem powrotu tej idei są problemy z efektywnym zarządzaniem infrastrukturą do przetwarzania coraz większych liczby danych. Wirtualizacja jest w pewnym sensie próbą uzyskania funkcjonalności macierzy monolitycznej za pomocą urządzeń rozproszonych. Niezależnie od tego firmy szukają metody na spójne zarządzanie zakupionymi systemami pochodzącymi od różnych dostawców. Każdy z takich systemów jest zwykle odrębnym światem z własnymi narzędziami, specyfiką itd., co nieuchronnie prowadzi do wzrostu kosztów utrzymania. Problemy z zarządzaniem to także niepełne wykorzystanie zakupionych systemów.

Czynnikiem zwiększającym zapotrzebowanie na wirtualizację było pojawienie się sieci SAN (Storage Area Network), które stworzyły techniczne możliwości utworzenia jednolitego obrazu logicznego wszystkich zasobów, a następnie scentralizowanego nimi zarządzania. Z drugiej strony, duży stopień skomplikowania sieci SAN wytworzył potrzebę stworzenia narzędzi pozwalających uproszczenie zarządzania nimi.


TOP 200