Wirtualne centrum danych

Efektywność, wydajność i ograniczenie kosztów to czynniki systematycznie zwiększające zainteresowanie mechanizmami wirtualizacji. Technologia ta jest jednak wciąż stosunkowo młoda i stwarza sporo problemów, z którymi nie zawsze łatwo można sobie poradzić.

Efektywność, wydajność i ograniczenie kosztów to czynniki systematycznie zwiększające zainteresowanie mechanizmami wirtualizacji. Technologia ta jest jednak wciąż stosunkowo młoda i stwarza sporo problemów, z którymi nie zawsze łatwo można sobie poradzić.

34%

firm zatrudniających powyżej 500 pracowników wykorzystuje rozwiązania do wirtualizacji pamięci masowych, twierdzi IDC.

Oprogramowanie do wirtualizacji serwerów oferowane przez takie firmy, jak: VMware, SWsoft, Virtual Iron lub XenSource, już obecnie cieszy się bardzo dużą popularnością. Według IDC, ponad 75% firm zatrudniających powyżej 500 pracowników wykorzystuje tego typu rozwiązania w swoich systemach IT, a 45% wszystkich nowych serwerów sprzedanych w 2006 r. zostało zainstalowanych w środowiskach wirtualnych. Pod tym względem wirtualizacja pamięci masowych cieszy się znacznie mniejszą popularnością, bo tylko 34% firm już zainstalowało tego typu systemy, choć jednocześnie kolejne 49% deklaruje takie plany. Według IDC największą barierą hamującą wdrożenia są problemy z obsługą centrów danych i sieci SAN wykorzystujących heterogeniczną infrastrukturę - macierze pochodzące od różnych producentów.

W Polsce popularność technologii wirtualizacyjnych nie odbiega od tendencji światowych, jeśli wziąć pod uwagę wyniki badań zaprezentowanych ostatnio przez Hitachi, z których wynika, że w naszym kraju aż 74% przedsiębiorstw deklaruje ich wykorzystanie, zaś 12% planuje ich wdrożenie w najbliższych 12 miesiącach. Potwierdza to też Radosław Rafiński, Business Development Manager w EMC Polska mówiąc: "Obserwujemy duże zainteresowanie przedsiębiorstw zwłaszcza systemami umożliwiającymi wirtualizację platform serwerowych oraz zasobów plikowych. Oprócz tego coraz więcej przedsiębiorstw, zwłaszcza tych, które posiadają rozbudowane centra przetwarzania danych i korzystają z kilku macierzy dyskowych, rozważa wdrożenie urządzeń pozwalających na wirtualizację zasobów sieci SAN".

Warto jednak zwrócić uwagę, że liczba ekspertów lub osób mających doświadczenie w praktycznej implementacji systemów wirtualizacyjnych jest wciąż stosunkowo mała. W efekcie na firmy planujące taką inwestycję czyhają pułapki i problemy, z których warto zdawać sobie sprawę, bo nie zawsze można liczyć, że integrator, dostawca sprzętu lub oprogramowania, zachwalając zalety oferowanego systemu nie zapomni o jego ograniczeniach. Niektóre opinie i rady specjalistów, choć nie rozwiążą wszystkich problemów, niewątpliwie czasami mogą być przydatne.

Wirtualizacja to możliwość wydłużenia cyklu życia macierzy

Dotychczas po zakończeniu np. trzyletniej umowy serwisowej użytkownik napotykał problem, czy ją przedłużać i ewentualnie przeprowadzić uaktualnienie systemu, czy też kupić nową pamięć o wyższej pojemności, wydajności i niezawodności, a jednocześnie wcale nie droższą od kosztów modyfikacji starego systemu. W tym drugim wypadku pojawia się jednak konieczność migracji aplikacji i danych do nowej pamięci masowej, co często jest trudne i kłopotliwe. I tu z pomocą może przyjść wirtualizacja. W zwirtualizowanej sieci SAN można dodawać nowy system, uzupełniając zasoby pamięci i wciąż wykorzystując stare pamięci realizować stopniową migrację wydłużając czas życia starych elementów systemu i unikając kosztów oraz ryzyka związanych z rewolucyjną modyfikacją infrastruktury.

Obawa przed daleko idącą modyfikacją systemu IT

Wielu potencjalnych użytkowników systemów do wirtualizacji obawia się, że zastosowane rozwiązania wprowadzą zbyt duże z ich punku widzenia zmiany w istniejącej infrastrukturze albo będą zaburzać pracę istniejących aplikacji. Takiemu scenariuszowi można zapobiec przez wybór rozwiązań sprawdzonego producenta, który zagwarantuje, że wdrożone rozwiązania będą zgodne z obowiązującymi standardami i dobrymi praktykami. Na przykład jeżeli użytkownik miał duże, wysoko wydajne rozwiązanie SAN, to wdrożenie rozwiązania do wirtualizacji pracującego w tzw. trybie in-band może spowodować znaczny spadek wydajności. Mając takie doświadczenia użytkownik może niesłusznie zniechęcić się do stosowania rozwiązań wirtualizacyjnych w ogóle.

Heterogeniczna przeszkoda

Ważnym aspektem jest rzeczywista możliwość pracy rozważanych rozwiązań w środowisku heterogenicznym, co wbrew deklaracjom wielu producentów nie zawsze jest spełniane. Na przykład podczas wirtualizacji zasobów plikowych można spotkać nie tylko rozwiązania sprzętowe pochodzące od różnych producentów, ale również serwery plików samodzielnie wdrażane przez użytkowników w oparciu o oprogramowanie dostępne na platformy Windows, Linux lub Unix. Jeżeli uwzględnimy dodatkowo np. konieczność replikacji synchronicznej, to powstaje zbiór wymagań, z którymi nie każdy producent i nie każde rozwiązanie sobie poradzi.

Bariery organizacyjne

Hamująco na rozwój rynku rozwiązań wirtualizacyjnych działają niektóre czynniki natury biznesowej. Na przykład w sytuacji gdy dział IT jedynie administruje sprzętem, którego właścicielami są departamenty firmy nieodpowiadające za koszty, to z reguły zakup wirtualizatorów na potrzeby pojedynczego projektu okazuje się zbyt kosztowny. Jeśli jednak dział IT jest właścicielem sprzętu działającym jako wewnętrzny usługodawca, to korzyści związane z lepszym wykorzystaniem istniejącej architektury, możliwością migrowania serwerów plików bez przerywania ich pracy itp. stają się wyraźnie widoczne.

Umowy biznesowe

"Z technologicznego punktu widzenia wszystkie macierze, które posiadają zewnętrzne porty FC, mogłyby zostać podłączone do macierzy Hitachi i zwirtualizowane. Barierą są jednak umowy biznesowe między producentami systemów pamięci masowej. Dlatego istnieje lista systemów (obecnie praktycznie wszystkie najbardziej popularne macierze klasy midrange i enterprise), które są wspierane jako systemy zewnętrzne. W efekcie potencjalny użytkownik systemu HDS powinien sprawdzić, jakie systemy mogą, a jakie nie mogą być wirtualizowane" - mówi Tomasz Jangas, System Business Consultant, Hitachi Data Systems.

Problemy z appliance

W przypadku wirtualizacji realizowanej w sieci SAN problemów może pojawić się więcej. Należy przede wszystkim rozważyć ograniczenia funkcjonalne związane z ujednoliconym zarządzaniem lub zdalną replikacją. Wirtualizacja w sieci SAN polega na przechwytywaniu pakietów przez dedykowane urządzenia (appliance) i przekierowywaniu ich do odpowiednich urządzeń. Często to dedykowane urządzenie dodaje do pakietów FC swoje nagłówki z metadanymi rozumianymi tylko przez to urządzenie oraz wpływającymi negatywnie na wydajność ruchu w całej sieci SAN. Oprócz wydajności mogą pojawić się również problemy związane ze skalowalnością oraz niezawodnością.

Dla Computerworld komentuje Zbigniew Swoczyna, Storage Architect w Sun Microsystems Poland

Jeszcze kilka lat temu centra danych wyposażane były w macierze high-end kosztujące miliony dolarów, obecnie podobną pojemność i wydajność "z portu FC" oferują tanie systemy klasy midrange (lub wręcz workgroup). Obie kategorie pamięci wciąż znajdują nabywców. W Polsce można zauważyć wyraźną segmentację odbiorców - macierzami high-end są zainteresowane przede wszystkim banki, instytucje finansowe lub operatorzy telekomunikacyjni, a więc firmy, dla których decydującym kryterium wyboru jest bezpieczeństwo danych, konsolidacja serwisów czy spójność środowiska. Firmy te określić wzrost pojemności i wydajności i zaplanować budżet. Natomiast względnie tanie systemy klasy low-end lub mid-range są kupowane głównie przez takie firmy, jak usługodawcy internetowi, których zapotrzebowanie na ogromną pojemność dyskową ma charakter stochastyczny. Z drugiej zaś strony tutaj głównie występują ogromne ilości informacji na zapomnianych darmowych kontach - stąd tutaj właśnie szczególnie istotne jest pytanie - ile kosztuje gigabajt pamięci?

Ważne jest zarządzanie

Wirtualizacja realizowana na poziomie Volume Managera i zaimplementowana bezpośrednio w serwerach nie rozwiązuje problemu związanego z ujednoliconym zarządzaniem i wyeliminowaniem "wysp przestrzeni dyskowej". W tym przypadku nadal jesteśmy ograniczeni zarządzaniem i funkcjonalnością w obrębie pojedynczego serwera. Poza tym ma ona negatywny wpływ na wydajność serwera.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200