ABC Wirtualizacji - platforma odtwarzania

Wydatki na ochronę najważniejszych serwerów pochłaniają ponad 80% budżetów przeznaczanych przez organizacje na odtwarzanie po katastrofie. Tymczasem lwia część infrastruktury pozostaje niezabezpieczona. Potrzeba konsolidacji powierzchni, zasilania i instalacji oraz konieczność zapewnienia zasobów serwerowych, które będą mogły reagować na nieprzewidywalne obciążenia, szybko awansują wirtualizację na technologię o kluczowym znaczeniu.

Wydatki na ochronę najważniejszych serwerów pochłaniają ponad 80% budżetów przeznaczanych przez organizacje na odtwarzanie po katastrofie. Tymczasem lwia część infrastruktury pozostaje niezabezpieczona. Potrzeba konsolidacji powierzchni, zasilania i instalacji oraz konieczność zapewnienia zasobów serwerowych, które będą mogły reagować na nieprzewidywalne obciążenia, szybko awansują wirtualizację na technologię o kluczowym znaczeniu.

Odtwarzanie po katastrofie z użyciem maszyny wirtualnej

Odtwarzanie po katastrofie z użyciem maszyny wirtualnej

Rozwój technologii komputerowych w ciągu dwóch dekad przekształcił desktopowy komputer PC w istotne narzędzie biznesowe. W miarę zwiększania mocy przetwarzania, pojemności pamięci masowych i niezawodności, pecety ewoluowały w kierunku serwerów, na początku umieszczanych w zajmujących mniejszą powierzchnię konstrukcjach wieżowych, które ostatecznie przeobraziły się w systemy stelażowe, a obecnie w pojedyncze karty (blade), pozwalające łatwo skoncentrować tuziny silnych serwerów w pojedynczym stelażu.

Zapewnienie możliwości działania takich skupionych środowisk serwerowych bez przerw odczuwalnych przez użytkownika końcowego, przy jednoczesnym utrzymaniu nadwyżki zasobów systemowych na minimalnym poziomie, staje się główną siłą napędową rozwoju technologii wirtualizacji w przemyśle IT.

Zdaniem analityków z Gartnera, organizacje z liczbą serwerów powyżej 200 zmarnowały w 2007 r. od 500 do 720 tys. USD, utrzymując w ruchu niewykorzystywane układy aplikacja/serwer. Większość tych strat można przypisać średniemu zastosowaniu procesora na poziomie ok. 7%, a przy najlepszym wyniku ok. 15%. często dysponują nadmiarem mocy przetwarzania w zakresie 20-50%. Możliwość pracy poszczególnych maszyn wirtualnych na serwerach fizycznych bezpośrednio adresuje problem nadmiaru, redukując liczbę serwerów i zapewniając znacząco wyższy poziom wykorzystania już istniejących.

Przy wdrażaniu rozwiązań wirtualizacyjnych, organizacje często nie zwracają uwagi na dodatkowe ich możliwości: wykorzystanie środowiska wirtualnego jako platformy zapewniającej możliwość sprawnego składowania i odtwarzania po katastrofie - nie tylko dla danych, ale także całych obrazów maszyn, które mogą być testowane i uruchamiane bez narażania na szwank bieżących operacji biznesowych. Przyjrzyjmy się problemom, które powinny być brane pod uwagę przy łączeniu środowiska serwera wirtualnego z odtwarzaniem po katastrofie w celu osiągnięcia skonsolidowanego rozwiązania składowania, obejmującego wszystkie zasoby centrum danych.

Realna wirtualizacja

Zalety wirtualizacji stają się znaczące. Mniej fizycznych serwerów oznacza drastyczną redukcję obciążeń IT oraz mniejsze zapotrzebowanie na energię elektryczną, chłodzenie i administrowanie systemami. Zamiast kilku fizycznych serwerów konsumujących energię elektryczną, zajmujących powierzchnię i w małym stopniu wykorzystywanych (często w granicach 5%), agregacja maszyn wirtualnych pozwala na osiągnięcie przez serwer-host najwyższego poziomu wykorzystania. Chociaż już sam wysoki wskaźnik zwrotu kosztów inwestycji (ROI) jest ponętny, coraz większa liczba centrów danych zmierza w kierunku wirtualizacji, traktując ją także jako sposób na doskonalenie świadczenia usług: utrzymywanie ciągłości biznesu i szybsze wdrażanie aplikacji.

Podstawowy powód przechodzenia na technologie wirtualizacji - znacząco wyższy poziom wykorzystania systemów, który ma zapewnić zmniejszenie całkowitej liczby systemów potrzebnych w serwerowni - istotnie zwiększa wartość biznesową, jaką reprezentuje każdy serwer w środowisku wirtualnym. Jednak przydzielenie serwerom wielu aplikacji i zadań pozostawia niewielki margines na ich awarie. Wymóg ciągłej pracy każdego serwera jest potęgowany przez odpowiednie zmniejszenie dopuszczalnego okna wyłączeń. Wyłączanie systemu w celu wykonania okresowych czynności konserwacyjnych - samo w sobie bardziej krytyczne niż to bywało wcześniej - może stać się wyzwaniem w sferze planowania. Chociaż zalety przechodzenia do wirtualnego środowiska przetwarzania są nie do pogardzenia, wirtualizacji nie można jeszcze uznać za "ziemię obiecaną".

W tradycyjnym układzie, w którym każda aplikacja pracuje na swoim dedykowanym serwerze, uszkodzenia sprzętowe wpływają jedynie na konkretny serwer i konkretne aplikacje. W środowisku wirtualnym uszkodzenie sprzętowe zatrzymuje wszystkie maszyny wirtualne goszczące na danym serwerze oraz wszystkie aplikacje z nimi związane. Takie wydarzenie może mieć katastrofalne skutki dla ciągłości biznesowej i odpowiedzialności prawnej.

Budżet "business continuity" nadmiernie zabezpieczaserwery o szczególnym znaczeniu, pozostawiając większość serwerów na niskim poziomie zabezpieczeń

Budżet "business continuity" nadmiernie zabezpieczaserwery o szczególnym znaczeniu, pozostawiając większość serwerów na niskim poziomie zabezpieczeń

Maszyny wirtualne - każda z własnym systemem operacyjnym i aplikacjami, na współdzielonym serwerze fizycznym - wymagają odpowiednich narzędzi zarządzania i monitorowania. Znalezienie i wdrożenie takich rozwiązań, które potrafią współdziałać z istniejącymi już narzędziami, może być trudne.

Tradycyjne systemy licencjonowania "jedna maszyna - jedna licencja" lub "jeden procesor - jedna licencja" stają się poważnym problemem w środowisku wirtualizowanym, gdzie procesy działające na jednym z systemów rano, w ciągu dnia mogą zacząć pracować na wielu procesorach, kiedy zmienią się wymagania.

Utrzymywanie fizycznych serwerów w doskonałej kondycji operacyjnej, w zgodzie z warunkami licencji, a także zapewnienie szybko osiągalnych procesów składowania/odtwarzania, to zadania najważniejsze dla IT.

Środowisko wirtualnego odtwarzania przyspiesza proces odtwarzania i testowania, a także zmniejsza zależność od taśm, wykorzystując składowanie na dyskach. Pozwala też na rozszerzenie zasięgu ochrony, obejmując nim szersze spektrum zadań realizowanych zarówno na zasobach fizycznych, jak i wirtualnych. Aby tego dokonać, potrzebne jest dokładne rozpoznanie zasobów centrum danych i cyklu życia zadań, a także środki do pomiaru wykorzystania zasobów, pomagające administratorom IT przy podejmowaniu dobrych decyzji: jak chronić zadania w centrum danych i istotnie poprawiać procesy odtwarzania w organizacji.

Podstawowe kierunki wykorzystania wirtualizacji

  • Rozkładanie obciążeń pozwalające na łatwiejsze przesunięcia maszyn wirtualnych w celu osiągnięcia wyższego współczynnika wykorzystania przy jednoczesnej minimalizacji strat mocy przetwarzania.
  • Tworzenie izolowanych środowisk projektowania, chroniących przed naruszeniem zasobów produkcyjnych i zapewniających łatwe przeprowadzanie wielu scenariuszy testowania przy prawie natychmiastowej możliwości "przewinięcia i restartowania".
  • Konsolidacja serwerów w celu istotnego zredukowania zasobów sprzętowych, zmniejszająca zapotrzebowanie na powierzchnię, energię elektryczną i chłodzenie oraz upraszczająca administrację.
  • Dostęp do internetu z wykorzystaniem klientów wirtualnych, zapewniających dodatkowy poziom bezpieczeństwa pomiędzy użytkownikiem końcowym a obszarem zagrożeń.
  • Tworzenie nowych maszyn wirtualnych w biegu, pozwalające na wyprzedzające testowanie produktów w wersji demo bez wpływu na wydajność innych użytkowników.