Jak się poruszać po wirtualnym świecie?

Kopie zapasowe i Disaster Recovery

Wirtualizacja wymaga odpowiednich narzędzi, które mogą zapewnić backup danych i ich odtwarzanie w razie awarii. Biorąc pod uwagę potencjalną, wysoką złożoność środowisk zwirtualizowanych lub zawierających zarówno serwery fizyczne, jak i zwirtualizowane, nie jest to proste. Oprogramowanie takie jest dostępne na rynku i można tu wymienić co najmniej kilka przykładów.

VMware reklamuje funkcje swojego oprogramowania, twierdząc, że może ono wykonywać kopie migawkowe maszyn wirtualnych i danych oraz replikować je na serwerach w zapasowym centrum danych, a program vCenter Site Recovery Manager pozwala na automatyzację podstawowych funkcji związanych z procesami tworzenia i odtwarzania kopii zapasowych.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT

Aplikacją do obsługi funkcji DR (Disaster Recovery) jest CA ARCserve Backup, oprogramowanie, które umożliwia tworzenie i odtwarzanie kopii zapasowych między serwerami fizycznymi i wirtualnymi (w obu kierunkach), a także wymianę danych pomiędzy środowiskami tylko fizycznymi lub tylko wirtualnymi.

Z kolei HP Data Protector umożliwia zarządzanie procesami backupu i odtwarzania danych zarówno w serwerach fizycznych, jak i wirtualnych pracujących przy wykorzystaniu różnych popularnych platform wirtualizacyjnych. Podobne funkcje oferuje oprogramowanie Symantec NetBackup 7 i Backup Exec oraz CommVault Simpana 9.

Natomiast Quest Software ma w ofercie narzędzia: vRanger - do backupu maszyn wirtualnych VMware, vReplicator - do analizy i kopiowania obrazów VM w sieci, co przyspiesza procesy odtwarzania systemu po awarii, oraz vConverter - oprogramowanie do konwersji serwerów fizycznych w wirtualne i na odwrót.

Zalety i wady technologii wirtualizacyjnych

• Wirtualizacja pozwala na uruchamianie różnych systemów operacyjnych w maszynach wirtualnych, zainstalowanych w jednym fizycznym serwerze. Ułatwia to m.in. korzystanie z przestarzałych aplikacji, które wymagają starych wersji systemów operacyjnych, a także testowanie działania nowych programów i systemów.

• Serwery wirtualne można względnie łatwo reinstalować, bez wpływu na system zainstalowany w serwerze fizycznym i inne działające na nim maszyny wirtualne i aplikacje.

• Jeden serwer fizyczny z zainstalowanym oprogramowaniem wirtualizacyjnym pozwala średnio na uruchomienie 10 aplikacji (maszyn wirtualnych). Potencjalna awaria systemu oznacza więc brak dostępu do wielu różnych usług. Dlatego też wirtualizacja stawia z reguły wyższe wymagania na niezawodność sprzętu i powoduje konieczność wdrożenia mechanizmów do zapobiegania skutkom awarii i odtwarzania danych. Wszystko to powoduje dodatkowy wzrost kosztów inwestycji w system zwirtualizowany.

• Wirtualizacja umożliwia konsolidację serwerów lub pamięci, co oznacza zmniejszenie kosztów systemu. Ale jednocześnie powoduje znaczny wzrost wymagań na pojemność pamięci RAM, która jest kosztownym elementem serwerów. Kalkuląc inwestycje w system zwirtualizowany, należy to uwzględnić.

• W wypadku pamięci masowych, wirtualizacja pozwala na ich efektywne wykorzystanie i zmniejszenie kosztów inwestycji w sprzęt. Choć jednak wirtualizacja serwerów nie stawia bezpośrednio żadnych wymagań na pamięć masową, która może mieć formę systemów DAS (dyski instalowane w serwerach), sieciowych pamięci NAS lub systemu SAN, to w większości przypadków najbardziej efektywnym rozwiązaniem jest sieć SAN. Bo pamięci DAS lub NAS utrudniają przenoszenie maszyn wirtualnych i uruchamianie nowych aplikacji. Niestety, inwestycja w system pamięci SAN z reguły jest bardzo kosztowna.

• Kontrola licencji na oprogramowanie jest z reguły trudniejsza w środowiskach zwirtualizowanych. Możliwość łatwego uruchamiania wirtualnych serwerów i aplikacji stwarza inne, nowe problemy w porównaniu z systemami klasycznymi. Są one związane z koniecznością monitorowania i inwentaryzacji wirtualnych serwerów oraz kontrolowania trwałości aplikacji, by wyłączać maszyny zbędne, tworzące niepotrzebne koszty.

• Zapewnienie bezpieczeństwa i kontroli dostępu do danych w środowiskach zwirtualizowanych jest trudniejsze niż w systemach klasycznych. Ponadto trzeba zabezpieczyć dostęp do oprogramowania wirtualizacyjnego i zdawać sobie sprawę, że każdy, kto uzyska dostęp do wirtualnego serwera, może próbować zainstalować w nim szkodliwy kod przełamujący standardowe bariery izolujące maszyny wirtualne. W systemie zwirtualizowanym trudniej jest polegać na standardowych, zewnętrznych mechanizmach kontroli dostępu działających w warstwie sieci, bo z reguły zapewniają one ochronę jedynie na poziomie najmniej wrażliwej aplikacji, działającej na fizycznym serwerze.

• Liczba zadań wykonywanych przez administratorów lub pracowników wsparcia technicznego zależy głównie od liczby "serwerów", niezależnie od tego, czy są to serwery fizyczne czy wirtualne. W przypadku systemów zwirtualizowanych dochodzą nowe zadania związane z instalacją i konfiguracją oprogramowania wirtualizacyjnego. Wdrożenie tej technologii z reguły nie zmniejsza, a często zwiększa osobowe koszty utrzymania systemu.

• Wirtualizacja komplikuje proces backupu i wymusza zrewidowanie podejścia do tego zagadnienia. Jednym z problemów jest wzrost zużycia zasobów. Wykonanie pełnej kopii zapasowej pochłania dużo cykli procesora, pamięci czy operacji we/wy. Jednoczesne uruchomienie backupu kilku maszyn wirtualnych na jednym serwerze fizycznym może wyczerpać wszystkie jego zasoby.

• Odzyskiwanie danych w środowisku zwirtualizowanym wymaga inwestycji w narzędzia oferujące odpowiednie funkcje. W pewnych sytuacjach może być konieczne odtworzenie całej wirtualnej maszyny, ale często problem związany jest np. z utratą pliku lub uszkodzeniem aplikacji. W praktyce potrzebne jest wtedy odtworzenie tylko jednego elementu, a nie każde oprogramowanie do backupu to umożliwia.

Polecamy Networld Guide "Wirtualizacja, optymalizacja i cloud"


TOP 200