Backup w systemach zwirtualizowanych

Uniwersalność oprogramowania

Gdy nastąpi awaria i trzeba odtworzyć maszynę wirtualną oraz przywrócić działanie aplikacji, czasami dobrze jest mieć możliwość zmiany platformy wirtualizacyjnej. Uruchomienie jej pod kontrolą innego hyperwizora lub nawet na serwerze fizycznym daje większą elastyczność i może przyspieszyć proces usuwania skutków awarii oraz przywrócenia dostępności usług. Jeśli oprogramowanie pozwala na backup serwera fizycznego i odtworzenie kopii aplikacji i danych na maszynie wirtualnej, to administrator ma do dyspozycji wiele opcji i może elastycznie konfigurować system. Dlatego warto zwrócić uwagę, jakie funkcje tego rodzaju, określane jako P2V, V2V, P2P, V2P (V – virtual, P – physical), udostępnia planowana do wdrożenia platforma do backupu.

Oprócz tego warto pamiętać, że infrastruktura systemów IT rzadko kiedy jest kompletnie zwirtualizowana i w większości firm wciąż działają zarówno serwery fizyczne, jak i wirtualne. W takim przypadku warto skorzystać z oprogramowania do backupu, które umożliwia obsługę obu typów serwerów i zapisywanie kopii zapasowych w jednym repozytorium.

Oprogramowanie do backupu tworzące kopie bezpieczeństwa niezależne od warstwy sprzętowej umożliwia odtworzenie i uruchomienie maszyny wirtualnej na dowolnym hoście znajdującym się w systemie produkcyjnym lub w zapasowym centrum danych.

Warto korzystać z dodatkowych natywnych narzędzi

Niezależnie od rodzaju wykorzystywanego hyperwizora, zawsze warto zainstalować wirtualne sterowniki dostarczane przez producenta w każdej uruchamianej maszynie wirtualnej. Są one w takich pakietach oprogramowania, jak: VMware Tools, Hyper-V Integration Services lub Citrix XenServer Tools. Ich wykorzystanie pozwala nie tylko na zwiększenie wydajności maszyn wirtualnych w ich codziennej pracy, ale również uzyskanie maksymalnej przepustowości połączeń sieciowych, co wpływa m.in. na wzrost wydajności operacji backupu.

Deduplikacja

Deduplikacja to technika eliminacji powtarzających się (zduplikowanych) informacji przez oprogramowanie, które analizuje zawartość plików lub bloków danych i zapisuje w pamięci bądź przesyła w sieci tylko unikalne treści oraz odpowiednie odnośniki do powtarzających się elementów.

Jej zastosowanie w systemach do backupu, pozwala czasami nawet na 50-krotne zmniejszenie zapotrzebowania na pojemność pamięci masowej niezbędnej do przechowywania kopii zapasowych. Technologia ta sprawdza się też jako mechanizm eliminacji powtórzeń w każdym typie plików, np. załącznikach poczty elektronicznej, kopiach dokumentów tekstowych, arkuszy, obrazów graficznych itd., choć w tych wypadkach jej efektywność jest znacznie niższa.

Metody deduplikacji są różne. Odpowiednie mechanizmy mogą być instalowane w serwerze będącym źródłem plików, urządzeniach pamięci masowej lub też działać jako oprogramowanie zintegrowane z aplikacją do backupu. Zależnie od stosowanej metody, różne są wymagania na przepustowość sieci, wielkość pamięci buforowej lub niezbędną moc przetwarzania.

Instalacja oprogramowania deduplikacyjnego na serwerze wymaga odpowiednio dużej mocy obliczeniowej, ale jednocześnie pozwala na istotne zmniejszenie wymagań na przepustowość sieci.

Przesyłanie plików do repozytorium danych i dopiero tam analiza eliminująca duplikaty przed zapisem w pamięci masowej, pozwala na odciążenie serwerów od obliczeń, ale powoduje wzrost obciążenia sieci.

Niezależnie od tego, jaki system deduplikacji zostanie zastosowany, właściwie zawsze następuje wzrost wymagań na dostępną moc przetwarzania. Jeśli deduplikacja jest realizowana w pobliżu źródła danych, należy wziąć pod uwagę, że uruchomienie procesu analizy danych może mieć negatywny wpływ na wydajność serwera, a także spowolnić proces backupu. W przypadku systemów wykonujących czyszczenie danych w już zapisanej kopii zapasowej, proces backupu przebiega bez zakłóceń, ale wymagana jest dostępność znacznie większej tymczasowej pojemności pamięci masowej, zanim proces deduplikacji zmniejszy objętość plików.


TOP 200