Backup - nowe możliwości, nowe wyzwania

Z drugiej strony, wykorzystując wirtualizację, działy IT mogą zyskać nowy sposób na zmniejszenie wydatków na inwestycje przeznaczone na rozwiązania typu disaster recovery. Serwery wirtualne znacznie ułatwiają tworzenie zestawów serwerów zapasowych w ośrodku odtwarzania, odwzorowujących możliwości przetwarzania centrum danych. Serwery zapasowe nie muszą być szybkie, lecz powinny mieć takie same systemy operacyjne i podobny osprzęt, co w dużym stopniu rozwiązuje problem odtwarzania.

Polecamy Deduplikacja w ośmiu odsłonach

Firma VMware w swoim vCenter Site Recovery Manager oferuje funkcjonalność vSphere Replication, która pozwala na utrzymywanie kopii maszyny wirtualnej w innym systemie, aby w sytuacji awaryjnej można było z niej skorzystać i kontynuować prace. Jest to szczególnie przydatne, gdy trzeba obejść uszkodzony serwer, ale działa także w razie konieczności obejścia całego uszkodzonego ośrodka bez przerywania pracy (podobny mechanizm o nazwie Hyper-V Replica ma być dostępny w Windows 8).

Backup - nowe możliwości, nowe wyzwania

VMware Site Recovery Manager automatyzuje obchodzenie uszkodzeń o migracje maszyn

Skonsolidowane odtwarzanie wykorzystuje cechy maszyn wirtualnych do wykonania replikacji danych, obejścia uszkodzenia i odtworzenia, minimalizując jednocześnie koszty i wykorzystanie dostępnych zasobów systemu. Poprzez wirtualizację zasoby sprzętowe wymagane do odtworzenia po katastrofie mogą być zredukowane, a cały proces uproszczony.

Użycie maszyn wirtualnych do obejścia uszkodzenia, pozwala na każdej z nich utworzyć kompletny obraz serwera. Uruchomienie wielu maszyn wirtualnych na jednym fizycznym systemie odtwarzania sprawia, że ten system zapewnia kompletną ochronę dla poszczególnych serwerów fizycznych. Taki układ w znacznym stopniu upraszcza zarządzanie i administrowanie, zmniejszając jednocześnie wymagania sprzętowe. Niezależna od sprzętu natura maszyn wirtualnych zapewnia dodatkowe korzyści: konfiguracja serwera w zdalnym ośrodku nie musi być lustrzanym odbiciem produkcyjnego centrum danych.

Kopia zapasowa to już inna historia, ponieważ tu duże znaczenie mają prawa fizyki. Gdy kilkanaście serwerów uruchomi się jako maszyny wirtualne na jednym

serwerze fizycznym, wszystko działa dobrze, dopóki nie zajdzie potrzeba wykonania ich backupu.

Polecamy Backup - na taśmy czy w chmurze?

Każda metoda składowania maszyn wirtualnych ma swoje zalety i wady. Głównym minusem jest negatywny wpływ na wydajność i użytkowanie sieci. Chociaż wirtualizacja może zapewniać lepsze wykorzystanie zasobów serwerowych, jednoczesny backup wszystkich nowoutworzonych maszyn wirtualnych na serwerze fizycznym może nadmiernie obciążyć sieć i zajmować zasoby potrzebne aplikacjom pracującym na innych maszynach wirtualnych.

Odtwarzanie systemu pocztowego

Kolejnym wyzwaniem jest odtwarzanie systemu poczty elektronicznej. Większość dzisiejszych systemów e-mail to praktycznie systemy baz danych, dlatego ich systemy kopii awaryjnych pracują w podobny sposób. Jednak typowe zlecenia odtwarzania systemu pocztowego różnią się istotnie od tych związanych z bazą danych.

Polecamy Bezpieczna poczta

Bazy danych rzadko są odtwarzane, ale kiedy już są, to zazwyczaj jest to odtworzenie pełne, od punktu uszkodzenia. Rzadko odtwarza się bazy danych częściowo, tzn. rzadkością jest odtwarzanie pojedynczych tabel bazy danych (mechanizmy odtwarzania bazy danych nie mają na ogół nawet takich możliwości). Zazwyczaj jedynym wyborem jest odtworzenie całej bazy danych w alternatywnej lokalizacji i następnie skopiowanie, potrzebnych tabel.

Z kolei w systemach poczty elektronicznej często zachodzi potrzeba odtworzenia pojedynczych skrzynek, folderów czy nawet wiadomości. Jeszcze nie tak dawno jedyna metoda odtworzenia na takim niskim poziomie była lustrzanym odbiciem sposobu stosowanego w bazach danych: odtworzenie całej aplikacji poczty elektronicznej w alternatywnej lokalizacji i przeniesienie stamtąd pożądanych skrzynek pocztowych, folderów czy wiadomości na odpowiedni serwer.

Kluczowe parametry backupu

Odtworzenie utraconych danych powinno przebiegać szybko i transparentnie dla użytkownika. Można to osiągnąć instalując wielopoziomowe systemy redundantne, lecz rozwiązanie takie jest kosztowne. Praktyczne podejście opiera się na określeniu specyficznych parametrów, które ustalą:

• jak długo organizacja może obyć się bez istotnych danych;

• punkt na osi czasu systemu kopii awaryjnych, od którego dane muszą być odtworzone (RPO);

• przedział czasowy, w którym testowanie backupu musi być wykonane, aby uznać je za pomyślne.

Parametry te są powiązane z wpływem opóźnień informacyjnych lub utraty informacji w wyniku awarii dla prowadzenia procesów biznesowych.

• RTO (Recovery Time Objective) - jest parametrem określającym czas, w ciągu którego aplikacja lub cała sieć organizacji musi zostać odtworzona. Definiując RTO, akceptujemy ryzyko związane z przerwą dotyczącą działania danej aplikacji w tym czasie. System pracujący okresowo, jak np. comiesięczne sporządzanie listy płac, może mieć dopuszczalny czas wyłączenia wyrażany w tygodniach. Systemy sterowania procesami przemysłowymi mogą mieć RTO ustalane w minutach lub nawet sekundach.

• RPO (Recovery Point Objective) - określa moment w działalności organizacji sprzed awarii, do którego dzięki backupowi będzie można wrócić. Wyrażony przez czas parametr określa więc także ilość danych, jaka może być utracona, lub które organizacja gotowa jest poświęcić, jako skutek awarii. RPO o wartości 1 godziny oznacza, że po ponownym uruchomieniu procesu użytkownicy nie stracą więcej aniżeli godzinę pracy.

• TTO (Test Time Objective) - jest parametrem testowania samego procesu odtwarzania po katastrofie. Określa okno czasowe, w którym test musi zostać wykonany, aby proces uznać za pomyślny. Celem testu jest sprawdzenie, czy po odtworzeniu pliki danych i cały odbudowany serwer są kompletne i będą poprawnie pracować.


TOP 200