Backup kiedyś, dziś i jutro

Mimo postępu technicznego w IT, mimo zmian związanych z wirtualizacją i usługami w chmurze, jeden proces jest niezmienny: firma nadal musi robić kopię bezpieczeństwa swoich zasobów. Powinna ją jednak wykonywać w sposób dostosowany do środowiska i potrzeb.

System backupowy ma za zadanie skopiowanie danych z systemu produkcyjnego do innego zasobu, nośnika lub nawet lokalizacji. Początkowo do tego celu wykorzystywano proste narzędzia, później pojawił się backup przyrostowy i różnicowy, powszechnie stosowano kompresję, a w ciągu ostatnich lat rozwinięto radykalną redukcję objętości backupu za pomocą deduplikacji. Przez lata zmieniało się źródło backupu, od dużych maszyn klasy mainframe i potężnych serwerów typu UNIX, przez serwery rozproszonego przetwarzania danych w systemach Linux i Windows, aż do skonsolidowanych środowisk wirtualizowanych. Te ostatnie sprawiają sporo problemów, gdy wykorzystywane są narzędzia i modele wywodzące się jeszcze z czasów przetwarzania rozproszonego na wielu fizycznych maszynach.

Agenci nie mają przyszłości

W środowisku wirtualizowanym wszystkie operacje maszyn wirtualnych na jednym serwerze są obsługiwane przez pojedynczy zestaw procesorów i magistrali. Jeśli oprogramowanie korzysta z agentów, ten sam kod jest wykonywany wielokrotnie. Przy tak zmasowanym obciążeniu należy wziąć pod uwagę wpływ zadań backupowych na wydajność produkcyjnego środowiska.

Także odtwarzanie takiego środowiska jest kłopotliwe, gdyż zakłada uruchomienie wzorca maszyny z agentem, a następnie przywrócenie wszystkich danych. Proces jest długotrwały, wymaga dwukrotnego przesyłania tej samej informacji przez serwer - pobrane z sieci dane z nośników zapasowych przechodzą przez oprogramowanie do backupu, a następnie są odkładanie przez agenta do hostowanego systemu operacyjnego, skąd przez hypervisor trafiają na dyski. Dla porównania, system bezagentowy skomunikuje się z hypervisorem przez API i może szybciej odłożyć dane wprost do bloków dyskowych na macierzy.

Migawka na macierzy przetwarza się w backup

Stary backup już nie nadąża

Wirtualizacja bardzo zmieniła IT, gdyż radykalnie przyspiesza wdrażanie systemów. Za tym procesem nie nadąża stary model backupowy, nie dorównuje mu szybkością ani elastycznością. Rozwiązania backupowe wywodzące się ze starych modeli pracy nie wykorzystają możliwości, jakie daje backupowe środowisko wyposażone w integrację z podsystemem storage'u. Niestety, nowoczesne systemy backupowe, które nie wymagają instalacji oprogramowania wewnątrz hostowanych systemów, nadal należą do rzadkości.

Dzisiejsze macierze dyskowe mają opcje kopii migawkowych (snapshot), dzięki czemu mogą zachować obraz maszyny wirtualnej podczas jej pracy, bez wpływu na środowisko produkcyjne. Nie są to jednak prawdziwe kopie bezpieczeństwa, gdyż są składowane na tej samej macierzy co środowisko produkcyjne. Możliwości macierzy dyskowych w tym zakresie można wykorzystać w połączeniu z funkcją śledzenia zmienionych bloków (CBT) hypervisora VMware, co znacznie przyspieszy tworzenie przyrostowych kopii. Połączenie kilku technologii umożliwi automatyczne tworzenie kopii bezpieczeństwa nawet co 15 minut, przy czym proces ten minimalnie wpływa na środowisko produkcyjne. Modelowe rozwiązanie zaproponowane przez firmę Veeam działa obecnie w połączeniu z systemami storage oferowanymi przez HP: StoreVirtual VSA, LeftHand, P4000 oraz StoreServ (3PAR).

Czy ten backup działa?

Najważniejsze pytanie, które zadają sobie administratorzy, dotyczy działania systemu backupowego. Przy korzystaniu z agentów jedynym pewnym sposobem kontroli jest odtworzenie w testowym środowisku. Rozwiązanie korzystające z API hypervisora umożliwia kontrolę spójności, dzięki porównaniu zawartości kopii migawkowych na dysku za pomocą kryptograficznych sum kontrolnych. Mimo całej technologii sum kryptograficznych, administratorzy nadal preferują samodzielne sprawdzenie backupu. Proces ten można znacznie przyspieszyć dzięki możliwości uruchomienia obrazu maszyny wirtualnej wprost z plików kopii bezpieczeństwa. W ten sposób można uruchomić obraz maszyny wirtualnej i przetestować działanie systemów, korzystając z danych, które rzeczywiście zostały pozyskane z kopii bezpieczeństwa - a zatem będą działać także w przypadku konieczności odtworzenia systemów po awarii.

Szybkie odtworzenie systemów

Każda kopia bezpieczeństwa jest warta tylko tyle, ile można z niej odzyskać w oczekiwanym przez IT czasie. Jeśli odtworzenie kopii wiąże się z koniecznością zaimportowania wielu terabajtów danych, to czas odtwarzania zasobów będzie liczony w godzinach. Proces można znacznie skrócić, jeśli tylko istnieje sposób pozyskania zawartości maszyny wirtualnej bezpośrednio jako obraz dostarczony do hypervisora. W ten sposób można sprawdzić backup, utworzyć środowisko testowe, ale także uruchomić środowisko produkcyjne w przypadku dużej awarii, licząc się jednak ze spadkiem wydajności.

Deduplikacja i kompresja stanowią podstawę, gdyż w standaryzowanym środowisku wirtualizowanym bardzo wiele bloków danych będzie się powtarzać między obrazami systemów operacyjnych i aplikacji, a także w obrębie jednego obrazu. Redukcja nadmiaru danych sprawia, że proces odtwarzania odbywa się bardzo szybko, dlatego że trzeba pobrać i przesłać mniej danych z kopii do odtwarzanego systemu.

Dyski, chmura i taśma

Usługi przechowywania danych w chmurze znajdują zastosowanie w firmowym IT. Zamiast zapisywać komplet informacji z kopii w firmowym środowisku, można wynająć usługę przechowywania danych u zewnętrznego dostawcy, płacąc za rzeczywiste zużycie zasobów. Metoda ta umożliwia szybkie uruchomienie rezerwowego miejsca do składowania kopii bezpieczeństwa, przy czym opcje synchronizacji danych przez WAN wydajnie przyspieszają proces transferu informacji między ośrodkami (można uzyskać nawet pięćdziesięciokrotne przyspieszenie transferu). Posłużenie się gotowymi usługami składowania danych w chmurze jest najprostszym sposobem wdrożenia strategii disaster recovery z użyciem zapasowego ośrodka. Wymaga także najmniejszych inwestycji.

Mimo rozwoju składowania danych na dyskach i w chmurze, firmy nadal potrzebują zapisać dane na taśmie. Napędy taśmowe charakteryzują się dużą trwałością zapisu i umożliwiają wyniesienie kopii do zdalnej lokalizacji, takiej jak skrytka bankowa. Wpisują się także w tradycyjną strategię, która zakłada przechowywanie najważniejszych danych w obrębie firmowego IT, bez angażowania usług świadczonych przez podmioty zewnętrzne.

Najważniejszy nie jest backup, ale restore

Sprawność systemu backupowego w praktyce można sprawdzić tylko w jeden sposób: przywracając dane. W bardzo wielu wdrożeniach przy pierwszych testach okazuje się, że proces przywracania danych trwa o wiele dłużej, niż zaplanowano. Niekiedy pojawiają się dodatkowe problemy, nie tylko wydajnościowe, ale także związane ze zgodnością ze stosowanym oprogramowaniem lub nośnikami. W niektórych przypadkach zdarzają się krytyczne błędy wynikające stąd, że sporządzona kopia nie była kompletna lub była w inny sposób uszkodzona i nie można było tego sprawdzić inaczej niż przy odtworzeniu jej do testowego środowiska. Problemy mogą być także związane z wydajnością łączy między serwerami backupowymi a produkcyjnymi, co wpłynie na prędkość odtwarzania danych, a także z samym procesem odzyskiwania informacji z napędów taśmowych. Te ostatnie są sprawdzone przez lata, ale mają jedną istotną wadę: nie umożliwiają szybkiego odtworzenia informacji, która jest rozproszona wzdłuż nośnika, a najlepiej pracują z maksymalną prędkością, zapisując i odtwarzając komplet danych. Dlatego kopię na taśmie obecnie traktuje się jako zasób "bardzo zimny", który często jest przechowywany głównie ze względu na wymagania prawne. Rolę szybkiego zasobu przeznaczonego do odtwarzania danych w dzisiejszych dynamicznie zmiennych środowiskach grają niemal wyłącznie dyski.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200