Efektywny backup - to jest możliwe!

Podczas gdy ilość danych rośnie lawinowo a od systemów produkcyjnych wymaga się coraz częściej całodobowej dostępności, problemem w wielu organizacjach staje się przeprowadzenie efektywnego backupu.

Długie okno backupu

Nie znajdzie się chyba nikt, kto byłby zwolennikiem intensywnego i długotrwałego obciążania zasobów zarówno sprzętowych, jak i sieciowych przez proces wykonywania kopii zapasowej. Najgorsze przypadki mają miejsce, gdy serwer ma na swoich dyskach wewnętrznych olbrzymie ilości danych, a ekstremalne to takie, w których te dane to setki tysięcy bardzo małych plików i wymagany jest ich pełen backup. Należy pamiętać o tym, że każdy z tych plików musi zostać skatalogowany przez serwer backupu.

Przykładem bardzo niewdzięcznym do backupu jest system archiwizacji faktur w instytucji finansowej. Wszystkie drukowane rachunki są składowane w postaci czarno-białych obrazów w formacie TIFF, każdy z nich zwykle o wielkości 1 lub 2 kilobajtów. Gdy występują one w liczbie milionów, backup takiego serwera może potrwać dłużej niż 24 godziny, mimo że w sumie jest to mniej niż 500 GB danych. Problemem okazuje się ogromna liczba plików, z których każdy kolejno musi zostać skatalogowany przez serwer backupu.

Zobacz również:

  • Ransomware zagraża ochronie zdrowia
  • Dlaczego kopia zapasowa telefonu to coś, o czym nie warto zapominać
  • Wyjaśniamy czym jest SD-WAN i jakie są zalety tego rozwiązania

Backup typu off-host

Patrząc na elementy składowe tradycyjnego systemu backupu, można wskazać kilka innych istotnych punktów - potencjalnych winowajców długiego okna backupu. Pierwszym z nich jest podsystem dyskowy serwera, który chcemy backupować. Poziom transmisji ciągłego strumienia danych, jaki uzyskamy z takiego podsystemu, determinuje bezpośrednio długość okna backupu, często jest to niespełna 20 MB/s, a więc sześciokrotnie mniej niż możliwości obecnych napędów taśmowych wykonanych w technologii LTO 4 oraz około czterokrotnie mniej niż możliwość pojedynczego łącza sieci LAN o przepustowości 1 Gb/s. Pomocne przy rozwiązaniu tego problemu okazują się oferowane w oprogramowaniu backupu możliwości multistreamingu. Równoległy zapis wielu strumieni danych na napęd taśmowy sprawia, że zostaje on w pełni wysycony i zapisuje na taśmę z pełną szybkością. Poprawia to jego żywotność, ponieważ tego typu napędy zużywają się bardzo szybko, jeśli ich praca charakteryzuje się częstym zatrzymywaniem.

Kolejnym wąskim gardłem po wewnętrznym podsystemie dyskowym backupowanego serwera, może okazać się jego interfejs sieciowy oraz sama sieć. Wbrew powszechnym przekonaniom 100 Mb/s to nie taka znowu rzadkość i ciągle tego typu sieci występują w wielu firmach, co przy dużych ilościach danych do zbackupowania przekłada się na wydłużenie okna backupu. W tego typu przypadkach najlepszym rozwiązaniem jest wymiana elementów sieciowych na takie, które umożliwią wzrost przepustowości lub teaming interfejsów sieciowych.

Powszechnie przyjętą praktyką w nowoczesnych architekturach systemów backupu jest zastosowanie tzw. progu dyskowego, czyli urządzenia wyposażonego w niedrogie i pojemne dyski SATA, umożliwiające w zależności od wymagań retencji danych składowanie kopii zapasowych. Stosowanie urządzeń dyskowych, zwłaszcza w dużych systemach backupu, umożliwia podzielenie zadań backupowych w zależności od uzyskiwanych wyników transmisji ciągłej z backupowanych serwerów. I tak na przykład, strumienie transmitowane z dużą szybkością można skierować bezpośrednio na napędy taśmowe biblioteki, które zostaną wysycone, natomiast strumienie z niskim poziomem transmisji skierować na dyski, a następnie już poza oknem backupu skierować je na taśmy, wykorzystując pełną szybkość zapisu (dla LTO 4 jest to 120 MB/s).

Wykorzystanie urządzeń dyskowych umożliwia również uzyskanie lepszych parametrów RTO oraz RPO, co w przypadku niektórych systemów produkcyjnych nabiera kluczowego znaczenia. Często wąskim gardłem okazuje się sam serwer backupu, zwłaszcza gdy jest to maszyna starszej generacji, wyposażona w słabszy procesor oraz mniej pamięci RAM i wolnych dysków wewnętrznych, a więc elementy kluczowe podczas procesu indeksacji w bazie backupowanych danych.

Z przyczyn wydajnościowych, dla dużej liczby serwerów zawierających duże ilości danych, tradycyjny backup po sieci LAN staje się mało efektywny i niejednokrotnie przeciąga okno backupu w trudny do zdefiniowania czas. W tego typu przypadkach powszechnie przyjętą praktyką jest zbudowanie i wykorzystanie do backupu sieci SAN. Dysponując szybką siecią SAN, kopie zapasowe są wykonywane z przepustowością oferowaną przez technologię Fibre Channel, a sieć LAN wtedy służy najczęściej do przesyłania metadanych do bazy serwera backupu.

Posiadanie sieci SAN opartej na macierzy dyskowej umożliwia również przeniesienie na nią danych z dysków wewnętrznych serwerów, a to z kolei umożliwia włączenie w system backupu narzędzi oferowanych przez producentów macierzy, takich jak kopie migawkowe - snapshot, protokół NDMP dla backupu środowisk plikowych i podejście off-host backup.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200