Jak zmierzyć jakość backupu?

Jeśli nie jesteś w stanie czegoś zmierzyć, nie możesz tym zarządzać. Czasem można nie zgadzać się z tym truizmem, ale akurat w przypadku backupu i odzyskiwania danych pomiar jakości ich wykonania jest bardzo ważny.

Jeśli nie jesteś w stanie czegoś zmierzyć, nie możesz tym zarządzać. Czasem można nie zgadzać się z tym truizmem, ale akurat w przypadku backupu i odzyskiwania danych pomiar jakości ich wykonania jest bardzo ważny.

Często jedynym czynnikiem, na który zwraca się uwagę, jest informacja o skutecznym wykonaniu zadania backupowego. Natomiast tych parametrów jest o wiele więcej. Dopiero zwrócenie uwagi na wszystkie, bądź większość z nich, pozwoli właściwie oszacować poziom ryzyka braku możliwości odzyskania danych z backupu w momencie wystąpienia awarii. Oto niektóre z tych czynników:

  1. Częściowe wykonanie backupu. Teoretycznie powinno być zgłaszane jako błąd zadania backupu, ale często okazuje się, że w wielu środowiskach systemowych niepełne wykonanie backupu zgłaszane jest jako sukces lub nie jest raportowane w ogóle. Przyczyną jest fakt, że niektóre zadania backupowe obejmują także pliki otwarte lub tymczasowe, które nie mogą być skutecznie zabezpieczone. Natomiast bez szczegółowej inspekcji trudno jest stwierdzić, czy taki fakt miał miejsce. Jeśli jesteśmy w stanie zidentyfikować powtarzające się pliki tymczasowe lub zawierające je katalogi, takie obiekty powinny trafić do listy obiektów nieobjętych backupem, aby uniknąć problemów przy raportowaniu sukcesów z wykonania zadania backupowego.
  2. Systematyczne błędy backupu. Błąd, który wystąpi w pojedynczym cyklu backupowym może sprawić problem, ale gdy zacznie się on powtarzać, skutki mogą być opłakane. Błędnie wykonane backupy mogą skutkować tym, że moment w historii, z którego możemy odzyskać nasze dane, oddala się, obniżając tym samym ich wartość biznesową dla przedsiębiorstwa. Dlatego ważna jest uważna lektura raportów backupu i szybka reakcja na ujawniane tam błędy.
  3. Nieefektywne wykorzystanie nośników. Na ten parametr rzadko jest zwracana uwaga. Mimo że nośniki taśmowe są dość drogie, ich wykorzystanie często nie sięga 70 procent. Przeprowadzone w dużych instytucjach badania pokazały, że zwiększenie wykorzystania nośników o 10 procent dało roczne oszczędności rzędu setek tysięcy dolarów.
  4. Nadmierna eksploatacja nośników. Taśma, jako nośnik magnetyczny, ma swoją określoną trwałość i wytrzymałość. Coraz częstsze pojawianie się błędów weryfikacji na nośniku oznacza, że czas życia taśmy zbliża się do końca i konieczna jest jej natychmiastowa wymiana. Zignorowanie tego ostrzeżenia może skutkować brakiem możliwości odzyskania danych z backupu.
  5. Złe oszacowanie wydajności napędów taśmowych. Niewykorzystanie pełnej mocy napędu taśmowego skutkuje nie tylko niepełnym wykorzystaniem jego możliwości, ale także zwiększa ryzyko wystąpienia błędu backupu i obniża czas życia zarówno napędu, jak i nośników. Nowoczesne napędy taśmowe są w stanie zapisywać dane z prędkością 40 MB/s, podczas gdy wiele środowisk nie jest w stanie dostarczyć danych do backupowania z prędkością nawet 10 MB/s. Warto na to zwrócić uwagę, planując wydajność systemu backupowego.

Niestety, większość tych parametrów nie jest określana przez tradycyjne oprogramowanie do wykonywania backupu. Dlatego inwestycja w narzędzia lub usługi dostarczające tych informacji może okazać się bardzo wartościowa.

Czas sprzed i po awarii

Proces backupu charakteryzują dwa bardzo ważne parametry - czas RPO i RTO. Pierwszy z nich (Recovery Point Objective) określa moment w przeszłości, w którym po raz ostatni została wykonana kopia danych i do którego momentu działalności będzie można wrócić. Czas ten jest różny i zależy głównie od charakteru działalności - jednym wystarczy kopia sprzed tygodnia, inni zaś potrzebują danych sprzed kilkunastu sekund (wówczas tradycyjne rozwiązanie backupowe musi być zastąpione replikacją danych).

Drugi parametr - Recovery Time Objective - określa maksymalny czas po awarii potrzebny do przywrócenia działania aplikacji, systemów i procesów biznesowych. Określając parametr RTO należy doprowadzić do kompromisu między potencjalnymi stratami a kosztami rozwiązania umożliwiającego jak najszybsze odtworzenie stanu sprzed awarii.

Ważnym czynnikiem jest też okno backupu, czyli czas, w którym można wykonać kopie bezpieczeństwa zachowując jej spójność, a zarazem proces wykonania kopii nie utrudnia pracy użytkownikom systemów. Okno backupu stanowi dość duży problem, bo ilość danych do zabezpieczenia wciąż rośnie, z reguły szybciej niż prędkość technologii umożliwiających zabezpieczenie tych danych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200