Pięć wskazówek związanych z kopią bezpieczeństwa

Ochrona danych przed utratą w przypadku awarii to klucz do planów ciągłości działania. Nadal jednak firmy nie zwracają na backup dostatecznej uwagi.

W każdej organizacji mającej własne zasoby IT należy chronić przechowywane informacje. Przyczyną utraty danych może być awaria techniczna, błąd ludzki, uszkodzenie oprogramowania lub czynnik zewnętrzny. Firma musi być przygotowana na różne zdarzenia, a jednocześnie musi uwzględniać podstawowy fakt – samo wykonanie kopii nie stanowi o sukcesie planu. O sukcesie możemy mówić dopiero wtedy, gdy nawet podczas najpoważniejszego zdarzenia losowego uda się zrealizować w pełni plan ochrony danych, czyli odtworzyć zapisane uprzednio dane, mieszcząc się przy tym w ustalonym czasie. Nie jest to jednak trywialne, gdy danych jest dużo, a odtwarzaniu podlegają różne systemy. Plan może się nie powieść, jeśli nie uwzględniono w nim skutków niektórych zdarzeń losowych lub błędu człowieka.

Naturalne katastrofy zdarzają się rzadko

Im poważniejsze zdarzenie naturalne, tym mniejsze prawdopodobieństwo jego występowania. Prawdopodobieństwo to w praktyce jest naprawdę niskie. Według raportu „The Global Disaster Recovery Index” wydanego w 2012 r. przez firmę Acronis, katastrofy naturalne są odpowiedzialne jedynie za 4% ogółu zdarzeń skutkujących przestojem w firmach. Najważniejszym czynnikiem jest błąd ludzki (23% ogółu zdarzeń), a kolejnymi co do częstości występowania i skutków są: uszkodzenia systemów, incydenty naruszenia bezpieczeństwa i katastrofy wewnątrz samego data center, takie jak pożar. Plan ochrony danych i ciągłości działania powinien zatem adresować skutki różnych zdarzeń, także tych spowodowanych przez człowieka.

Nie tylko kopia – ale także jej odtworzenie

O tym, że plan zadziałał, można przekonać się dopiero wtedy, gdy zostanie w praktyce przetestowany, a próba zakończy się sukcesem. Przykładem próby może być odtworzenie kompletu danych (lub choćby jednej aplikacji w tym samym czasie) w środowisku testowym. Niestety, nadal zbyt mało organizacji sprawdza własne plany awaryjne – wg ankiety (Symantec SMB Disaster Preparedness Survey) związanej z backupem opracowanej przez firmę Symantec, zaledwie 28% firm małej i średniej wielkości przetestowało odtworzenie z kopii bezpieczeństwa. Jeszcze gorzej wygląda statystyka według firmy Hurwitz and Assoc: ponad połowa prób odtworzenia kompletu danych z taśmy zakończy się niepowodzeniem. Z kolei nie wszyscy mają komplet danych – wg UBM TechWeb, 31% firm wykonuje backup wszystkich swoich maszyn wirtualnych, a zaledwie u 18% codzienne zadanie backupowe maszyn wirtualnych kończy się sukcesem.

Oznacza to, że firma niezależnie od swojej wielkości musi testować plan ciągłości działania oraz regularnie sprawdzać możliwość odtworzenia danych i aplikacji podczas testów.

Odtworzenie trwa zbyt długo

Proces kopiowania danych na taśmy jest dobrze dopracowany w większości firm, ale nie można tego powiedzieć o mechanizmach odtwarzania informacji z tego nośnika. Niewiele działów IT zdaje sobie sprawę z faktu, że odtwarzanie danych z taśmy może trwać bardzo długo – kilka razy dłużej, niż zajmuje zapisanie tych samych danych na taśmę. Harris Interactive wspomina o trzykrotnej różnicy czasu między wymaganiami zarządu (10 godzin) a ich realizacją przez IT (30 godzin). Oznacza to, że plan zachowania ciągłości działania powinien uwzględniać także te różnice, a najlepszym sposobem przekonania się o realnym czasie odtworzenia danych jest prawdziwy test. Wyniki prób są zastanawiające dla firm, które nigdy takiego testu nie robiły.

Rośnie koszt przestojów

Każda poważna awaria może skutkować przestojem IT w firmie, a zatem brakiem obsługi procesów biznesowych. Dotychczas koszty przestojów liczyły głównie duże firmy z branży finansowej i medialnej. Obecnie obsługa IT jest ważna również w małych firmach, a zatem także one zaczynają liczyć koszty przestoju spowodowanego awarią. W raporcie The Aberdeen Group średni koszt godziny przestoju w małych firmach może osiągnąć nawet 74 tys. USD. Im dłuższy czas przestoju, tym większe straty. Dotyczą one także danych transakcyjnych, których nie udało się zapisać ani przetworzyć.

Nowe technologie niosą zmiany

Najpoważniejszą technologią, która radykalnie zmieniła sposób przetwarzania informacji w firmach, jest wirtualizacja. Kolejne technologie, takie jak optymalizacja sieci oraz cloud computing, sprawiły, że starsze narzędzia i modele wykonywania kopii bezpieczeństwa nie pasują do obecnych systemów. Technologie te wprowadziły także nowe podejście do dostarczania zasobów – proces jest automatyczny i trwa krótko – a tego samego oczekuje się od backupu. Tymczasem wg Enterprise Systems Journal, większość narzędzi do wykonywania kopii bezpieczeństwa bazuje na technologii, która ma już 40 lat. Należy zatem razem ze zmianami w IT wprowadzonymi przez wirtualizację rozważyć wykorzystanie nowoczesnych narzędzi do wykonywania kopii bezpieczeństwa. Powinny one nie tylko uwzględniać fakt wirtualizacji chronionych systemów, ale także wykorzystywać możliwości, które daje wirtualizacja i składowanie danych w chmurze.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200