Dane zawsze dostępne

Nie ma wątpliwości, że nagła utrata dostępu do danych w firmie to - po klęskach żywiołowych - jeden z najgorszych wypadków. Brak możliwości kontynuowania procesów biznesowych może spowodować niewyobrażalną w skutkach katastrofę finansową. Czemu niewyobrażalną? Bo wiele firm nigdy nawet nie próbowało oszacować strat powstałych w wyniku takiego zdarzenia.

Nie ma wątpliwości, że nagła utrata dostępu do danych w firmie to - po klęskach żywiołowych - jeden z najgorszych wypadków. Brak możliwości kontynuowania procesów biznesowych może spowodować niewyobrażalną w skutkach katastrofę finansową. Czemu niewyobrażalną? Bo wiele firm nigdy nawet nie próbowało oszacować strat powstałych w wyniku takiego zdarzenia.

Często zdarza się, że dane w wielu sieciach są zabezpieczane bez głębszego zastanowienia się nad sensem tej operacji, a procedury ich odzyskiwania nigdy nie były testowane. Podczas awarii zasilania lub systemu teleinformatycznego wielu administratorów nie wie, które procedury planu Disaster Recovery zastosować (o ile taki plan w ogóle istnieje). Rozpoczyna się paniczne kontrolowanie, które dane są odpowiednio zabezpieczone. Okazuje się, że pracownicy firmy nie znają procedur postępowania w krytycznych sytuacjach.

Problem jest tym większy, że w wielu przypadkach każdy przestój systemu informatycznego to konkretne straty. Trwające w przedsiębiorstwie procesy biznesowe wymagają ciągłego dostępu do aplikacji i danych. Coraz więcej jest też uwarunkowań prawnych, mówiących o budowie systemów informatycznych, konieczności odpowiedniego zabezpieczania danych i dbałości o ich spójność.

Jednym z podstawowych zadań administratora sieci jest umiejętność określenia skutków potencjalnego zagrożenia, w tym także nagłego długotrwałego zaniku napięcia. Zadanie jest o tyle ułatwione, że przypadek taki łatwo zasymulować i zminimalizować jego ewentualne skutki.

Oczywiście, w każdym przypadku problem Disaster Recovery należy rozpatrywać indywidualnie (dotyczy to także innych zagadnień poruszonych w tym artykule). Analizując problem zagrożenia dla danych w wyniku zaniku napięcia, należy wziąć pod uwagę przede wszystkim rodzaj i charakter zabezpieczanych danych. Należy też ocenić ryzyko uszkodzenia lub utraty danych w momencie odcięcia zasilania. Inna wszak będzie forma zabezpieczeń w dużym centrum pamięci masowych, a inna u księgowej, która przetwarza strategiczne dane firmy raz czy dwa razy w miesiącu.

Oprócz oceny ryzyka utraty danych należy określić, które dane i w jak krótkim czasie powinny zostać przywrócone. Dane powinny też zostać sklasyfikowane wg ich ważności. Wszystkie te informacje będą dla nas bardzo ważne przy tworzeniu dokumentu polityki bezpieczeństwa, o którym mowa w dalszej części artykułu.

Jak dawno, jak szybko

Dane zawsze dostępne

RPO i RTO

Zarząd firmy wspólnie z informatykami powinien określić przede wszystkim dwa bardzo ważne parametry - RPO i RTO. Pierwszy z nich (Recovery Point Objective) określa moment z przeszłości, w którym po raz ostatni została wykonana kopia danych i do którego momentu naszej działalności będziemy mogli wrócić. Oczywiście, RPO dla różnych firm może mieć inną wartość - jednym wystarczy kopia sprzed tygodnia, inni zaś potrzebują danych sprzed kilkunastu sekund.

Drugi ważny parametr - Recovery Time Objective - określa maksymalny czas po awarii potrzebny do przywrócenia działania aplikacji, systemów i procesów biznesowych. Określając parametr RTO, należy doprowadzić do kompromisu między potencjalnymi stratami a kosztami rozwiązania umożliwiającego jak najszybsze odtworzenie stanu sprzed awarii.

Backup czy archiwizacja?

Na początku należy wyjaśnić różnicę między trzema często mylonymi pojęciami: backupem, archiwizacją danych i kopią zapasową. Backup to ochronna kopia na bieżąco przetwarzanych danych z serwera lub stacji roboczych. W razie wystąpienia awarii backup pomaga w krótkim czasie przywrócić system informatyczny do stanu z momentu wykonania ostatniej kopii. Zarówno procedura wykonania backupu, jak i całe rozwiązanie zabezpieczające powinny być tak skonstruowane, aby nie obciążały nadmiernie serwerów ani sieci - proces ten nie powinien być widoczny dla użytkowników sieci, a jednocześnie winien być na tyle automatyzowany, aby zminimalizować ryzyko wystąpienia błędu ludzkiego. Jedna z podstawowych zasad backupu mówi, że całość zabezpieczanych danych powinna zmieścić się na jednym nośniku (szczególnie gdy system backupu nie jest zautomatyzowany). Z tego powodu do backupu najczęściej wykorzystywane są napędy taśmowe, które, oprócz twardych dysków, są dziś najbardziej pojemnymi nośnikami.

Backupy są wykonywane najczęściej wg ściśle określonych schematów rotacji nośników (np. Dziadek/Ojciec/Syn czy Wieże Hanoi). Określają one, w których dniach tygodnia jest wykonywany tzw. backup pełny (wówczas są kopiowane wszystkie, konieczne dane), a kiedy backup przyrostowy lub różnicowy (wtedy są zapisywane tylko nowe dane i te, które zmieniły się w ostatnim czasie).

Z kolei archiwizacja danych odbywa się wyłącznie na potrzeby użytkowników systemu informatycznego. Procesowi archiwizacji podlegają stare i rzadko przetwarzane dane, dzięki czemu mogą zostać przeniesione na wolniejsze od twardych dysków, ale tańsze nośniki. Dobrze skonstruowane rozwiązanie archiwizacyjne powinno (jeśli jest taka potrzeba) cały czas udostępniać zarchiwizowane dane, chociaż szybkość tego udostępniania nie musi być duża. W systemach archiwizacji danych doskonale sprawują się rozwiązania optyczne i magnetooptyczne, głównie ze względu na dość dużą pojemność i niski koszt nośnika.

Kopia zapasowa to po prostu dodatkowe zabezpieczenie nośników z backupem bądź zarchiwizowanymi danymi. Warto o niej pamiętać, bowiem trudno mówić o większym pechu, gdy po awarii systemu próbujemy dostać się do naszej kopii backupowej, a ta jest uszkodzona. A takie przypadki, niestety, zdarzają się. Taśmy, na których jest wykonywany backup, często są nadmiernie eksploatowane, a w wyniku tego ryzyko wykonania bezwartościowego (bo bez możliwości odzyskania danych) backupu znacznie rośnie.

Odpowiednie narzędzia

Gdy przeanalizujemy rodzaj zabezpieczanych danych i czas potrzebny do ich ponownego udostępnienia użytkownikom sieci, będziemy mogli zacząć myśleć o wyborze konkretnego rozwiązania. W kilkunastoosobowej firmie, gdzie dane w niewielkich ilościach są przechowywane na jednym serwerze, wystarczy zwykły wewnętrzny napęd taśmowy obsługiwany przez administratora. Dane księgowe może archiwizować księgowa na wbudowanej w jej komputer nagrywarce CD (ilość tych danych z reguły nie przekracza kilkunastu megabajtów).

W sieciach z kilkudziesięcioma komputerami, gdzie funkcjonuje kilka serwerów, warto pomyśleć o instalacji zmieniacza taśmowego. Urządzenie to przejmuje na siebie odpowiedzialność za sterowanie dostarczaniem taśm do napędu taśmowego, ułatwia wykonanie backupu w przypadku, gdy nie mieści się ona na jednej taśmie. Eliminuje też ryzyko wystąpienia błędu człowieka, np. przy wybieraniu odpowiedniej taśmy podczas wykonywania backupu.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200