Jak wysoka ma być wysoka dostępność

Strategia ochrony danych obejmuje kilka powiązanych ze sobą obszarów. Nadmierne dbanie o jeden z nich może prowadzić do problemów w pozostałych, a w konsekwencji również do niepotrzebnych wydatków.

Rozpoznanie słabych punktów strategii ochrony danych to nie wszystko. Organizacje muszą zrozumieć, jakie powinny być właściwe cele zarządzania ryzykiem w zakresie ochrony danych. Określenie tych celów ma kolosalne znaczenie, ale nie jest łatwym zadaniem. Aspekty, które wymagają rozważenia, to dostępność danych, ochrona przed utratą, osiągalność oraz poufność. Co istotne, te cztery obszary należy wzajemnie zrównoważyć, ponieważ zmiany w jednym wpływają na pozostałe. Dlatego zbytnie skoncentrowanie się tylko na jednym obszarze może prowadzić do problemów ze zrealizowaniem celów w pozostałych strefach.

Zbyt wysoko

Wysoka dostępność, czyli skrócenie czasu nieplanowanych przestojów do sekund, maksymalnie do kilku minut na rok, to często główny cel strategii ochrony danych i jeden z podstawowych czynników zapewnienia wysokiej dostępności. Jednak nadmierne przywiązywanie wagi do wysokiej dostępności może prowadzić do problemów z bezpieczeństwem danych (większość budżetu idzie na zapewnienie ciągłości działania systemów, a niewiele środków na zapobieganie utracie danych w razie awarii), osiągalnością (macierze przystosowane do zapewnienia wysokiej dostępności nie wracają szybko do działania po awarii) i poufnością (niewielka część budżetu jest przeznaczana na ochronę danych przed nieautoryzowanym dostępem). W efekcie organizacja może mieć problem ze zrealizowaniem założeń ochrony danych i prawdopodobnie będzie wydawała na ten cel więcej niż to konieczne.

Zobacz również:

  • IBM Security QRadar SIEM pomoże zarządzić globalną strukturą odpowiedzialną za bezpieczeństwo

Wysoka dostępność to wypadkowa z całej infrastruktury IT, a nie tylko parametr wynikający z systemów pamięci masowej. Przykładowo, jeśli sieć jest z jakiegoś powodu niedostępna, macierze dyskowe również będą niedostępne, nawet jeśli będą cały czas pracować bezawaryjnie.

Kosztowna redundancja

Warto zauważyć, że nie wszystkie aplikacje muszą charakteryzować się takim samym poziomem wysokiej dostępności. Jednakże w przypadku aplikacji, od których oczekuje się wysokiej dostępności, wszystkie komponenty infrastruktury muszą być skonfigurowane na relatywnie zbliżonym poziomie ochrony. W przeciwnym razie najsłabsze ogniwo będzie zaniżało współczynnik wysokiej dostępności.

W normalnych okolicznościach nie projektuje się całej infrastruktury IT pod kątem zapewnienia wysokiej dostępności. Wysoka dostępność to pojęcie względne. Można osiągać wciąż wyższe poziomy dostępności. Każdy kolejny poziom to skrócenie przestojów liczone w minutach bądź sekundach w skali roku. Niestety, wraz z poprawą dostępności szybko rosną koszty jej zapewnienia. Wynika to z faktu, że przejście od pojedynczego punktu awarii (sytuacja, kiedy w przypadku awarii danego komponentu nie ma alternatywnego systemu przejmującego jego zadania) do stanu, w którym takich pojedynczych punktów nie ma, jest kosztowne. Wiąże się to bowiem z redundancją, czyli wdrażaniem nadmiarowych komponentów. Dodatkowe komponenty nie wnoszą nowej funkcjonalności, choć czasem można je wykorzystywać do równoległej obsługi obciążeń, a przez to uzyskać poprawę wydajności. Jednakże w przypadku awarii jeden komponent musi „pracować za dwóch”, co prowadzi do spadku wydajności poniżej akceptowalnego poziomu.

Inwestycja w macierze

Jeśli cześć infrastruktury można znacznie poprawić za stosunkowo niedużą kwotę, taka inwestycja będzie prawdopodobnie opłacalna. Kiedy firma stoi przed decyzją, czy zainwestować zbliżoną kwotę w poprawę dostępności macierzy, sieci, serwerów lub baz danych, warto wybrać macierze. Przemawia za tym fakt, że inwestycja w macierze, jeśli starannie przeprowadzona, poprawia nie tylko dostępność, ale również przekłada się na ochronę danych przed utratą. Dane są lepiej chronione przed utratą, ponieważ powstaje jedna lub więcej kopii, z których te dane można odtworzyć. To istotna korzyść, której np. inwestycja w przełączniki sieciowe nie może zapewnić.

SNIA (Storage Networking Industry Association) zdefiniowała dwa kluczowe parametry ochrony danych, które mają wpływ na wysoką dostępność. Pierwszy z nich to RPO (Recovery Point Objective), czyli najmniejsza, akceptowalna częstotliwość wykonywania kopi danych. Mówiąc inaczej, jest to maksymalny czas wykonania kopii danych przed awarią systemu produkcyjnego. Dane zapisane w tym czasie przez system produkcyjny zostaną utracone. Drugi parametr to RTO (Recovery Time Objective), czyli maksymalny akceptowalny czas przywrócenia danych i aplikacji po awarii.

Data Management Forum (DMF) działające w ramach SNIA zdefiniowało jeszcze trzeci termin: DPW (Data Protection Window). Określa on czas, w którym system produkcyjny jest mniej obciążony lub jest w stanie spoczynku i wtedy dane można skopiować do repozytorium bez negatywnego wpływu na realizację operacji biznesowych.

DMF wyróżniło pięć etapów wdrożenia ochrony danych: (1) pogrupowanie danych według ważności dla firmy, (2) zdefiniowanie najlepszego rozwiązania, (3) wybór komponentów, (4) oszacowanie kosztów wdrożenia, (5) potwierdzenie decyzji lub wprowadzenie zmiany.

Tak opisany proces wygląda rozsądnie, ale we wskazówkach dotyczących jego stosowania znajduje się ważne stwierdzenie. Jeśli koszty okażą się zbyt wysokie, zaleca się obniżenie ważności określonej grupy danych lub wybór innych komponentów. Mówiąc inaczej, jeśli firmy nie stać na rozwiązanie, należy zmienić zdanie co do tego, jak istotna dla firmy jest określona kategoria danych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200