Pamiętać to znaczy zabezpieczać

Wszystkie dane można podzielić na dwie grupy: te, które są zabezpieczone i te, które jeszcze nie zostały utracone. Ta reguła dotyczy absolutnie wszystkich - dużych korporacji, małych i średnich firm oraz oczywiście użytkowników domowych. Tymczasem problem stanowi to, że nie ma idealnego przepisu na zabezpieczenie danych.

Wszystkie dane można podzielić na dwie grupy: te, które są zabezpieczone i te, które jeszcze nie zostały utracone. Ta reguła dotyczy absolutnie wszystkich - dużych korporacji, małych i średnich firm oraz oczywiście użytkowników domowych. Tymczasem problem stanowi to, że nie ma idealnego przepisu na zabezpieczenie danych.

Każda firma operuje na stworzonych przez siebie danych (bez znaczenia jakich – księgowych, tekstowych, graficznych, muzycznych...), które stanowią dla niej bezcenne źródło wiedzy, możliwości, siły, a ponadto po prostu pieniędzy. Przy ilości fizycznych zabezpieczeń budynków aż dziwne, że do tej pory niewiele firm zdaje sobie sprawę z tego faktu. We wszystkich instytucjach powinny istnieć dokumenty polityki bezpieczeństwa informacji. Tymczasem wśród największych firm taki dokument jest tylko w co trzeciej, a wśród mniejszych – można się domyślić.

Nie ma jednej skutecznej metody ochrony danych. Zawsze trzeba ocenić zagrożenie i poziom ryzyka wpływu tego zagrożenia na nasze dane. Wśród podstawowych rodzajów zagrożeń są:

  • Błąd człowieka – umyślne bądź nieumyślne skasowanie pliku, niewłaściwe dbanie o sprzęt czy po prostu zaniechanie pewnych czynności wciąż stanowią największy odsetek wśród możliwych do wystąpienia czynników zagrożenia systemów informatycznych. Metod przeciwdziałania jest wiele: częste wykonywanie kopii zapasowej danych i automatyzacja tego procesu, właściwe kierowanie przyznawaniem praw dostępu do poszczególnych danych itd.
  • Wirusy i robaki internetowe to druga po błędzie człowieka grupa najbardziej zagrażająca danym. W dobie Internetu zabezpieczeniem są zawsze aktualne rozwiązania ochronne (oprogramowanie antywirusowe, firewalle), wsparte spójną i co najważniejsze przestrzeganą polityką bezpieczeństwa.
  • Awaria twardego dysku – dysk jest najczęściej psującym się elementem komputera. Najprostszą metodą zabezpieczenia jest, podobnie jak na skutek błędów człowieka, częste wykonywanie kopii danych. Dyski, na których przechowywane są dane w macierzach dyskowych, można łączyć ze sobą w tzw. strukturę RAID, dzięki czemu awaria jednego lub więcej dysków w macierzy nie powoduje utraty wszystkich danych.
  • Przepięcia lub zaniki napięcia w sieci energetycznej – centra danych (serwery, systemy pamięci masowych i infrastruktura sieciowa) powinny być chronione profesjonalnymi rozwiązaniami antyprzepięciowymi, zaś przy komputerach biurkowych powinny stać UPS-y.
  • Kradzież, sabotaż, pożar i inne żywioły – jeśli dane są wyjątkowo cenne, należy zadbać również o to, aby ich kopia znajdowała się poza siedzibą firmy. Metody są dwie: wywiezienie kopii danych na przenośnym nośniku do bezpiecznej lokalizacji lub system automatycznej replikacji danych (synchronicznej lub asynchronicznej) do zapasowego centrum danych.

Po co zabezpieczać dane?

Każdy system pamięci masowych składa się z trzech elementów. Pierwszym jest cała infrastruktura, gdzie przechowywane są dane, z których firma aktualnie korzysta. Do sieci lokalnej dołączone są serwery plików, poczty elektronicznej oraz baz danych, często też dane są przechowywane na lokalnych dyskach komputerów.

Drugim elementem powinien być tzw. system backupu – rozwiązanie pozwalające tworzyć kopię zapasową danych rozsianych po firmie. Obecnie jest wiele metod na stworzenie systemu backupu. Najprostszym jest ustanowienie serwera backupu, który będzie zbierał dane z pozostałych serwerów w firmie i dołączenie do niego tzw. zmieniacza taśmowego (urządzenia wyposażonego w jeden napęd taśmowy, magazynek na kilka taśm i prosty automat do zmiany taśm). Rozwiązanie to pozwoli na systematyczne wywożenie z firmy taśmy z kopią najważniejszych danych. Bardziej zaawansowane rozwiązania zawierają w sobie kolejne macierze dyskowe, znacznie tańsze od tych wykorzystywanych produkcyjnie, ale oferujące mniejsze wydajności i bezpieczeństwo.

Trzeci element – system archiwizacji – jest nieobowiązkowy i zależy od rodzaju przetwarzanych przez firmę danych oraz stopnia konieczności częstego dostępu do nich. Archiwa, podobnie jak backup, mogą być przechowywane na taśmach (to obecnie najbardziej pojemny nośnik, oferujący kilkaset gigabajtów rzeczywistej pojemności), czasami (chociaż coraz rzadziej) wykorzystywane są także nośniki magnetooptyczne. Zarchiwizowane dane także powinny mieć swoją kopię zapasową wywiezioną poza główne miejsce przechowywania danych.

Dlaczego to tyle kosztuje?

Bardzo ważna jest analiza skutku wystąpienia awarii. O ile jednodniowy przestój w małej firmie graficznej nie spowoduje ogromnych strat, to np. w banku jeśli nie doprowadzi do bankructwa, na pewno do bardzo dużych problemów (utrata płynności finansowej, wiarygodności w oczach klientów, odszkodowania, nagonka mediów itd.). Stąd największe instytucje zmuszone są do wdrożenia rozwiązań wykonywania kopii bezpieczeństwa w miejscu znacznie oddalonym od miejsca przechowywania oryginalnych danych, a infrastruktura informatyczna musi umożliwiać w przypadku awarii natychmiastowe przełączenie do ośrodka zapasowego i kontynuowanie działalności stamtąd. Pozostałych firm jednak na to rozwiązanie nie będzie stać i muszą indywidualnie przeliczyć ryzyko strat w wyniku przestoju systemu informatycznego i możliwość poniesienia kosztów, aby tym stratom przeciwdziałać.

Wpływ na cenę mają dwa ważne parametry – RPO i RTO. Pierwszy z nich (Recovery Point Objective) określa moment w przeszłości, w którym po raz ostatni została wykonana kopia danych i do którego będzie można wrócić. Czas ten jest różny i zależy głównie od charakteru działalności – jednym wystarczy kopia sprzed tygodnia, inni zaś potrzebują danych sprzed kilkunastu sekund.

Drugi ważny parametr – Recovery Time Objective określa maksymalny czas po awarii potrzebny do przywrócenia działania aplikacji, systemów i procesów biznesowych. Określając parametr RTO, należy doprowadzić do kompromisu między potencjalnymi stratami a kosztami rozwiązania umożliwiającego jak najszybsze odtworzenie stanu sprzed awarii.

Ważnym czynnikiem jest też tzw. okno backupu, czyli czas, w którym można wykonać kopię bezpieczeństwa, zachowując jej spójność, a zarazem proces tworzenia kopii nie utrudnia pracy użytkownikom systemów. Okno backupu stanowi dość duży problem, bo ilość danych do zabezpieczenia wciąż rośnie, z reguły szybciej niż prędkość technologii umożliwiających zabezpieczenie tych danych. Wcześniej okno backupowe było wyliczane po prostu jako czas przegrania wszystkich danych z twardego dysku serwera na taśmę. Teraz jest to zagadnienie bardziej skomplikowane, obejmujące wiele faz backupu, w tym backup z dysku na dysk i jego późniejszą migrację na taśmy. Pomagają w tym takie technologie, jak wirtualne biblioteki taśmowe czy kopie migawkowe.

Najbezpieczniejszą i najskuteczniejszą metodą wyliczenia czasu potrzebnego do przywrócenia systemu po awarii jest przeprowadzenie kontrolowanej symulacji takiego zdarzenia. Oprócz wyliczenia czasu, symulacja ta pozwoli także na sprawdzenie poprawności przygotowanych przez nas procedur i przygotowania personelu do działań w warunkach stresu, którym niewątpliwie jest awaria systemu informatycznego.

Storage dla każdego

Oferowane dziś na rynku rozwiązania są w stanie zaspokoić potrzeby każdego klienta. Co więcej, są one coraz tańsze. O ile jeszcze kilka lat temu rynek ten był dość mocno podzielony (dla użytkowników prywatnych były twarde dyski w komputerach, dla małych firm – dyski w serwerach lub dołączone do nich macierze dyskowe, a dla firm dużych – pamięci masowe połączone w sieć Storage Area Network), to dziś oferta producentów pozwala precyzyjnie rozwiązać każdy problem związany z przechowywaniem danych.

Jednym z głównych trendów jest popularyzacja pamięci dyskowych podłączanych bezpośrednio do sieci (Network Attached Storage). Rozwiązania te staniały na tyle, że mogą sobie na nie pozwolić nawet prywatni użytkownicy, rozbudowując swoje sieci o setki gigabajtów. Co więcej, serwery NAS do niedawna oferowały tylko możliwość przechowywania plików, a od paru lat, dzięki powstaniu technologii iSCSI, można zapisywać na nich także bloki danych, z którego to systemu korzystają zaawansowane bazy danych (wcześniej blokowy zapis danych umożliwiały tylko horrendalnie drogie sieci Storage Area Network).

Do przewidzenia był spadek zainteresowania wykorzystaniem technologii optycznych w rozwiązaniach pamięci masowych. Pojemnościom płyt CD/DVD zaczęły dorównywać oferowane dziś pamięci flash, a honoru płyt nie uratują także standardy HD DVD i Blu-ray. Rozwiązania te w swej idei były przeznaczone na rynek konsumencki i wszystko wygląda na to, że na nim pozostaną. W systemach pamięci masowych można spotkać magnetooptyczne dyski UDO (o pojemności 30 GB, ostatnio zapowiedziano ich kolejną generację – UDO2 o pojemności 60 GB). Pojemności te dalej trudno porównywać z taśmami, które lada chwila będą miały 1 TB na jednym nośniku. Dysków magnetooptycznych nie ratuje też fakt, że umożliwiały zapis danych z blokadą ich usunięcia lub modyfikacji – najnowsze standardy taśmowe także mają taką funkcjonalność. Jedyną zaletą UDO jest gwarantowana trwałość danych (kilkadziesiąt lat), ale ona także nie jest wystarczającym argumentem. Ze względu na ciągły postęp i modyfikacje urządzeń zapisująco-odczytujących wszystkie dane powinno się przegrywać na nowe nośniki co kilka lat.

Zasady archiwizacji i backupu danych w firmie
  • Backup służy do ochrony danych umieszczonych na serwerze i stacjach roboczych przed awarią systemu. Dane są zapisywane na taśmach magnetycznych w regularnych odstępach czasu, częściowo jako backupy pełne, a czasem uzupełniane tylko danymi, które wcześniej nie zostały „zbackupowane”. Po upływie określonego czasu taśmy są kasowane i przygotowywane do ponownego nagrania. Dane z taśm odtwarzane są tylko w sytuacjach awaryjnych. Każdy pojedynczy plik musi dać się po awarii odtworzyć. Istnieje także możliwość generowania dyskietek startowych i backupowania (lub odtwarzania) nie tylko samych danych, ale i systemu operacyjnego. Backupy są wykonywane według ściśle określonych strategii.
  • Podczas archiwizacji danych napęd taśmowy lub nośnik optyczny można traktować jako uzupełnienie dysku twardego. Liczba danych zapisywanych jednorazowo jest zdecydowanie mniejsza niż w przypadku backupu. Znacznie częściej następuje natomiast odtwarzanie danych. Wymagania stawiane napędom i nośnikom nie są o wiele mniejsze niż w przypadku backupu. Zarchiwizowane dane powinny też być regularnie duplikowane (w ten sposób powstanie kopia zapasowa), by nie doszło do ich utraty, np. w przypadku uszkodzenia nośnika.
  • W prawidłowo zaprojektowanym systemie archiwizacja danych i backup powinny współgrać. Backup umożliwi szybkie przywrócenie serwera lub stacji roboczej do stanu sprzed awarii. Rolę urządzenia do backupu powinien pełnić napęd taśmowy albo zmieniacz lub biblioteka — urządzenia taśmowe automatyzujące backup. Archiwum danych należy przechowywać na zewnętrznych nośnikach. We wszystkich systemach pracę twardych dysków powinna dodatkowo zabezpieczać dyskowa macierz RAID.
W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200