Kopia optymalna

Konsolidacja backupu nie jest zagadnieniem samodzielnym. Trzeba ją rozpatrywać jako jeden z elementów optymalizacji całej architektury IT.

Konsolidacja backupu nie jest zagadnieniem samodzielnym. Trzeba ją rozpatrywać jako jeden z elementów optymalizacji całej architektury IT.

Naturalna ścieżka rozwoju infrastruktury do zarządzania i zabezpieczania danych w firmach jest zgodna z ich generalnym podejściem do inwestowania. W znakomitej większości polskich firm nowe rozwiązania backupowe kupuje się wtedy, gdy absolutnie nic innego nie da się zrobić, by rozwiązać problem. Nie ma w tym nic zdrożnego, poza jednym niuansem: brakiem planowania. Firma rzeczywiście nie wydaje pieniędzy wcześniej niż to konieczne, jednak to co uzyskuje, przestaje z biegiem czasu spełniać oczekiwania.

Przełomowym momentem w myśleniu o backupie jest często dopiero wyjście firmy poza jedną lokalizację. Dotychczasowe procedury i oprogramowanie nie nadają się zazwyczaj do tego, by chronić dane użytkowników w oddziale. Sprawa jest oczywiście szersza i sprowadza się do określenia modelu architektury dla aplikacji. To z niego dopiero powinny wynikać wnioski co do architektury rozwiązania backupowego.

Jakiekolwiek założenia aplikacyjne nie zostałyby przyjęte, jedno wiadomo na pewno: w interesie firmy jest utrzymanie jednolitości infrastruktury backupowej. Po pierwsze dlatego, że dane to zasób zbyt cenny, by zarządzać nim w sposób przypadkowy. Po drugie dlatego, że wykorzystanie kilku różnych rozwiązań backupowych okazuje się z biegiem czasu droższe niż wykorzystanie jednego, spójnego rozwiązania. Po trzecie dlatego, że skonsolidowane rozwiązania backupowe przestały mieć status eksperymentalny.

Najpierw architektura

Architektura aplikacji ma wpływ na rozwiązanie backupowe w tym sensie, że to ona decyduje, czy dane są rozproszone, czy też przechowywane centralnie. Z punktu widzenia backupu idealnie byłoby mieć wszystkie dane w jednym miejscu, by móc je kopiować po szybkich łączach z dowolną częstotliwością. Utrzymanie danych w jednym miejscu wymaga jednak jednolitego dostępu do aplikacji, poczty i usług plikowych. To z kolei wymaga scentralizowanego dostępu do aplikacji, a w kon-sekwencji zakupu rozwiązań terminalowych.

Koszt budowy infrastruktury do dostępu terminalowego jest spory, ale daje firmie długofalowe bezpieczeństwo finansowe związane z unikaniem hybrydowego dostępu do aplikacji, utrzymania drogich łączy, wysokich kosztów zarządzania aplikacjami oraz oczywiście kosztów zarządzania danymi. Nie występuje konieczność zakupu i utrzymania w oddziałach serwera plików, serwera backupowego, zdalnej administracji itd.

Im więcej oddziałów, zwłaszcza mniejszych, tym bardziej architektura terminalowa ułatwia rozsądne zarządzanie i zabezpieczanie danych. W firmach, których oddziały stanowią regionalne biura koordynacyjne dla pracowników pracujących w terenie (budownictwo, sprzedaż ubezpieczeń itd.) lokalny serwer plików, a więc i lokalne rozwiązanie backupowe może okazać się niezbędne. Zastosowanie serwerów terminalowych wciąż jest możliwe i potencjalnie finansowo korzystne. Istnieją jednak inne opcje.

Sieciowe przyspieszenie

W ciągu ostatnich lat powstało wiele rozwiązań, dzięki którym zdalne zarządzanie danymi stało się łatwiejsze i tańsze. Początkowo celem było przyspieszanie komunikacji w sieciach WAN bez konieczności zwiększania nominalnego pasma transmisji. Opracowano nowe, efektywne techniki multipleksacji na poziomie Ethernetu oraz warstwy IP (zwiększanie ilości danych w transmisji w stosunku do liczby nagłówków). Pomysłów na poprawę efektywności transmisji było oczywiście więcej.

W rozwiązaniach optymalizujących sieci WAN powszechne stało się modyfikowanie standardowego podejścia protokołu TCP do potwierdzania dostarczenia danych i ich retransmisji. Mniej popularne, ale również użyteczne, jest dynamiczne wykrywanie wzorców bitowych/blokowych i przesyłanie ich reprezentacji symbolicznych zamiast całych zbiorów. Nie można też nie wspomnieć o sprzętowej akceleracji przetwarzania TCP/IP, by nie zajmował się tym procesor serwera, a także szybko przybierającym na popularności mechanizmom do reduplikacji danych.

Wszystkie te metody zmniejszają opóźnienia i podnoszą obserwowaną sprawność wykorzystania łączy WAN, których przepływność jest podstawową barierą dla rozszerzenia działających w centrali firmy mechanizmów backupowych na oddziały. Technologie to oczywiście jeszcze nie rozwiązania, ale na obecnym etapie wiele z nich zostało inkorporowane w markowych rozwiązaniach do zarządzania pamięciami masowymi i sieciami.

Szyfrowane kłopoty

Firmy mające już sieć oddziałów terenowych starają się zracjonalizować zarządzanie danymi. Większość z nich już dawno zastosowała "innowację" polegającą na ujednoliceniu oprogramowania backupowego, uproszczenie i ujednolicenie procedur backupowych. Dzięki temu backup - nawet obejmujący wiele różnych platform systemowych - może dziś wykonać osoba z podstawowym przygotowaniem informatycznym. Te proste środki niektórym przestają wystarczać, ponieważ w dziedzinie zarządzania danymi problemów wciąż przybywa.

Klasyczny backup rozproszony coraz bardziej traci na atrakcyjności. Jeden z podstawowych problemów, z jakim zmagać się muszą firmy wykonujące kopie bezpieczeństwa w rozproszeniu, jest bezpieczeństwo danych zapisanych na kopiach. Dopóki dane są przechowywane w systemach z ochroną dostępu, można je uznać za bezpieczne, lecz gdy znajdą się na nośniku, który można schować do kieszeni, powstaje całkiem realne ryzyko. Wciąż niewiele firm wdrożyło rozwiązania i procedury, które przewidują wynoszenie taśm do skrytek bankowych przez osoby niebędące pracownikami oddziału.

Jednym ze sposobów na ominięcie problemu z bezpieczeństwem kopii wykonywanych lokalnie na nośniki wymienne jest szyfrowanie danych. Rozwiązania tego rodzaju mają sens i są skuteczne tylko wtedy, gdy działają w pełni automatycznie. Tu jednak pojawia się więcej niuansów, np. czas odtwarzania, który tym dłuższy, im więcej jest danych do deszyfrowania. Jeśli danych jest dużo (wybiórcze szyfrowanie to raczej zły pomysł), konieczne jest sięgnięcie po szyfrowanie z akceleracją sprzętową, co jednak kosztuje. Jest też kwestia zarządzania kluczami szyfrującymi - wcale nie błaha.

Tanio i solidnie

Rozwiązanie do skonsolidowanego backupu można zaprojektować jeszcze inaczej. Jeżeli firma dysponuje łączami WAN o rozsądnej przepływności, tzn. gdy po uwzględnieniu wydajnego dostępu do aplikacji w centrali w sieci WAN pozostaje dostatecznie duży margines pasma na usługi plikowe, można pomyśleć o wykorzystaniu synchronizacji systemów plików między oddziałami i centralą. Synchronizacja może odbywać się w czasie rzeczywistym, lub też w nocy - wszystko jest kwestią potrzeb i możliwości.

Firmy, którym zależy na natychmiastowej synchronizacji, powinny skorzystać z gotowych rozwiązań. Większość z nich przechowuje dane lokalnie w oddziale, sprawdzając w momencie dostępu do pliku, czy w centrali dostępna jest jego nowsza wersja. Jeśli tak jest, z centralnego serwera pobierana jest nowa wersja lub nawet tylko dane różnicowe. Po zakończeniu pacy z plikiem jest on synchronizowany z centralą, dzięki czemu można wykonać centralny, skonsolidowany backup aktualnych wersji danych ze wszystkich oddziałów.

Inną formą zabezpieczania danych w trybie ciągłym są rozwiązania typu CDP (Continuous Data Protection), działające na poziomie macierzy dyskowych. Ciągła replikacja danych z macierzy w oddziale do macierzy centrali ma jednak sens głównie w przypadku dużych oddziałów, w których jednocześnie pracuje wielu użytkowników. Kosztów rozwiązań CDP w przypadku mniejszych oddziałów raczej nie da się usprawiedliwić.

Dla pomysłowych

Przy odrobinie pomysłowości i zdolności do realistycznej oceny zagrożeń można się pokusić o samodzielne zbudowanie rozwiązania do konsolidacji backupu. Jeśli rozwiązanie ma działać w trybie zbliżonym do czasu rzeczywistego, można w tym celu wykorzystać usługi replikacyjne systemu Windows Server 2003 (DFS). W przypadku systemów Unix/Linux można posłużyć się narzędziami do różnicowego kopiowania plików połączonych ze skryptami i/lub usługami http lub ftp.

Jeśli serwer plików w oddziale jest dostatecznie wydajny (obecnie nie ma z tym większego problemu), dane z oddziałów do centrali mogą być kopiowane co godzinę. Z punktu widzenia bieżącego zabezpieczania danych to w zupełności wystarczy. Jeśli ważniejszym celem od zabezpieczenia danych jest jak najszybsze ponowne udostępnienie ich użytkownikom w oddziale, można rozważyć replikację lokalną połączoną z replikacją zdalną.

W takim scenariuszu w oddziale muszą znaleźć się dwa niezależne od siebie serwery. Dane z głównego są replikowane na drugi z dużą częstotliwością, po czym co określony czas drugi serwer replikuje je do centrali. Korzyść wynikająca z braku konieczności wykonywania kopii zapasowych jest potencjalnie większa, niż koszty wynikające z zakupu drugiego serwera, który nie musi przecież być aż tak wydajny jak serwer podstawowy. W ten sposób można osiągnąć optimum zabezpieczenia przy relatywnie niskich wydatkach inwestycyjnych i związanych z późniejszym utrzymaniem.

Trzeba patrzeć na całość

Nie ma jednej, najlepszej metody na zaprojektowanie rozwiązania do konsolidacji backupu. Warto o tym pamiętać, formułując zapytana ofertowe i analizując nadesłane przez dostawców propozycje.

Podstawowym filtrem przy analizie rozwiązań powinno być kryterium stopnia ich dopasowania do działającej (lub planowanej) architektury informatycznej. Rozwiązanie doskonale działające w jednej architekturze, w innej może okazać się kosztowną fanaberią, którą można zastąpić prostym, a wciąż skutecznym rozwiązaniem za znacznie mniejsze pieniądze.

Bywają też sytuacje odwrotne: to,co działa w małej skali, niekoniecznie sprawdzi się w dużej, czy to pod względem wydajności, czy ilości pracy, czy też kosztów licencyjnych i innych kosztów pośrednich. Myśląc o konsolidacji backupu trzeba zatem mieć pomysł na całą infrastrukturę IT, nie zaś tylko jej wąski wycinek, jakim jest kopiowanie danychlub wydajność sieci WAN.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200