Przetwarzanie bez wytchnienia

Tolerancja dla utraty danych, a nawet dla chwilowego przestoju aplikacji zmniejsza się z roku na rok. Szybkie odtwarzanie danych i całych środowisk staje się powoli wymogiem powszechnym.

Tolerancja dla utraty danych, a nawet dla chwilowego przestoju aplikacji zmniejsza się z roku na rok. Szybkie odtwarzanie danych i całych środowisk staje się powoli wymogiem powszechnym.

Myślenie o zabezpieczaniu firmy przed skutkami niedomagania infrastruktury czy też niedostępności aplikacji/danych ewoluuje. Dzieje się tak w pierwszym rzędzie dlatego, że rośnie uzależnienie firm od sprawnego działania informatyki. Coś, co kiedyś było niewygodą, dziś pretenduje do bycia katastrofą. Po wtóre dlatego, że informatyka coraz bardziej staje się ciągiem wzajemnie zależnych, automatycznych procesów. Awaria jednego z elementów składowych zwiększa ryzyko lub unieruchamia pozostałe.

Po trzecie, na skutek obejmowania informatyką coraz większych obszarów działalności firm, rośnie liczba zagrożeń, które trzeba brać pod uwagę. Nie można też pominąć faktu, że firmy gromadzą coraz więcej danych do bieżącego wykorzystania - i to wcale nie w centralnym ośrodku przetwarzania, ale w rozproszeniu: w oddziałach, na komputerach i innych urządzeniach wykorzystywanych przez pracowników będących w ciągłym ruchu.

Tolerancji coraz mniej

Najlepszym przykładem spadku tolerancji dla wszelkich perturbacji skutkujących niedostępnością usług lub aplikacji jest stosunek użytkowników do poczty elektronicznej. W firmie może nie działać wiele innych aplikacji, ale poczta działać po prostu musi. Tym bardziej, że serwery pocztowe przejęły na siebie obsługę ruchu faksowego - samodzielne urządzenia faksujące są obecnie kupowane głównie przez małe firmy, zaś średnie i większe powszechnie używają serwerów faksowych integrujących się z serwerami pocztowymi.

W wyniku rosnących oczekiwań odnośnie do dostępności coraz powszechniejsze jest wdrażanie serwerów pocztowych i innych ważnych aplikacji w układach klastrowych. Wdrażane są zarówno klastry działające na poziomie systemu operacyjnego, jak i rozwiązania działające na poziomie aplikacji, w szczególności replikacyjne.

Nie można nie docenić postępu, jaki dokonał się ostatnio w dziedzinie zabezpieczania ciągłości działania środowisk aplikacyjnych, dzięki czemu drobne awarie wynikające np. z błędów pamięci fizycznej czy błędów w kodzie aplikacji przestały stanowić ryzyko długiego przestoju. Rozwiązania HA dla serwerów aplikacji J2EE, jak również środowiska wirtualizacyjne umożliwiają - poza innymi korzyściami - uzyskanie poprawy dostępności.

Równolegle firmy decydują się wdrażać systemy sprzętowe, których pierwszoplanowym zadaniem jest nie tyle zachowanie dostępności usługi, ile ochrona danych. To właśnie ochrona danych urasta obecnie do najważniejszego wyzwania. Uruchomienie aplikacji o konfiguracji identycznej jak w aplikacji, która uległa awarii, nie jest wielkim wyczynem. Problemem numer jeden jest zapewnienie drugiej kopii aplikacji dostępu do aktualnych, a przy tym spójnych danych - czy to lokalnie, czy kilkaset kilometrów dalej.

Microsoft nie odpuści

Takie podejście do zabezpieczania systemów informatycznych ma swoje implikacje dla funkcjonalności najnowszych rozwiązań w tej dziedzinie. Pod hasłem CDP (Continuous Data Protection) można znaleźć rozwiązania o różnym stopniu integracji i specjalizacji, niemniej nie można powiedzieć, by jakiś obszar nie doczekał się stosownego narzędzia. Pocieszający jest fakt, że za CDP wzięły się nie tylko firmy specjalistyczne, ale także Microsoft - jego podejście i produkty będą - jak zawsze - wyznaczać owo minimum funkcjonalne, które wypada zaoferować.

Microsoft wchodzi na rynek CDP z kilkoma uzupełniającymi się produktami. Na poziomie systemu operacyjnego Windows Server 2003 działają usługi VSS. Ich zadaniem jest rejestrowanie zmian w danych, by w razie potrzeby, np. po awarii, można było łatwo ustalić moment, w którym były one spójne i w ten sposób minimalizować przestój wynikający z czasu potrzebnego na odtworzenie danych nadających się do normalnego wykorzystania. Oprócz tego, Microsoft wprowadza właśnie na rynek System Center Data Protection Manager (DPM) - rozwiązanie, które za pośrednictwem modułów klienckich instalowanych na serwerach replikuje w trybie ciągłym zmiany zachodzące w plikach do centralnego serwera.

DPM nie jest rozwiązaniem, które zapewnia szefom informatyki spokojny sen - jego funkcjonalność (na razie - jak mówią przedstawiciele Microsoftu) nie obejmuje automatycznego przywracania serwera do stanu sprzed awarii. Poza tym rozwiązanie współpracuje jedynie z serwerami plików Windows. Wkrótce możliwa będzie także współpraca z SQL Server i Exchange, ale trudno uznać, że to funkcjonalność wystarczająca. Duzi klienci spodziewają się możliwości zabezpieczania systemów plików i aplikacji działających w środowiskach Unix i Linux.

Na poziomie aplikacji Microsoft zapewnia funkcjonalność replikowania logów pomiędzy serwerami SQL Server, a także Exchange. Mechanizm log shipping kopiuje zmiany zachodzące w bazie źródłowej, przenosi je na serwer zapasowy, a następnie wykonuje na nim te same czynności. W wyniku tego stan danych na serwerze zapasowym jest w każdym momencie prawie identyczny ze stanem danych na serwerze głównym. Takie rozwiązanie sprawdza się zwłaszcza wtedy, gdy replikacja odbywa się po sieci WAN.

Ostrożnie z ceną

To, że rozwiązanie może odtwarzać nie tylko dane, ale i aplikacje, może wydawać się istotne, ale w praktyce znaczenie tego faktu zależy od przyjętej przez firmę strategii zabezpieczania środowiska. Jeśli w zdalnej lokalizacji dostępne jest wystarczająco dużo sprzętu, replikować można jedynie dane. Jeśli nie, można w zdalnej lokalizacji utrzymywać serwer, na którym w razie awarii aplikacji zainstalowana zostanie (np. przez wgranie odpowiedniego obrazu na odpowiednią partycję) jej kopia i automatycznie podłączona do spójnego zestawu danych.

WAFS też pomaga

Pomysłem na zabezpieczanie danych i aplikacji jest koncepcja leżąca u podstaw rozwiązań WAFS, czyli rozproszonych usług systemów plików, obecnych w ofercie wszystkich liczących się dostawców infrastruktury dla ośrodków przetwarzania (Brocade, Cisco, EMC, Novell i wielu innych). Ich podstawową funkcją jest umożliwienie pracownikom w oddziałach wygodnej pracy z plikami bez ponoszenia dodatkowych kosztów na zabezpieczanie danych w terenie. Przy okazji rozwiązania WAFS spełniają jednak dodatkową funkcję zabezpieczającą - gdy repozytorium danych w oddziale ulegnie awarii, użytkownicy mogą połączyć się zdalnie z usługą w centrali, która posiada ostatnią spójną kopię danych. Mogą więc kontynuować pracę bez zbędnego czekania.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200