Wirtualizacja chroni przed skutkami awarii

Wirtualizacja i replikacja to technologie zdolne zabezpieczyć dane przed utratą wskutek awarii. Mogą też zapewnić ciągłość pracy i zdolność nieprzerwanego świadczenia usług.

Odzyskiwanie danych w chmurze

Przed podjęciem decyzji o wyborze usługi odzyskiwania danych opartej na chmurze obliczeniowej warto pamiętać o trzech rzeczach:

- Próby przeprowadzać należy na aplikacjach, co do których mamy pewność, że dobrze działają w środowiskach wirtualnych i prywatnych chmurach obliczeniowych i nie służą do obsługi najbardziej krytycznych systemów. Daje to czas na wypróbowanie różnych metod i dostawców.

- Większość dostawców usług opartych na chmurze w podpisywanych umowach SLA (Service Level Agreement) wyraźnie znosi własną odpowiedzialność za straty spowodowane ewentualną niemożliwością odzyskania danych po awarii.

- Zrozumienie współzależności pomiędzy aplikacjami i usługami udostępnionymi w chmurze a tymi hostowanymi w tradycyjnym centrum przetwarzania danych ułatwia właściwe przetestowanie odzyskiwania danych w modelu cloud.

Źródło: Forrester Research

Stara maksyma mówi, że lepiej zapobiegać, niż leczyć. Jest ona prawdziwa także w odniesieniu do ciągłości działania organizacji. Mario Leone, CIO firmy Ingram Micro, nie myśli o tym, ile pieniędzy będzie musiał wydać po ewentualnej krytycznej awarii na procedury i procesy związane ze wznowieniem lub utrzymaniem całej infrastruktury technicznej. A to dlatego, że światowy dystrybutor produktów IT wcześniej zabezpieczył się przed taką ewentualnością. W szersze cele biznesowe firmy wpisane zostały wymagania techniczne dotyczące przywracania systemów po awarii. Podobne zapisy znalazły się także w umowach SLA (Service Level Agreement) z 15 tys. użytkowników.

Od 2010 r. Ingram Micro korzysta z usług dotyczących planowania i obsługi disaster recovery (czyli przywrócenia działalności firmy po całkowitej utracie danych), przy zastosowaniu hybrydowej chmury opartej na własnym sprzęcie usytuowanym w centrach kolokacji w Chicago, we Frankfurcie i w Singapurze. Zamiast płacić za sprzęt dedykowany odzyskiwaniu danych, którego głównym zadaniem jest oczekiwanie na wystąpienie poważnej awarii, firma używa wirtualizacji do przenoszenia obciążeń z niewłaściwie działającego serwera na taki, którego obłożenie pracą jest mniej krytyczne.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT

To tylko jeden z przykładów rysującej się w działach IT tendencji. Polega ona na wykorzystywaniu wirtualizacji i replikacji do uczynienia z disaster recovery kolejnej usługi, bazującej czasami na tych samych serwerach, sieciach i pamięciach masowych, które obsługują składanie zamówień, pocztę, tworzenie aplikacji czy inne usługi. Zmiany mają na celu zapewnienie jak najlepszych warunków funkcjonowania biznesu, który wymaga ochrony nie tylko przed rzadkimi katastrofami, ale także przed codziennymi ludzkim błędami czy awarią sprzętu. Niektóre organizacje zrezygnowały z dedykowanych systemów odzyskiwania poawaryjnego, przenosząc ich zadania na serwery badawcze i rozwojowe w okresie przestojów lub odkładając na później mniej istotne prace.

Większe wymagania, większe ryzyko

Najważniejsze zmiany w odzyskiwaniu poawaryjnym napędzane są z jednej strony stałą presją na cięcie kosztów przy zachowaniu ciągłości pracy, a z drugiej - możliwościami elastycznego reagowania, jakie zapewnia wirtualizacja serwerów, pamięci masowej i sieci. Również ostatnia fala klęsk żywiołowych, w połączeniu z zaostrzonymi wymogami regulacyjnymi, spowodowały, że disaster recovery stało się tematem zainteresowania w firmach.

Badania firmy Forrester Research dowiodły, że budżety przedsiębiorstw przeznaczone na ewentualne procedury naprawcze na wypadek awarii tkwią stale na poziomie 6% nakładów na IT i budżetów operacyjnych. Wciąż powiększa się lista kluczowych usług, które wymagają ochrony. Status krytycznych, obok typowo biznesowych aplikacji, z których najczęściej wymienia się ERP i oprogramowanie służące do składania zamówień, zyskują narzędzia komunikacyjne, takie jak VoIP czy poczta. Co więcej, niezbędne okazuje się zapewnienie ciągłości pracy nie tylko po wystąpieniu poważnych awarii, ale także w przypadku drobniejszych, lokalnych problemów. Wiele firm chciałoby mieć możliwość szybkiego odzyskania tylko jednego pliku czy obiektu, zamiast całego systemu.

Wirtualizacja niesie pomoc

Poprzez oddzielenie wirtualnych serwerów, sieci i zasobów storage od fizycznego sprzętu użytkownicy dostają znacznie więcej możliwości wyboru strategii disaster recovery. Sam proces usuwania skutków awarii także się zmienia za sprawą szybkiego i łatwego w obsłudze oprogramowania replikującego, które kopiuje dane pomiędzy podstawowymi a zapasowymi lokalizacjami w czasie zbliżonym do rzeczywistego. Oprogramowanie dostępne jest w ofercie wielu dostawców.

Aby pomyślnie przywrócić usługi biznesowe, takie jak poczta czy obsługa zamówień, dział IT musi odzyskać serwer aplikacji wraz ze wszystkimi powiązanymi z nim elementami (w tym serwer Active Directory zawierający informacje o użytkowniku lub bazę danych przechowującą rekordy inwentaryzacji). Na dodatek musi tego dokonać w odpowiedniej kolejności. Wypracowanie rozwiązań w tym zakresie jest obecnie głównym obszarem zainteresowania dostawców technologii.

Jak zdobyć fundusze

Często jedynym sposobem na zdobycie funduszy na systemy disaster recovery jest pokazanie, że są one czymś więcej niż tylko gwarancją bezpieczeństwa i że są w stanie na siebie zarabiać. Dla przykładu, firma Strand wykorzystuje oprogramowanie FalconStor CDP do replikacji około 50 TB danych i 25 wirtualnych serwerów pomiędzy zdalnymi biurami a centralą. Jest to nie tylko prostsze i mniej kosztowe niż wykorzystanie kolokacji serwerów, ale także korzystniejsze dla pracowników. Dzięki większej przepustowości potrzebnej do replikacji mają oni łatwiejszy dostęp do wideokonferencji i możliwości dzielenia się skomplikowanymi dokumentami technicznymi.

Większa przepustowość pozwala również tworzyć kopie migawkowe co godzinę. W znaczący sposób ułatwia to odzyskiwanie plików, które trwa od 3 do 5 minut. W innej sytuacji trwałoby to kilka godzin, obciążając firmę dodatkowymi kosztami, na przykład pracy zatrudnionych przy tym inżynierów. Możliwość tworzenia kopii migawkowych pozwala uzasadnić koszty infrastruktury disaster recovery nawet bez wystąpienia poważnej awarii.

Disaster recovery w chmurze? Nie tak szybko

Niektórzy dostawcy twierdzą, że usługa odzyskiwania danych w chmurze przyniesie małym i średnim przedsiębiorstwom korzyści znacznie większe niż tylko tworzenie kopii zapasowych. Jak dotąd, firm z tego sektora nie było stać na podobne rozwiązania. Wielu ekspertów ds. bezpieczeństwa utrzymuje, że nawet środowiska chmury publicznej, w których wielu klientów dzieli ten sam sprzęt, mogą być odpowiednio zabezpieczone.

Mimo tak dobrych perspektyw, usługa disaster recovery w chmurze nie cieszy się popularnością. Jak pokazały badania firmy Forrester Research, pod koniec 2011 r. tylko 11% dużych przedsiębiorstw i 9% małych oraz średnich firm zdecydowało się zaadaptować odzyskiwanie danych jako usługę. Z kolei aż 35% dużych firm i 41% małych stwierdziło, że było zainteresowanych tym rozwiązaniem, ale nie miało planów jego wdrożenia.

Uwaga na systemy i koszty

Mimo różnych zachęt, tylko niewielka część przedsiębiorstw korzysta z chmury dla systemów o krytycznym znaczeniu. Do odzyskiwania danych w chmurze nie nadają się aplikacje opierające się na starszych platformach, których większość dostawców już nie oferuje. Podobnie jest z dużymi bazami danych, które w chmurze nie działają dobrze. Użytkownicy muszą uważać również na ukryte koszty licencji oprogramowania. Niektórzy dostawcy usług lub technologii żądają bowiem opłat za oprogramowanie znajdujące się na niewykorzystanych, zdalnych maszynach wirtualnych lub systemach rezerwowych wykorzystywanych do odzyskiwania poawaryjnego. Koszty te mogą być bardzo wysokie.

Firmy doradcze Gartner i Forrester ostrzegają też, że większość dostawców usługi odzyskiwania danych w chmurze zwróci jedynie część opłat wniesionych przez klienta, jeśli przywracanie danych się nie powiedzie. W żadnym przypadku taka refundacja nie zrekompensuje utraty dochodów, którą takie zdarzenie z pewnością wywoła. Niemiłym zaskoczeniem może być także koszt przepustowości, jaka wymagana jest do szybkiego przywrócenia struktury maszyn wirtualnych i danych z chmury.

Gdy liczy się czas

Poprawa wydajności systemów replikacji i technologii im pokrewnych (takich jak narzędzia do zapisywania kopii migawkowych) oraz dostosowanie ich do skróconych czasów odzyskiwania sprawności po awarii z użyciem wirtualizacji stało się kluczowym wyzwaniem dla producentów. Oto przykładowe rozwiązania oferowane przez dostawców:

- Actifio Protection and Availability Storage (PAS) - platforma pozwala użytkownikom na wykonanie jednorazowego transferu danych do zdalnej lokalizacji, a następnie wysyłanie jedynie zmienionych danych przy wykorzystaniu mechanizmu deduplikacji. Nie tylko zmniejsza to wymagania co do przepustowości, ale i eliminuje potrzebę tworzenia pełnych kopii zapasowych.

Rozproszony, obiektowy system plików w PAS zawiera informacje o każdym bloku przechowywanych danych, co ułatwia znalezienie i ponowne użycie danych dla celów innych niż disaster recovery, takich jak: testy, rozwój aplikacji czy zgodność z regulacjami prawnymi.

- FalconStor CDP (Continuous Data Protector) - ma na celu przyspieszenie procesu odzyskiwania danych poprzez zagwarantowanie, że najświeższe kopie migawkowe są kompletne. Eliminuje to potrzebę brania pod uwagę, przed odzyskaniem danych, przyrostowych zmian, jakie wystąpiły od momentu utworzenia początkowej kopii zapasowej. Oszczędność czasu jest w tym przypadku niepodważalna.

- Asigra Cloud Backup - eliminuje konieczność posiadania fizycznego sprzętu dedykowanego odzyskiwaniu danych, automatycznie tworząc kopie zapasowe maszyn wirtualnych do środowisk wirtualizowanych. Umożliwia takie ich skalowanie w środowisku rezerwowym, by mogły przejąć obciążenie produkcyjne. Dzięki automatycznemu tworzeniu nowych serwerów i aprowizacji pamięci masowej możliwe jest skrócenie czasu przywracania z godzin do minut.

- Egenera PAN (Processing Area Network) Manager - wirtualizuje połączenia pomiędzy fizycznymi i wirtualnymi hostami do sieci klienta lub zasobów pamięci masowej, przyspieszając tym samym proces odzyskiwania sprawności. Ułatwia to tworzenie nie tylko maszyn wirtualnych, ale także połączeń sieciowych sieci LAN i SAN, które są niezbędne do ich właściwej pracy. Dodatkowo platforma potrafi automatycznie wykryć wszelkie błędy w serwerach produkcyjnych i przenieść je do środowiska odzyskiwania, dokładnie w takim stanie, jak były wcześniej, z takim samym adresem sprzętowym MAC i tymi samymi zasobami.

- Dell Compellent Live Volume - uruchamia fizyczny serwer lub maszynę wirtualną, która służyć ma do dzielenia wirtualnej pojemności wewnątrz sieci SAN Dell Compellent Storage Center. Półsynchroniczna konfiguracja pozwala na stały dostęp do woluminów rezerwowych i jednostek LUN, umożliwiając przenoszenie danych bliżej użytkowników.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200