Ciągłość działania - sposoby fizyczne i wirtualne

"Ośrodek ciepły" jest okrojoną wersją pierwotnego centrum danych - często z minimalnym zestawem zasobów obliczeniowych, które mogą pracować tylko z najbardziej krytycznym podzbiorem danych produkcyjnego obciążenia centrum podstawowego. Ponadto większość ciepłych ośrodków nie ma możliwości wewnętrznego obchodzenia uszkodzeń takich, jakie ma ośrodek pierwotny.

Użycie wirtualizacji w połączeniu z ciepłym lub gorącym zapasowym centrum danych, może być bardzo efektywne, głównie dlatego, że zmniejsza wymagania na sprzęt i oprogramowanie. Wirtualizacja daje tu możliwość istotnego zwiększenia liczby przedsiębiorstw, które mogą pozwolić sobie na zapasowe centrum danych.

Największe wyzwanie związane z wdrożeniem zapasowego centrum danych to replikacja danych z jednego ośrodka do drugiego. Sama wirtualizacja nie może tu pomóc (chociaż potencjalnie może przyspieszyć proces obchodzenia uszkodzeń i ułatwić testowanie). Większość dostawców oprogramowania wirtualizacji ceduje zadanie przemieszczania danych na oprogramowanie lub sprzęt dostawców niezależnych.

Można tu skorzystać z dwóch różnych podejść: użycie replikacji SAN-SAN lub narzędzi replikacji maszyn wirtualnych dostawców niezależnych. Wiele tych samych narzędzi replikacji hosta dostawców niezależnych używanych lokalnie może być także użyta do replikowania przez WAN pamięci jednego hosta wirtualizacji do hosta wtórnego w ośrodku rezerwowym.

Większość przedsiębiorstw rozważających budowę redundantnego centrum danych raczej zdecyduje się na wdrożenie wtórnej SAN z replikacją SAN-SAN na poziomie bloków. Takie rozwiązanie zasadniczo jest bardzo niezawodne i łatwo skalowalne, ale też podwaja koszty inwestycji w SAN: wymaga zakupu dodatkowego sprzętu, a wielu dostawców pobiera opłaty licencyjne za oprogramowanie służące do replikacji.

Należy też doliczyć koszt pasma potrzebnego do utrzymania synchronizacji całego produkcyjnego centrum danych z odległym centrum danych. Jeżeli oba ośrodki znajdują się w zasięgu działania niedrogiego operatora sieci światłowodowej, pasmo może nie być tak dużym kosztem. Jeżeli jednak rozlokowano je w obszarze pozamiejskim, gdzie dostępna jest tylko opcja łącza dzierżawionego, koszty mogą okazać się zniechęcające (do pewnego stopnia może je ograniczyć użycie akceleracji WAN). Trzeba również wziąć pod uwagę obciążenia, jakie replikacja wnosi do infrastruktury pamięci, oraz wpływ tego na wydajność transakcyjną.

Replikacja SAN może być synchroniczna lub asynchroniczna. Pierwsza z nich utrzymuje dwie infrastruktury pamięci w stanie podobnym - transakcje zapisu do podstawowej SAN nie są zatwierdzane dopóki zapasowa SAN nie odbierze i nie zapisze na dysku tego samego. Synchroniczna replikacja z natury wymaga bardzo małego opóźnienia transmisji między ośrodkami, co generalnie oznacza konieczność zastosowania światłowodów na ograniczonym dystansie.

Takie wymagania sprawiają, że - z wyjątkiem największych przedsiębiorstw -firmy decydują się na replikację asynchroniczną. W tym przypadku - zamiast ciągłej i pełnej synchronizacji - pamięci SAN synchronizują się nawzajem okresowo. Choć uzyskujemy tu niższe koszty, to jednak pojawia się ryzyko, że w razie awarii redundantne centrum danych może nie reprezentować stanu centrum podstawowego sprzed niedługiego czasu.

Ciągłość działania z chmury

Chmura publiczna może być realną opcją zarówno do przywracania po katastrofie, jak i zachowania ciągłości działania. W projektach DR, backup w chmurach może zastąpić nośniki taśmowe i replikacje NAS, zapewniając ochronę typu offsite. Jednak zarządzanie bezpieczeństwem danych przy użyciu backupu w chmurze i zapewnienie, że dane te będą szybko i łatwo dostarczone do ośrodka, może okazać się wyzwaniem.

Chmura publiczna może także spełniać rolę gorącego centrum danych odtwarzania. Cała infrastruktura serwera może być chroniona przez pamięć i zasoby obliczeniowe w chmurze.

Decyzja o wyborze chmury, zależy od różnych czynników, np. typu zasobów IT jakie ma organizacja, doświadczenia z korzystania z fundamentalnie odmiennej natury usług cloud computing, dostępności odpowiedniego pasma do transmisji danych oraz możliwości spełnienia wymogów ochrony danych.


TOP 200