Wirtualizacja i wysoka dostępność systemu

Czas przywrócenia aplikacji do pracy zależy od implementacji, ale zwykle zajmuje tylko kilka minut. Sesje i dane, które nie zostały zapisane w pamięci masowej, są utracone, a z zewnątrz cały proces wygląda tak, jak ponowne uruchomienie serwera fizycznego po krótkiej niespodziewanej przerwie w jego zasilaniu.

W porównaniu z klasycznymi rozwiązaniami HA wykorzystującymi klastry serwerów fizycznych czas reakcji na awarię w systemie opartym na wirtualizacji z reguły jest znacznie dłuższy i wynosi kilka minut. Ale możliwość jego zastosowania do zabezpieczenia wysokiej dostępności praktycznie każdej aplikacji, która może pracować w systemie zwirtualizowanym, jest zaletą, często równoważącą te kilka minut przerwy.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT

Jeśli jednak wymagania w zakresie krótkiego czasu przerwy w dostępności systemu są wyższe, to również w środowiskach zwirtualizowanych można wykorzystać specjalne rozwiązania, takie jak VMware FT (Fault Tolerance). Funkcja ta utrzymuje zsynchronizowany, pełny obraz pamięci w dwóch wirtualnych serwerach, z których zazwyczaj tylko jeden jest aktywny. W razie jego awarii, serwer zapasowy może praktycznie natychmiast przejąć jego rolę.

VMware FT nie jest jednak tak uniwersalny, jak funkcje VMware HA. Ograniczenia dotyczą specyfikacji maszyn wirtualnych, które są obsługiwane, dopuszczalnego obciążenia wirtualnych hostów oraz listy zgodnego sprzętu.

Awaria centrum danych

Prezentowane wyżej mechanizmy nie są rozwiązaniami zabezpieczającymi przed awarią dotykającą kompletnej infrastruktury centrum danych, np. w wypadku powodzi, pożaru lub innych ekstremalnych wydarzeń. Ich prawdopodobieństwo jest jednak z reguły bardzo małe. W praktyce, przyczynami najpoważniejszych awarii w centrach danych są krytycznie duże przepięcia w sieci zasilającej, wandalizm lub katastrofalna awaria sieci SAN. W teorii, ta ostatnia przyczyna jest znacznie mniej istotna od pozostałych wymienionych, ale większość firm umieszcza ją w tej kategorii, ponieważ dostępność pamięci masowej ma znaczenie krytyczne dla działania systemu IT, a budowa zapasowej sieci SAN jest rozwiązaniem kosztownym i dlatego bardzo rzadko stosowanym.

Najczęściej wykorzystywaną metodą zabezpieczenia się przed awarią centrum danych jest inwestycja w centrum zapasowe, znajdujące się w innej, odległej lokalizacji. Zwykle takie centrum jest określane przez specjalistów jako hot data center (gorące) lub warm data center (ciepłe)...

Różnica między nimi generalnie polega na tym, że "centrum gorące" jest pełną, na bieżąco synchronizowaną repliką infrastruktury wykorzystywanej w podstawowym centrum danych. Natomiast "centrum ciepłe" ma mniejsze zasoby, które z reguły są przeznaczone tylko do uruchamiania niektórych krytycznych aplikacji, a często jest też pozbawione własnych, wewnętrznych funkcji zabezpieczających przed awarią.

W tego typu systemach zastosowanie technologii wirtualizacyjnych najczęściej zmniejsza wymagania sprzętowe i programowe oraz zwiększa efektywność, co w praktyce oznacza, że nie tylko duże korporacje, ale również wiele mniejszych firm może sobie obecnie pozwolić na utworzenie i utrzymanie takiego systemu.

Największym wyzwaniem przy budowie zapasowego centrum danych jest konieczność zapewnienia efektywnej replikacji danych między dwoma odległymi ośrodkami. Tutaj wirtualizacja nie jest w stanie pomóc, choć może ułatwić testowanie systemu oraz przyspieszyć procesy odtwarzania danych po awarii. Większość dostawców oprogramowania wirtualizacyjnego obsługę zadań związanych z transmisją danych pozostawia innym, niezależnym producentom sprzętu i aplikacji.

Dwie podstawowe i najczęściej wykorzystywane metody to replikacja kompletnych sieci pamięci masowych określana jako SAN-to-SAN lub też zastosowanie narzędzi do replikacji maszyn wirtualnych. W drugim przypadku, w praktyce jest to takie samo oprogramowanie, jak wymienione wcześniej narzędzia do replikacji lokalnej, które wykonują replikację danych, stosując łącza WAN.


TOP 200