Przepis na udaną wirtualizację

5. Posiadanie kompetencji w zakresie wirtualizacji

Wdrożenie całego projektu wirtualizacji warto powierzyć firmie o sprawdzonej marce, z referencjami poprawnie wykonanych wdrożeń oraz zespołem wykwalifikowanych inżynierów, którzy będą w stanie sprostać zadaniu. Na rynku brakuje specjalistów z szerokimi kompetencjami w dziedzinie wirtualizacji. Technologia wirtualizacji jest koncepcyjnie prosta, ale jej planowanie, projektowanie, wdrażanie i utrzymywanie wymaga wysokich kompetencji.

W zależności od wybranego dostawcy, poszerzenie umiejętności załogi IT w dziedzinie wirtualizacji jest krokiem koniecznym w celu zapewnienia końcowego sukcesu projektu. Dla jego dobra warto również pogłębić wiedzę w takich dziedzinach, jak administrowanie serwerami i siecią LAN, sieciami SAN/NAS, systemem tworzenia kopii zapasowych oraz przywracania danych po katastrofie.

Czołowi gracze (VMware, Citrix, Microsoft) oferują certyfikacyjne programy szkoleniowe z zakresu zarządzania oferowanymi przez siebie technologiami wirtualizacyjnymi. Koszt takiego autoryzowanego szkolenia to wydatek kilku tysięcy złotych na osobę. Warto jednak zgłosić się po dofinansowanie takiego szkolenia ze środków unijnych, w ramach programów podnoszenia kompetencji pracowniczych. Po zdobyciu wiedzy z zakresu obsługi środowiska wirtualnego dobrze byłoby przekazać ją pozostałym członkom zespołu. Załoga lepiej zorientowana, czym jest i jak działa wirtualizacja, to potencjalnie mniej błędów ludzkich przy obsłudze i problemów z tego wynikających.

6. Zapewnienie współdzielonych zasobów SAN/NAS oraz LAN

Przepis na udaną wirtualizację
Możliwe jest wdrożenie wirtualnej infrastruktury na lokalnej przestrzeni dyskowej serwerów, jednak aby w pełni wykorzystać funkcjonalności tej technologii, należy zapewnić jej współdzieloną przestrzeń dyskową w postaci sieci SAN lub NAS. Ponieważ przestrzeń ta posłuży jako repozytorium maszyn wirtualnych, krytyczne znaczenie dla działania całego wirtualnego środowiska ma zdefiniowanie procesów zarządzania nią.

Utrata jednostki LUN (Logical Unit Number) wskutek błędu człowieka, złe zarządzanie przestrzenią dyskową, brak redundancji w sieci SAN/NAS - mogą spowodować przerwy w działaniu systemów produkcyjnych, a nawet utratę danych. Dlatego tak ważne są zapewnienie w pełni redundantnej sieci SAN/NAS oraz administracja i konfiguracja zgodna z najlepszymi praktykami zalecanymi przez producentów/dostawców rozwiązań.

Z procesem wdrażania wirtualizacji serwerów ściśle wiąże się również wirtualizacja sieci LAN. Pozwala ona umieszczać maszyny wirtualne w dowolnej z dostępnych sieci. Wirtualne przełączniki mogą mieć znaczniki VLAN ID oraz być bezpośrednio podłączone do produkcyjnej sieci LAN, strefy DMZ lub podsieci, w zależności od potrzeb. Zaprojektowanie wirtualnej sieci oraz zebranie wymagań to klucze do posiadania efektywnej i bezpiecznej warstwy sieciowej infrastruktury wirtualnej. Zdublowanie fizycznych interfejsów sieciowych podłączonych do redundantnych przełączników fizycznych pozwoli zbudować wysoce dostępną sieć LAN.

7. Opracowanie planu sprawnego zarządzania

Sprawne zarządzanie nowoczesnym centrum danych wymaga narzędzi, które umożliwią administrowanie zarówno środowiskiem fizycznym, jak i wirtualnym. Środowisko serwerów wirtualnych w swojej naturze jest bardzo dynamiczne. Skuteczne zarządzanie cyklem życia maszyn wirtualnych w takim środowisku wymaga nie tylko odpowiednich narzędzi, lecz także szczegółowej dokumentacji i przestrzegania dyscypliny procesów. Zwłaszcza w takich obszarach, jak zarządzanie wydajnością i konfiguracją, instalacja poprawek aplikacji, gwarancja odpowiedniego poziomu usług, zabezpieczenie na wypadek katastrofy oraz dostarczanie wymaganych zasobów zarówno dla serwerów hostujących maszyny wirtualne, jak i samych maszyn wirtualnych. Procesy administrowania powinny być ściśle zdefiniowane i udokumentowane przed uczynieniem środowiska wirtualnego środowiskiem produkcyjnym.

Ponieważ składowymi środowiska wirtualnego są serwery, sieć LAN, pamięć masowa oraz systemy operacyjne i aplikacje, wymusza to ścisłą kooperację poszczególnych komórek odpowiedzialnych za te elementy. W celu możliwie szybkiego rozwiązania trudności, które mogą wystąpić w przyszłości, należy krok po kroku określić ścieżki eskalacji potencjalnych problemów.

Ze względu na łatwość i szybkość tworzenia serwerów wirtualnych - w porównaniu z serwerami fizycznymi - należy w szczególności zadbać o ich monitoring. Często tworzy się maszyny wirtualne wyłącznie w celach testowych, a po ich zakończeniu po prostu się o nich zapomina. Maszyny takie bezcelowo konsumują cenne zasoby hypervisorów. W odpowiedzi na tę sytuację firma Embotics zaoferowała system V-Commander, który umożliwia scentralizowany podgląd, bazujące na regułach zarządzanie oraz integrację z tradycyjnym oprogramowaniem do zarządzania centrum danych. Zaletą tego systemu jest również to, że nie wymaga instalacji ani dedykowanych agentów, ani sterowników.

8. Bezpieczeństwo oraz monitoring ruchu sieciowego

Dotychczas nie odnotowano spektakularnych ataków na infrastrukturę wirtualną. Nie oznacza to jednak, że można pominąć zapewnienie maszynom wirtualnym odpowiedniego poziomu bezpieczeństwa. Najprostszą, a zarazem jedną z najważniejszych czynności jest ograniczenie dostępu do konsoli serwisowej maszyn wirtualnych poprzez ustawienie praw dostępu i haseł. Przejęcie konsoli serwisowej przez osoby nieupoważnione może się okazać tragiczne w skutkach dla systemów produkcyjnych w infrastrukturze wirtualnej. Warto również ograniczyć dostęp do kart zarządzających serwerów fizycznych (np. HP iLO, Dell DRAC), na których zainstalowano hypervisora. Karty te umożliwiają restart lub wyłączenie serwera hostującego, narażając tym samym systemy wirtualne na nagłe przerwanie ich pracy. Aby zwiększyć bezpieczeństwo kont i haseł, należy zintegrować środowisko wirtualne z kontrolerem domeny Active Directory.

Kolejnym aspektem zapewnienia bezpieczeństwa w dynamicznym środowisku wirtualnym jest wprowadzenie mechanizmów identyfikacji maszyn wirtualnych podczas cyklu ich życia. Intruz, który dostanie się na platformę hypervisora, może np. zainstalować "obcą" maszynę wirtualną, stanowiącą ogromne zagrożenie dla systemów produkcyjnych.

Monitorowanie ruchu w fizycznej sieci LAN jest obowiązkiem każdego administratora. Przekonanie, że kontrola ruchu w środowisku wirtualnym jest czynnością zbyteczną nie ma żadnego uzasadnienia. Zwłaszcza teraz, kiedy liczba maszyn wirtualnych wielokrotnie przewyższa liczbę maszyn fizycznych. Produkt firmy Altor Networks - Virtual Network Security Analyzer (VNSA) - umożliwia obserwację ruchu sieciowego na poziomie wirtualnej warstwy przełączania. Rynek zabezpieczeń dla środowisk wirtualnych dopiero raczkuje. Najwięksi dostawcy, a także kilka mniejszych firm (wspomniany wcześniej Altor Networks oraz m.in. Blue Lane Technologies, Catbird) prowadzą obecnie prace nad wdrażaniem warstwy bezpieczeństwa dla infrastruktury wirtualnej.

9. Narzędzia do dwukierunkowej migracji serwerów

W wirtualnym środowisku produkcyjnym może zaistnieć konieczność powrotu aplikacji na serwer fizyczny, z powodu pojawienia się nagłych problemów z aplikacją lub systemem operacyjnym. Dlatego wybierając narzędzie do przeprowadzenia tej operacji, należy wybrać takie, które zapewni bezproblemową migrację także w drugą stronę, z maszyny wirtualnej na fizyczną. Przed przeniesieniem serwerów krytycznych na maszyny wirtualne trzeba dokładnie poznać proces transformacji serwerów w środowisku testowym lub na systemach niemających wielkiego znaczenia biznesowego.

10. Podejście etapowe

Przy większości projektów zalecane jest podejście etapowe, które umożliwi rozwiązywanie zaistniałych problemów na bieżąco. Podobnie jest w przypadku wirtualizacji. Pierwszy krok to uruchomienie instalacji pilotażowej na małej grupie serwerów i testowanie nowego środowiska.

Po migracji kolejnych serwerów wzrasta znajomość nowego środowiska, niezbędna do poprawnego nim administrowania. Kolejną korzyścią z etapowego podejścia do migracji jest możliwość tworzenia szczegółowej dokumentacji zmian w strategii lub samym jej procesie. Każdy, kto wdrażał nowe technologie, doskonale zdaje sobie sprawę, że ich zachowanie w środowisku produkcyjnym nie zawsze jest takie samo, jak w środowisku testowym.

Wybranie na podstawie przeprowadzonej analizy grupy serwerów, która najlepiej nadaje się do migracji, pozwoli już na wstępie osiągnąć sukces. A taki sukces przy pierwszych wdrożeniach może stać się świetnym chwytem marketingowym, wykorzystywanym w przekonywaniu do wirtualizacji dotychczas opierających się jej jednostek biznesowych.


TOP 200