Przepis na udaną wirtualizację

W roku 2008 na serwerach x86 zainstalowano ponad cztery miliony serwerów wirtualnych - oceniają analitycy firmy Gartner. Wirtualizacji coraz powszechniej poddawane są także stacje robocze. Szacuje się, że w roku 2011 liczba wirtualnych desktopów sięgnie ok. 660 milionów (w 2007 r. było ich mniej niż 5 mln). Do większych przedsiębiorstw, które już w jakimś stopniu wdrożyły u siebie rozwiązania wirtualizacyjne, dołączają coraz częściej firmy małe i średnie.

W roku 2008 na serwerach x86 zainstalowano ponad cztery miliony serwerów wirtualnych - oceniają analitycy firmy Gartner. Wirtualizacji coraz powszechniej poddawane są także stacje robocze. Szacuje się, że w roku 2011 liczba wirtualnych desktopów sięgnie ok. 660 milionów (w 2007 r. było ich mniej niż 5 mln). Do większych przedsiębiorstw, które już w jakimś stopniu wdrożyły u siebie rozwiązania wirtualizacyjne, dołączają coraz częściej firmy małe i średnie.

W trudnych ekonomicznie czasach zarówno większe, jak i mniejsze organizacje są zmuszone do szukania oszczędności poprzez ograniczanie kosztów sprzętu, ich użytkowania oraz energii. Dobrze przeprowadzony projekt wirtualizacji pozwoli na szybki zwrot inwestycji i przyniesie duże oszczędności. Wdrożenie środowiska wirtualnego wymaga od menedżerów IT zmiany ich dotychczasowego podejścia do planowania infrastruktury oraz procesów zarządzania.

Na co więc zwracać szczególną uwagę, aby osiągnąć maksimum korzyści z projektu wirtualizacji? Poniżej przedstawiamy 10 praktycznych porad, jak przeprowadzić udany projekt wirtualizacji.

1. Całościowe spojrzenie i ścisła współpraca działów

Przepis na udaną wirtualizację
Opracowanie dobrej strategii projektu wirtualizacji nie należy do zadań łatwych. Wymaga czasu oraz całościowego spojrzenia na posiadane środowisko IT i procesy w nim zachodzące. Na etapie planowania wirtualizacji serwerów, warto mieć na uwadze także wirtualizację stacji roboczych oraz pamięci masowej.

Branża IT od dawna cierpi na syndrom "silosów kompetencji", odseparowanych grup specjalistów odpowiadających za firmowe serwery, sieci, pamięci masowe, aplikacje, bazy danych i bezpieczeństwo. Nie jest możliwe przeprowadzenie udanego projektu wirtualizacji bez zaangażowania i ścisłej współpracy wymienionych grup. Dlatego zwolennicy wirtualizacji powinni inicjować liczne dyskusje między poszczególnymi działami, aby jasno sprecyzować krótko- i długoterminowe cele projektu. Na takie spotkania warto również zapraszać dostawców poszczególnych rozwiązań, gdyż mają oni zwykle duże kompetencje oraz szerokie portfolio oferowanych technologii (serwery, stacje robocze, pamięć masowa). Taka współpraca pozwoli lepiej zaprojektować mapę drogową wdrożenia wirtualizacji na szeroką skalę. Bez kooperacji wszystkich działów nie będzie końcowego sukcesu.

Ponieważ przedsięwzięcie wirtualizacji dotknie nie tylko departamenty informatyczne, lecz także działy stricte biznesowe, należy przeprowadzić swego rodzaju kampanię marketingową na korzyść planowanego wdrożenia. W wielu instytucjach mamy do czynienia z sytuacją, gdzie dana jednostka biznesowa utrzymuje własny serwer fizyczny, świadczący jej usługi. Zastąpienie go maszyną wirtualną może budzić obawy o spadek wydajności działania aplikacji, a nawet niechęć do współdzielenia swoich zasobów z innymi jednostkami w ramach organizacji. Nie pozostaje nic innego, jak przedstawić wszystkie możliwe korzyści płynące z wdrożenia technologii wirtualizacji.

Najważniejsze z nich to obniżenie kosztów całkowitego użytkowania (TCO) oraz możliwość szybkiej odpowiedzi w ramach SLA (Service Level Agreement) na pojawiające się potrzeby biznesowe danego departamentu. W konsekwencji wirtualizacji zmianie ulegną też dotychczasowe reguły rozliczania jednostek za korzystanie z zasobów obliczeniowych. Z pomocą przychodzi tutaj rozwiązanie Chargeback Virtual Appliance firmy VKernel's. Tworzy ono dokładne raporty z poziomu wykorzystania zasobów obliczeniowych wraz z należnymi za nie kosztami, przypadającymi na każdy dział firmy.

Technologia wirtualizacji ciągle jest postrzegana jako swoista nowość. Ważne zatem, aby nie stała się źródłem problemów wynikających z braku lub błędnej komunikacji, albo przedstawienia oferowanych przez nią korzyści w niewłaściwy sposób.

2. Współczynnik konsolidacji serwerów

Technologia wirtualizacji redukuje liczbę serwerów fizycznych w środowisku produkcyjnym poprzez konsolidację wielu maszyn wirtualnych na pojedynczym serwerze fizycznym. Na etapie projektowania infrastruktury wirtualnej dobranie optymalnego współczynnika konsolidacji wymaga głębszych przemyśleń.

Praca serwerów fizycznych może zostać przerwana przez błąd ludzki, awarię sprzętu lub złośliwe oprogramowanie. Przy niskim współczynniku konsolidacji, np. 2:1, wpływ awarii pojedynczego serwera fizycznego na działalność biznesową firmy będzie minimalny. Ale już przy współczynniku konsolidacji na poziomie 20:1 lub więcej, awaria serwera fizycznego nie pozostanie bez wpływu na wirtualne środowisko produkcyjne.

Dlatego też należy wystrzegać się wysokich współczynników konsolidacji, wykorzystujących w blisko 100% zasoby fizyczne. Za bezpieczną uznaje się zwykle utylizację serwerów fizycznych na poziomie 65-75%, która pozwala utrzymać elastyczność migrowania maszyn w obrębie puli zasobów obliczeniowych. Współczynnik konsolidacji jest ściśle uzależniony od liczby/specyfikacji serwerów fizycznych oraz wymagań maszyn wirtualnych. Zasoby obliczeniowe środowiska wirtualnego nie są nieskończone, pamiętajmy, aby ich nie przeforsować.

Istotnym aspektem planu konsolidacji serwerów jest optymalizacja obciążeń na serwerach docelowych. Aplikacje z podobnymi okresami obciążenia (np. dokonujące przetwarzania dużej ilości danych na koniec miesiąca) mogą nie działać wydajnie na pojedynczej maszynie fizycznej. Podobnie jest w przypadku grupowania aplikacji posiadających zbliżone w czasie okno serwisowe.

3. Dokładne poznanie obecnego środowiska

Przed rozpoczęciem każdego projektu wirtualizacji niezbędny jest dokładny audyt posiadanej infrastruktury IT. Jego wyniki mają krytyczne znaczenie dla etapu projektowania środowiska wirtualnego, które pozwoli sprostać stawianym mu wymaganiom: zarówno technicznym, jak i biznesowym. Wyniki przeprowadzonego audytu pozwolą też wskazać, w którym miejscu technologia wirtualizacji przyniesie firmie największy zysk.

Podczas audytu środowiska fizycznego, z procesem określania wymagań powinien iść w parze proces zbierania danych środowiskowych. W tym przypadku podstawowymi danymi są metryki z pracujących serwerów fizycznych, czyli: rodzaj procesora, współczynnik jego taktowania i poziom wykorzystania mocy obliczeniowej, dostępna ilość pamięci operacyjnej RAM oraz jej utylizacja.

Ponadto należy określić liczbę dostępnych kart sieciowych wraz z oferowaną przez nie przepustowością, rodzaj i wielkość operacji I/O pracujących aplikacji, zajętość zasobów dyskowych. Określając metryki serwera, trzeba uwzględnić przyszłe wymagania pojemności środowiska.

Na rynku dostępnych jest kilka narzędzi pomagających zaplanować pojemność przyszłego środowiska na podstawie analiz obecnego. Należą do nich m.in. produkty firm: Criba, ISaccountable oraz PlateSpin.

Wraz z przebiegiem migracji serwerów fizycznych na wirtualne zmniejszy się poziom poboru energii elektrycznej, wydzielanego ciepła oraz zajętości miejsca w szafie teleinformatycznej. Przed przystąpieniem do procesu migracji należy jednak upewnić się, że posiadane zasoby energetyczne i dostępne miejsce wystarczą, by bez przeszkód rozpocząć proces migracji. Niedopuszczalne jest dodanie kolejnych odbiorników energii elektrycznej, np. serwerów ESX, kiedy jesteśmy na granicy możliwości zasileniowych serwerowni. Projektując środowisko wirtualne, trzeba zatem mieć na uwadze zapewnienie wystarczającej rezerwy mocy obliczeniowej na maszynach fizycznych na potrzeby mechanizmów, takich jak VMotion czy HA. W momencie przeniesienia maszyny wirtualnej na inny, fizyczny serwer hostujący, wzrośnie wykorzystanie jego zasobów.

4. Selekcja i kompatybilność systemów

W wielu przypadkach, po tym jak projekt wirtualizacji po ciężkich bojach ostatecznie dostanie zielone światło od zarządu, radość przesłania rozsądek - do migracji i zwirtualizowania zostają przeznaczone wszystkie aplikacje produkcyjne. Jednakże nie każda aplikacja nadaje się do procesu wirtualizacji, często wręcz takie rozwiązanie nie jest zalecane.

W wyniku audytu i dokładnego rozpoznania obecnego środowiska dowiemy się, które systemy będą się nadawały do wirtualizacji, a które nie. Proces selekcji systemów przeznaczonych do konsolidacji to dobry moment na sprawdzenie, czy na rynku nie pojawiły się nowsze wersje obecnie wykorzystywanych aplikacji. Być może w trakcie dokładniejszego przeglądu środowiska odnalezione zostaną aplikacje, które z biznesowego punktu widzenia straciły na znaczeniu, a na dodatek nie mają już oficjalnego wsparcia technicznego. Aplikacje przeznaczone do zwirtualizowania, w dalszym etapie powinny być sprawdzone pod kątem kompatybilności ich samych i systemów operacyjnych, na których pracują z planowanym hypervisorem środowiska wirtualnego. Jeśli używane przez nas aplikacje i systemy mają aktualną umowę wsparcia technicznego producentów, należy zapytać, czy wsparcie to będzie kontynuowane dla ich instancji wirtualnych. W razie braku takiego wsparcia, dany system musi pozostać na serwerze fizycznym i nie może być brany pod uwagę w projekcie wirtualizacji. Wyjątkiem jest sytuacja, kiedy całą odpowiedzialność weźmiemy na siebie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200