Wirtualne pułapki

Planując wirtualizację centrum danych można zapomnieć o niektórych pułapkach, które czyhają na drodze do efektywności i wydajności obiecywanej przez dostawców tej technologii.

Planując wirtualizację centrum danych można zapomnieć o niektórych pułapkach, które czyhają na drodze do efektywności i wydajności obiecywanej przez dostawców tej technologii.

1 mld USD

ma wynieść w tym roku wartość rynku systemów do wirtualizacji.

Podstawowa korzyść wynikająca z implementacji systemu wirtualizacji jest jasna - usunięcie barier oddzielających sprzęt od oprogramowania, a w efekcie możliwość budowy dynamicznych, elastycznych i efektywnych centrów danych. Dlatego też popularyzacja zastosowań tego typu rozwiązań szybko rośnie. Jednak warto zachować ostrożność i dokładnie przeanalizować jak wirtualizacja infrastruktury wpłynie na procesy planowania i zarządzania. Może to ułatwić lista podstawowych problemów, które z reguły pojawiają się przy wdrożeniach systemów wirtualizacji, opracowana przez Network World na podstawie opinii analityków i dostawców technologii.

1 Fizyczna infrastruktura wciąż ważna

Idea wirtualnego środowiska centrum danych w ogólności polega na zwiększeniu liczby aplikacji i procesów, które można uruchomić przy jednoczesnym zmniejszeniu liczby systemów fizycznych. Nie oznacza to jednak, że wyposażenie centrum danych w odpowiednie serwery i pamięci traci na znaczeniu. Staranne zaplanowanie zasobów fizycznych niezbędnych do obsługi przewidywanego obciążenia i oprogramowania monitorującego ich wykorzystanie jest w dalszym ciągu konieczne, bo inaczej można napotkać poważne problemy, którym nie zapobiegnie najlepszy system wirtualizacyjny.

2 Problemyz wydajnością aplikacji

Mimo rosnącej popularności systemów do wirtualizacji wciąż nie wszystkie aplikacje biznesowe zostały przystosowane do pracy w takich środowiskach. Warto więc wcześniej sprawdzić, czy jest dostępna odpowiednia wersja programu współpracująca z danym środowiskiem wirtualizacyjnym, bo inaczej może się okazać, że wydajność i funkcjonalność systemu będzie trudna do zaakceptowania i pojawi się nieoczekiwana konieczność aktualizacji lub zmiany oprogramowania.

3 Wirtualne bezpieczeństwo

Wdrożenie wirtualnego środowiska usuwającego tradycyjny interfejs oddzielający warstwę sprzętową od programowej może prowadzić do zamieszania i problemów z systemem bezpieczeństwa. Środowisko wirtualnych serwerów staje się płynne i bardziej skomplikowane, co powoduje, że dotychczas stosowany, związany ze sprzętem system zabezpieczeń może przestać pracować stabilnie, a narzędzia do skanowania luk okazują się nieskuteczne. Dennis Moreau, CTO z firmy Configuresoft zauważa, że choć wirtualizacja ułatwia instalację aplikacji i łat, to powoduje też komplikacje, o których nie wszyscy pamiętają. "Konieczność instalacji poprawek i aktualizacji systemu operacyjnego oraz aplikacji jest niezbędna nawet po wirtualizacji środowiska IT, ale pojawia się dodatkowa potrzeba wprowadzania poprawek do maszyny wirtualnej, która może również zawierać niebezpieczne luki. Obsługa i utrzymanie systemu bezpieczeństwa są więc trudniejsze i bardziej pracochłonne tylko w efekcie wprowadzenia wirtualizacji" - stwierdza.

4 Pułapka rozwiązań firmowych

Technologie wirtualizacyjne rozwijają się ostatnio tak szybko, że zachowanie wstecznej zgodności jest poważnym problemem. Wciąż brakuje jednolitych, powszechnie zaakceptowanych specyfikacji, określających podstawowe mechanizmy i funkcje umożliwiające zarządzanie i współpracę systemów pochodzących od różnych producentów. Trudno też oczekiwać, by w najbliższym czasie standardy takie zostały uzgodnione. W efekcie łatwo wpaść w pułapkę rozwiązań firmowych, które wraz z rozwojem technologii i pojawianiem się nowych rozwiązań mogą istotnie ograniczyć przyszłe możliwości modyfikacji platformy lub znacznie zwiększyć jej koszty. Dlatego jak radzi Ulrich Seif, CTO w firmie National Semiconductor, warto wybierać systemy, które mają przynajmniej opinię quasi-standardu i cechy otwartości, np. umożliwiają import maszyn wirtualnych innych producentów.

5 Rozmnażanie maszyn wirtualnych

Początkowo wirtualizacja była postrzegana przede wszystkim jako doskonałe rozwiązanie umożliwiające względnie łatwą konsolidację i zmniejszenie liczby fizycznych serwerów niezbędnych do obsługi centrum danych. Ale łatwość, z jaką można instalować maszyny wirtualne spowodowała, że wiele firm, które zredukowały infrastrukturę fizyczną, zostało jednocześnie zaskoczonych przez gwałtowny przyrost liczby wirtualnych serwerów, którymi przecież również trzeba zarządzać. "Jednym z najważniejszych problemów związanych z planowaniem i wdrażaniem systemów wirtualizacyjnych jest konieczność zrozumienia i przygotowania się do wzrostu liczby wirtualnych maszyn. W firmach, które miały centrum danych wykorzystujące np. 500 serwerów, każdy z zainstalowanym jednym obrazem systemu i aplikacji, po wdrożeniu wirtualizacji z reguły okazuje się, że trzeba zarządzać i utrzymywać np. 700 systemów. Najlepszą metodą przeciwdziałania nadmiernemu przyrostowi liczby serwerów, którymi trzeba zarządzać, jest instalacja mechanizmów kontrolujących cykl życia maszyn wirtualnych i usuwających zbędne, niewykorzystywane elementy systemu" - stwierdza John Humphreys z IDC.

6 Koszty licencjina oprogramowanie

Podobnie jak w przypadku sporów i targów z dostawcami oprogramowania dotyczących metod jego licencjonowania na procesor czy też jednostkę CPU, wdrażając systemy wirtualne można natknąć się na nieprzyjemne niespodzianki. Jak mówi John Enck, wiceprezes firmy Gartner, koszty licencji mogą się okazać poważną barierą hamującą wdrożenia systemów wirtualizacyjnych. Dość często zdarza się, że licencja dotyczy liczby CPU, w które jest wyposażony serwer, a wówczas uruchomienie jej w maszynie zawierającej np. tylko dwa fizyczne układy, ale cztery procesory wirtualne, może wymagać zakupu dodatkowych licencji.

7 Uwagana pamięć

Ponieważ rozproszone systemy wykorzystujące serwery x86 są obiektem, dla którego planowana jest wirtualizacja, warto dobrze przeanalizować, jak wirtualizacja i związana z nią centralizacja zasobów wpłyną na działanie różnych elementów infrastruktury. W szczególności należy dobrze się przyjrzeć strukturze pamięci masowych, bo w wielu wypadkach okazuje się, że wszystkie wirtualne serwery mają dostęp do jednej współdzielonej sieci pamięci SAN. Dlatego też kupując nową macierz dyskową należy pamiętać o analizie jej obciążenia przez wirtualne serwery, bo często okazuje się, że nie jest ona w stanie obsłużyć wszystkich żądań I/O i ma za małą przepustowość. Jeśli już nastąpi awaria macierzy, to ma ona wpływ na sieć SAN i każdą z działających w systemie maszyn wirtualnych, co może doprowadzić nawet do ich unieruchomienia i w konsekwencji naprawdę poważnej awarii całego systemu.

Wirtualizacja powoduje też, że użytkownicy natychmiast zyskują dostęp do znacznie większych zasobów pamięci. W praktyce okazuje się jednak, że pojemność ta zostaje bardzo szybko zużyta i dlatego warto pomyśleć o wdrożeniu systemów hierarchicznych i mechanizmów efektywnego zarządzania pamięciami masowymi.

8 Wirtualna zgodnośćukładów AMD i Intela

W wielu centrach danych pracują obok siebie serwery wyposażone zarówno w układy AMD, jak i Intela, więc łatwo dojść do przekonania, że zainstalowane w nich maszyny wirtualne będzie można bez problemu przemieszczać między fizycznymi komputerami. Tak jednak nie jest. Dotyczy to np. popularnego oprogramowania wirtualizacyjnego firmy VMware. "Nasza technologia vmotion umożliwia migrację działających aplikacji z jednego fizycznego serwera na inny, ale oba komputery muszą być wyposażone w ten sam typ procesorów. Wynika to z różnic architektury tych układów oraz różnego działania niektórych instrukcji. VMware pracuje nad rozwiązaniem tego problemu, ale nie będzie to możliwe w krótkiej perspektywie czasowej" - przyznaje Raghu Raghuram, wiceprezes VMware.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200