Za i przeciw wirtualizacji

Wirtualizacja serwerów przynosi szereg korzyści i otwiera drogę w kierunku budowy własnej chmury. Nie można jednak zapominać, że z tą technologią wiążą się również pewne wady i wyzwania.

Wirtualizacja serwerów sporo namieszała w świecie IT i dzisiaj jest to jedna z najczęściej wykorzystywanych technologii oraz istotny element rozwiązań informatycznych w firmach każdej wielkości. Zasadniczo, umożliwia ona optymalne wykorzystanie zasobów IT i uruchamianie wielu maszyn wirtualnych na jednym serwerze fizycznym. Płynące z tego korzyści, ale również wady, różnią się w zależności od użytkownika. Warto przyjrzeć się tym najczęściej wymienianym.

Ograniczenie kosztów IT

Wirtualizacja umożliwia redukcję kosztów w kilku obszarach. Można je podzielić na trzy kategorie: wydatki kapitałowe, wydatki operacyjne oraz obniżenie kosztów zasilania.

  • Redukcja wydatków kapitałowych. Wirtualizacja umożliwia firmom ograniczenie kosztów IT, ponieważ redukuje ilość potrzebnego sprzętu i innych powiązanych zasobów, aby osiągnąć ten sam poziom wydajności, dostępności i skalowalności, co w środowisku fizycznym.
  • Redukcja wydatków operacyjnych. Po wdrożeniu wirtualizacji pracownicy IT mają mniej pracy związanej z bieżącym, ręcznym i czasochłonnym zarządzaniem, ponieważ te czynności w znacznym stopniu można zautomatyzować. To z kolei przekłada się na obniżenie kosztów operacyjnych.
  • Obniżenie kosztów zasilania. Zmniejszenie ilości używanego sprzętu powoduje spadek zużycia prądu przez serwery i systemy chłodzenia w centrum danych, prowadząc do obniżenia rachunków za energię elektryczną.

Chociaż wirtualizacja mocno redukuje koszty, jej główną wadą jest konieczność poniesienia wysokich wydatków początkowych w momencie jej wdrożenia. Są to zarówno koszty sprzętu (serwerów, macierzy dyskowych), ale również zakupu licencji na oprogramowanie. Te początkowe wydatki są większe, niż gdyby zdecydować się jedynie na wymianę sprzętu i nie wdrażać wirtualizacji. Każdy przypadek trzeba rozpatrywać indywidualnie. Może się bowiem okazać, że firma dysponuje już sprzętem odpowiednim do zainstalowania oprogramowania wirtualizacyjnego. Do tej początkowej inwestycji trzeba jeszcze doliczyć koszt szkoleń administratorów, które nie należą do tanich. Wdrożenie wirtualizacji wymaga od pracowników IT zdobycia wiedzy na temat tej technologii. Natomiast z punktu widzenia użytkownika końcowego aplikacja działająca w środowisku wirtualnym zachowuje się tak samo. Trzeba jednak pamiętać, że nie każda aplikacja działa poprawnie w maszynach wirtualnych, aby nie podejmować prób przeniesienia takich aplikacji do środowiska wirtualnego.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT
  • IDC: Wzrost popularności sieci SD-WAN wynika z wymagań dotyczących łączności w chmurze i atrakcyjności SASE

W przypadku wirtualizacji koszty należy oceniać w dłuższej perspektywie i posiłkować się takimi wskaźnikami, jak ROI (stopa zwrotu z inwestycji) czy TCO (całkowite koszty posiadania).

Optymalne wykorzystanie zasobów

Oprócz redukcji kosztów wirtualizacji umożliwia również osiągnięcie maksimum korzyści z inwestycji w zasoby sprzętowe. Jedną z głównych zalet tej technologii jest możliwość konsolidacji prowadząca do ograniczenia liczby fizycznych serwerów. Na jednej maszynie fizycznie może bowiem działać wiele aplikacji, a każde będzie dysponowała własnym odizolowanym środowiskiem.

Przy dzisiejszej wydajności serwerów można przyjąć, że jedna maszyna fizyczna wystarczy, aby pociągnąć 20 maszyn wirtualnych. Są też wdrożenia, w których współczynnik konsolidacji wynosi 1:30, a nawet 1:40. Dzięki temu osiąga się również bardzo dobry poziom wykorzystania dostępnych zasobów sprzętowych czy ograniczana ilość miejsca potrzebnego w serwerowni. W tradycyjnym środowisku bez wirtualizacji, w którym stosowano zasadę jeden serwer – jedna aplikacja, poważnym problemem był duży nadmiar zasobów. Wiele z tych serwerów pracowało przy obciążeniu wynoszącym 2 do 10 procent ich możliwości.

Dzięki wirtualizacji możliwe jest też elastyczne zarządzanie zasobami. Przykładem jest równoważenie obciążenia, dzięki któremu można zapewnić aplikacjom zasoby wymagane do wydajnego działania. Kiedy jakaś aplikacja zaczyna generować większe obciążenie, przenosi się ją na serwer dysponujący większą ilością wolnych zasobów. To zapobiega również nieplanowanym przestojom. Mimo elastycznego zarządzania trzeba pamiętać, że zasoby sprzętowe są w danym momencie stałe. Natomiast potrzeby mogą zmieniać się dynamicznie. Sztuką jest takie zaplanowanie pojemności (dostępnej mocy obliczeniowej, pamięci operacyjnej, przestrzeni dyskowej), aby zaspokoić wymagania, a jednocześnie nie pozostać z dużą ilością nieużywanych zasobów.

Niemniej jednak wirtualizacja jest bardzo skalowalna. Umożliwia udostępnianie dodatkowych zasobów, kiedy są one potrzebne. Dołączenie nowego serwera do środowiska wirtualnego jest stosunkowo prostą operacją. Jednocześnie tworzenie maszyn wirtualnych potrzebnych do uruchamiania aplikacji jest bardzo proste, odbywa się praktycznie bez kosztów i natychmiastowo, na żądanie. Nie ma potrzeby zakupu nowego sprzętu za każdym razem, kiedy pojawia się potrzeba utworzenia nowej maszyny wirtualnej. Przynajmniej tak długo, jak są wolne zasoby.

Łatwość dodawania nowych zasobów przydaje się bardzo, kiedy firmy rosną. Jest to świetne rozwiązanie dla przedsiębiorstw, które szybko się rozwijają (małe przedsiębiorstwa, start-upy) czy firm, które wykorzystują swoje centra danych również do celów testowych i rozwoju aplikacji.

Mimo to trzeba pamiętać, że jednym z głównych celów i ważną zaletą wirtualizacji jest efektywne wykorzystanie zasobów. Dlatego należy rozsądnie korzystać z możliwości łatwego tworzenia nowych maszyn wirtualnych, aby nie szastać beztrosko dostępnymi zasobami. Zjawisko mnożenia się serwerów wirtualnych jest niechcianą konsekwencją wirtualizacji. Kiedy administratorzy przekonują się, jak łatwo dodaje się nową maszynę wirtualną, zaczynają je tworzyć z wielu, nierzadko błahych powodów. Wkrótce zamiast kilku czy kilkunastu maszyn wirtualnych pojawia się ich kilkadziesiąt. To zjawisko jest powszechne w świecie wirtualizacji. Bez stosowania odpowiedniego zarządzania pojemnością prowadzi do niepotrzebnego wykorzystania zasobów, a w skrajnych przypadkach nawet do ich wyczerpania.

Pod górkę z backupem

Tworzenie kopii zapasowych w środowisku wirtualnym stwarza sporo wyzwań. Ponieważ niektóre starsze systemy backupu wywodzące się ze środowisk fizycznych nie zostały przystosowane do wirtualizacji, wymagają instalowania agentów backupu w każdej maszynie wirtualnej. Jest to podejście negatywnie wpływające na wydajność – na jednym serwerze fizycznym może działać wiele takich samych agentów backupu, po jednym na każdą maszynę wirtualną.

Problemy z backupem związane z niską wydajnością, powstawaniem wąskich gardeł i niedoborem zasobów nasiliły się wraz z przenoszeniem coraz większego odsetka aplikacji do środowisk wirtualnych. Te kwestie potęguje jeszcze korzystanie z przestarzałych systemów backupu. Wiele firm wstrzymuje się z migracją na nowsze wersje oprogramowania do tworzenia kopii zapasowych, chcąc mieć pewność, że producenci wyeliminują wszystkie błędy i luki w bezpieczeństwie. Ponieważ starsze systemy backupu nie korzystają z API platform wirtualizacyjnych, wydajność spada.

Te problemy backupu w środowiskach wirtualnych potwierdzają badania Enterprise Strategy Group, które pokazały, że 8 na 10 respondentów uważa tworzenie kopii zapasowych maszyn wirtualnych za duże wyzwanie. Z kolei 6 na 10 umieszcza backup wirtualizacji wśród pięciu największych problemów IT, wskazując na obawy o wysokie koszty zarządzania, zwiększenie ryzyka utraty danych oraz trudności z przywracaniem plików.

Są dwa sposoby poradzenia sobie z tymi wyzwaniami. Pierwszy polega na aktualizacji lub instalacji nowszej wersji systemu backupu, która potrafi obsługiwać zarówno maszyny wirtualne, jak i serwery fizyczne. Problemem tego podejścia są kwestie kompatybilności wstecz. Drugą opcją jest przejście na rozwiązanie backupu od podstaw zbudowane z myślą o środowisku wirtualnym. W tym przypadku trzeba mieć świadomość, że do backupu niezwirtualizowanych serwerów będzie potrzebny drugi system backupu, że wszystkimi wadami stosowania dwóch równoległych systemów do realizacji podobnych zadań.

Kosztowne bezpieczeństwo

Firma Kaspersky analizowała kwestie bezpieczeństwa systemów wirtualnych i doszła do interesujących wniosków, jeśli chodzi o koszty ich zabezpieczania. Najważniejszym spostrzeżeniem było, że firmy płacą ponad dwukrotnie więcej za przywracanie po cyberwłamaniach, jeśli wdrożyły infrastrukturę wirtualną. Problem dotyczy firm każdej wielkości. Oczywiście skala tego zjawiska nie niweluje korzyści płynących z wirtualizacji, ale warto mieć jego świadomość.

Są trzy przyczyny powodujące taki wzrost kosztów:

  • Infrastruktura wirtualną jest intensywnie wykorzystywana do realizacji operacji kluczowych z punktu widzenia funkcjonowania firm, dlatego zakłócenie jej pracy i przywracanie jest kosztowne. Ataki na ważny element infrastruktury z dużym prawdopodobieństwem odbijają się negatywnie na reputacji firmy czy jej ratingu kredytowym, co oczywiście ma niekorzystny wpływ na prowadzenie biznesu.
  • Złożoność zabezpieczania środowisk wirtualnych oznacza, że tylko nieco ponad połowa (56%) firm jest w pełni przygotowana do radzenia sobie z atakami na te środowiska.
  • Brak wiedzy na temat zagrożeń specyficznych dla środowisk wirtualnych. Ponownie, tylko nieco ponad połowa (52%) pracowników IT badanych firm była w pełni świadoma istniejących zagrożeń.

Co zaskakujące, 42% uważa, że środowiska wirtualne są bezpieczniejsze niż fizyczne, mimo trudności ze zrozumieniem nowych zagrożeń i większą złożonością zabezpieczania wirtualizacji. Aż 73% firm nie korzysta z zabezpieczeń specjalizowanych w ochronie środowisk wirtualnych. A przecież w tym przypadku mamy do czynienia z tym samym problem wydajności, który występuje w backupie – oprogramowanie agentów działające w każdej maszynie wirtualnej i powodujące spadek wydajności.

Supergęstość

Oprogramowanie wirtualizacyjne dobrze współgra z serwerami blade. Takie połączenie daje bardzo duży poziom gęstości mocy przetwarzania. Jednak wysoka gęstość upakowania wymaga starannego zaplanowania systemu zabezpieczeń zmniejszającego ryzyko awarii i zapewniającego dostatecznie szybkie odtwarzanie danych i aplikacji w wypadku jej wystąpienia. W standardowej obudowie kasetowej można zainstalować 10-16 serwerów. Jeśli każdy z nich będzie obsługiwał 10 aplikacji działających na wirtualnych serwerach, to w razie awarii fizycznego systemu nawet 100-160 aplikacji przestanie być dostępnych. Wpływ takiego przypadku na działalność biznesową może być bardzo poważny.

Ograniczenia

Trzeba mieć na uwadze, że nie każdą aplikację można zwirtualizować, co wynika z bardzo różnych przyczyn, np. aplikacja wymaga specyficznego komponentu sprzętowego, który jest niedostępny w środowisku wirtualnym. Częstym powodem jest również brak wsparcia niektórych producentów oprogramowania w przypadku uruchamiania ich produktów w maszynach wirtualnych lub w ogóle brak zgodny na taką instalację. Ogólnie, ten problem występuje coraz rzadziej, ponieważ rosnąca liczba producentów dostosowuje swoje licencje do specyfiki wirtualizacji. Jednak wciąż należy uważnie sprawdzać, jak producent danej aplikacji rozumie jej użycie w środowisku wirtualnym.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200