Elastyczne znaczy zwirtualizowane

10 szczegółów technologii wirtualizacyjnych

1. Oprogramowanie wirtualizacyjne umożliwia uruchamianie różnych systemów operacyjnych (np. Windows i Linux) w maszynach wirtualnych zainstalowanych w jednym serwerze. Ułatwia to korzystanie z przestarzałych aplikacji, które wymagają starych wersji systemów operacyjnych, oraz testowanie działania nowych.

Rynek się nasyca

Według prognoz firmy analitycznej TheInfoPro, 80% instalowanych w tym roku serwerów będą to maszyny wirtualne. W praktyce oznacza to, że nastąpi nasycenie rynku, bo pozostałe 20% będą to fizyczne komputery obsługujące jedną aplikację lub specjalizowane serwery pracujące w środowiskach, gdzie wirtualizacja nie daje korzyści, np. takich jak oprogramowanie czasu rzeczywistego lub systemy do szybkiego przeszukiwania rekordów w bazach danych

2. Serwery wirtualne można reinstalować bez negatywnego wpływu na system zainstalowany w serwerze fizycznym i inne działające na nim maszyny wirtualne, obsługujące różne aplikacje. Wcześniej jednak trzeba przeanalizować ich wymagania dotyczące wydajności przetwarzania i przepustowości interfejsów I/O, aby uniknąć pojawienia się w systemie wąskich gardeł.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT

3. W systemie wykorzystującym wirtualizację średnio w jednym serwerze fizycznym można uruchomić 10 aplikacji. W efekcie potencjalna awaria może mieć katastrofalne skutki. Dlatego w systemach zwirtualizowanych niezawodność sprzętu, mechanizmy zapobiegania skutkom awarii oraz odtwarzania systemu i danych są elementami, które mają duże znaczenie.

4. Pamięć RAM to kosztowny element współczesnych serwerów, a wirtualizacja ma pod tym względem wyższe wymagania niż rozwiązania klasyczne. Bo z fizycznej pamięci RAM korzysta znacznie więcej wirtualnych serwerów, więc jej pojemność musi być znacznie większa, by nie pojawiły się problemy z wydajnością.

5. Wirtualizacja pamięci masowych pozwala na ich efektywne wykorzystywanie i zmniejszenie kosztów. Choć wirtualizacja serwerów nie stawia bezpośrednio żadnych wymagań wobec pamięci masowej (w postaci dysków instalowanych w serwerach - pamięć DAS, sieciowych pamięci NAS lub systemu SAN), to w większości przypadków najbardziej efektywnym rozwiązaniem jest sieć SAN. I tak na przykład wykorzystanie systemu DAS utrudnia przenoszenie maszyn wirtualnych i uruchamianie nowych aplikacji. A inwestycja w pamięci SAN z reguły jest bardzo kosztowna.

6. Kontrola licencji na oprogramowanie jest generalnie trudniejsza w środowiskach zwirtualizowanych. Możliwość łatwego uruchamiania wirtualnych serwerów i aplikacji stwarza inne, nowe problemy w porównaniu z systemami klasycznymi. Wiążą się one z koniecznością monitorowania i inwentaryzacji wirtualnych serwerów oraz kontrolowania cyklu życia aplikacji, by wyłączać maszyny zbędne, generujące niepotrzebne koszty.

7. Zapewnienie odpowiedniego poziomu bezpieczeństwa i kontroli dostępu do danych w środowiskach zwirtualizowanych jest trudniejsze niż w systemach klasycznych. Trzeba bowiem zabezpieczyć dostęp do oprogramowania wirtualizacyjnego i zdawać sobie sprawę, że każdy kto uzyska dostęp do wirtualnego serwera może próbować zainstalować w nim szkodliwy kod przełamujący standardowe bariery izolujące maszyny wirtualne. Ponadto w systemie zwirtualizowanym trudniej polegać na standardowych, zewnętrznych mechanizmach kontroli dostępu działających w warstwie sieci, bo z reguły zapewniają one ochronę jedynie na poziomie najmniej wrażliwej aplikacji działającej na fizycznym serwerze. Zapewnienie bezpieczeństwa wymaga więc innej wiedzy i doświadczenia niż w systemach o klasycznej architekturze.

Stara, nowa technika

Wirtualizacja jest techniką, która ma już około 40 lat, bo historycznie pojawiła się w komputerach mainframe, umożliwiając ich logiczne partycjonowanie i tworzenie izolowanych maszyn wirtualnych. Jednak początki masowych zastosowań zaczęły się dopiero ok. 10 lat temu. Można przypomnieć, że w 1999 roku VMware zaprezentował swój pierwszy system dla komputerów PC, a dopiero w 2001 r. pojawiła się jego wersja serwerowa dla Windows i Linux.

8. Liczba zadań wykonywanych przez administratorów lub pracowników wsparcia technicznego zależy głównie od liczby "serwerów", niezależnie od tego, czy są to urządzenia fizyczne czy wirtualne. W systemach zwirtualizowanych dochodzą nowe zadania związane z instalacją i konfiguracją oprogramowania wirtualizacyjnego. W efekcie trzeba sobie zdawać sprawę, że pod tym względem wdrożenie tej technologii z reguły nie zmniejsza, a często zwiększa osobowe koszty utrzymania systemu.

9. Wirtualizacja komplikuje proces backupu i wymusza zmianę podejścia do tego zagadnienia. Jednym z problemów jest wzrost zużycia zasobów. Wykonanie pełnej kopii zapasowej pochłania dużo cykli procesora, pamięci czy operacji we/wy. Jednoczesne uruchomienie backupu kilku maszyn wirtualnych na jednym serwerze fizycznym może wyczerpać wszystkie jego zasoby.

10. Kolejnym problemem jest możliwość odzyskiwania danych w środowisku zwirtualizowanym. W pewnych sytuacjach może być konieczne odtworzenie całej wirtualnej maszyny, ale w większości przypadków wiadomo, że problem związany jest np. z utratą pliku lub uszkodzeniem aplikacji, i w praktyce potrzebne jest odtworzenie tylko jednego elementu, a nie każde oprogramowanie do backupu i odtwarzania danych to umożliwia.


TOP 200