Wirtualizacja serwerów staje się standardem

Ponad połowę nowych serwerów włączonych do pracy w 2009 r. będą stanowiły jednostki wirtualne - twierdzą analitycy TheInfoPro. Za trzy lata odsetek ten ma sięgnąć 80%. Popytowi na rozwiązania wirtualne będzie towarzyszył dynamiczny wzrost zapotrzebowania na kolejne wersje "hypervisorów", umożliwiające pracę wielu systemów operacyjnych na jednej, fizycznej maszynie.

Czynnikami zachęcającymi do częstszego sięgania po techniki wirtualizacji serwerów są niewątpliwie rosnące zaawansowanie tej technologii i jej dojrzałość. Popularyzacji sprzyja także kryzys ekonomiczny, który zmusza do cięcia kosztów inwestycyjnych również w obszarze IT, co niewątpliwie zachęca do działań zmierzających do optymalizacji już posiadanej infrastruktury, a to właśnie obiecuje wirtualizacja.

Według badań TheInfoPro przeprowadzonych wśród profesjonalistów IT ze 195 korporacji z grupy Fortune 1000, 10% z nich już wykorzystuje w swoich systemach ponad 1000 maszyn wirtualnych, a prawie połowa przyznaje, że w ich firmie zainstalowanych jest więcej niż 100 takich serwerów.

W roku 2008 ok. 30% nowych serwerów stanowiły jednostki wirtualne, prognozy na rok bieżący mówią już o ponad 50%, a w 2012 r. liczba wirtualnych serwerów ma osiągnąć poziom 80% wszystkich instalowanych komputerów. Jak sądzą analitycy TheInfoPro, spowoduje to nasycenie rynku - pozostałe 20% będą stanowiły wydajne, fizyczne serwery, w których zastosowanie wirtualizacji nie daje korzyści. W niektórych aplikacjach fizyczne komputery są bowiem konieczne, np. do zapewnienia szybkiej łączności w aplikacjach czasu rzeczywistego czy wyszukiwania i aktualizacji zestawów rekordów w bazach danych (szczególnie w instytucjach finansowych).

Popularyzacja technologii wirtualizacyjnych istotnie wpływa na technologie serwerowe. Z jednej strony producenci procesorów już od kilku lat zaczęli opracowywać i wprowadzać do układów mechanizmy sprzętowo-programowego wspomagania wirtualizacji, takie jak technologia Intel VT w procesorach Xeon czy AMD V zaimplementowana w układach Opteron.

Zmienia się również architektura serwerów - komputery przeznaczone do pracy w systemach zwirtualizowanych z reguły wymagają istotnego zwiększenia dostępnej pamięci RAM oraz przepustowości interfejsów I/O w porównaniu z serwerami klasycznymi.

Jednym z największych problemów jest jednak niezawodność. Awaria serwera obsługującego jedną aplikację może być poważnym problemem, ale wstrzymanie pracy maszyny udostępniającej kilka lub kilkadziesiąt ważnych dla funkcjonowania przedsiębiorstwa aplikacji może oznaczać katastrofę. Choć wirtualizacja udostępnia mechanizmy umożliwiające przenoszenie lub odtwarzanie maszyn wirtualnych w razie awarii elementów sprzętowych, to zmniejsza to wydajność systemu IT oraz wymaga utrzymywania zapasowych zasobów. Stoi to, przynajmniej częściowo, w sprzeczności z ideą maksymalnego wykorzystania udostępnianej przez serwery mocy przetwarzania, która jest jedną z najczęściej podkreślanych zalet wirtualizacji.

W efekcie można oczekiwać, że wzrost popularności technologii wirtualizacyjnych spowoduje zwiększenie popytu na komputery wyższej klasy, zapewniające większą niezawodność działania niż standardowe, tanie serwery sprzedawane na rynku masowym.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200