Wirtualizacja - czy zawsze skuteczna?
- Paweł Szczepaniak,
- 10.05.2012, godz. 09:00
W większości przypadków zastosowanie wirtualizacji znacząco przyczynia się do ograniczenia kosztów oraz podwyższenia niezawodności i elastyczności środowiska IT, dzięki konsolidacji środowiska informatycznego - serwerów, sieci oraz pamięci masowych. Nie wszędzie jednak wirtualizacja okazuje się skutecznym panaceum. Specjaliści podpowiadają, gdzie i kiedy jej wdrożenie nie przynosi oczekiwanych efektów.
Uniwersalność wirtualizacji powoduje, że rośnie grono jej zwolenników. Do środowisk wirtualnych przenoszą się (lub planują to zrobić) niemal wszyscy - od wielkich korporacji po małe firmy, licząc na zyskanie oszczędności oraz uelastycznienie własnej infrastruktury IT. Są jednak przypadki, w których projekt przejścia do wirtualnych maszyn, sieci i pamięci masowych jest mniej efektywny. Rozsądne planowanie - podobnie jak przy innych projektach informatycznych - jest tu kluczem do końcowego sukcesu.
Duże obciążenie - mały zysk
W sytuacji, gdy w naszym środowisku IT mamy aplikacje wykorzystujące zasoby fizyczne na wysokim poziomie (w granicach 70-80%), zastosowanie wirtualizacji może nie przynieść spodziewanych rezultatów w zakresie elastycznego wykorzystywania zasobów. Z taką sytuacją mamy do czynienia w przypadku wielotransakcyjnych baz danych czy systemów bilingowych, które bardzo mocno wykorzystują zarówno moc procesora, pamięć masową, jak i połączenia sieciowe.
Zobacz również:
Polecamy Cztery kroki do dobrego backupu
Serwery z dużą liczbą operacji wejścia/wyjścia (I/O) nie poddają się łatwo wirtualizacji. Szacuje się, że na obsługę ruchu 10G Ethernet potrzebna jest moc jednego rdzenia, ponadto powstaje w systemie dodatkowe opóźnienie, co jest krytyczne w przypadku baz danych. Obecnie dostępne są już jednak rozwiązania, które sprzętowo wspierają wirtualizację I/O, dzięki którym nie są generowane dodatkowe opóźnienia i obciążenie rdzenia.
Polecamy Przestoje w sieci firmowej są... dobre?
Bardzo istotne jest także zaplanowanie odpowiedniej wielkości pamięci dla serwera, który wirtualizujemy - od szybkości dostępu do pamięci zależy w dużej mierze szybkość działania poszczególnych maszyn. "Aby utrzymać krótki czas odpowiedzi aplikacji, wykorzystać wiele rdzeni i jednocześnie podnieść ich utylizację - trzeba zapewnić dużą ilość pamięci operacyjnej. Rozmiar pamięci fizycznej maszyn może być ograniczeniem dla ilości maszyn wirtualnych, które możemy obsłużyć. Inaczej możemy się spodziewać potem niewielkiej utylizacji, lub dociążenia maszyn, ale ze znacznie zmniejszonym czasem odpowiedzi" - uważa Grzegorz Dobrowolski, Business Development Manager z Cisco Systems Poland.