Wirtualizacja - elementy skutecznego wdrożenia

Serwery, w których występuje duża liczba operacji wejścia/wyjścia (I/O), nie poddają się łatwo wirtualizacji. Szacuje się, że na obsługę ruchu 10 Gb Ethernet potrzebna jest moc jednego rdzenia, ponadto powstaje w systemie dodatkowe opóźnienie - co jest krytyczne w przypadku baz danych. Obecnie istnieją już jednak rozwiązania, które sprzętowo wspierają wirtualizację I/O, dzięki którym nie są generowane dodatkowe opóźnienia i obciążenie rdzenia.

Wirtualizacja najlepiej sprawdza się w obsłudze wewnętrznych aplikacji webowych, takich jak CRM i ERP, które nie konsumują, a wręcz marnują zasoby obliczeniowe maszyny, na której są zainstalowane.

Zobacz również:

Kiedy zupełnie wykluczyć wirtualizację?

Wtedy, gdy używane oprogramowanie charakteryzuje się mało elastycznym sposobem licencjonowania lub korzysta ze specyficznych urządzeń sprzętowych (np. moduły szyfrujące czy klucze ograniczające dostęp). Takie dodatkowe elementy sprzętowe nie są obsługiwane w wirtualnych serwerach.

Plan wdrożenia

Przy planowaniu wirtualizacji należy opracować strategię oraz dobry plan wdrożeniowy. Nie warto kierować się stereotypami, ale dążyć do uzyskania ściśle określonych celów. Jeżeli celem jest podniesienie niezawodności i skrócenie czasu odtwarzalności systemu, czy też szybkości powołania usługi do życia, efektywność wykorzystania zasobów może mieć drugorzędne znaczenie. Nie należy więc za wszelką cenę dążyć do uzyskania wszystkich korzyści z wirtualizacji, w sytuacji, gdy nie jest to niezbędne, albo zwyczajnie nie jest możliwe. Trzeba skoncentrować się na niezbędnych do osiągnięcia celach w ramach naszej organizacji i sprawdzić, czy są możliwe do spełnienia.

Korzyści z wirtualizacji zazwyczaj skalują się wraz z wielkością środowiska - im więcej serwerów, tym większe oszczędności. Wirtualizacja realizowana w inteligentny sposób może dostarczyć korzyści przekraczające koszty nawet w przypadku małych środowisk SMB (do kilku serwerów), ale wymaga zastosowania odpowiednich komponentów. Może nie przynieść wystarczających korzyści w bardzo specyficznych przypadkach, np. przy stosunkowo dużym stopniu wykorzystania zasobów obecnego środowiska, gdzie nie będzie zauważalnej konsolidacji lub szerokiego zastosowania innych architektur systemowych i konieczności całkowitego przepisania aplikacji. W każdym przypadku należałoby się jednak posilić dokładniejszą analizą ekonomiczną takiej inwestycji.

W średnich i dużych przedsiębiorstwach należałoby zacząć od inwentaryzacji stanu obecnego infrastruktury IT oraz jej analizy pod kątem wirtualizacji. W małych firmach można ten etap pominąć. Wynik takiej analizy może posłużyć do przygotowania architektury docelowej środowiska i przeprowadzenia analizy ekonomicznej inwestycji.

Opierając się na najnowszych rozwiązaniach sprzętowych oraz programowych trzeba odpowiednio zaplanować wirtualizację - nie należy jej wykluczać, bo elastyczne wykorzystanie zasobów to tylko jedna z jej zalet. W dalszym ciągu zapewni ona takie zalety, jak większa szybkość przygotowywania i startowania środowiska dla aplikacji czy ułatwione tworzenie kopii zapasowych i zrzutów pełnych kopii systemów.

Kolejny fakt, na który zwracają uwagę specjaliści, to ewolucja narzędzi służących do wirtualizacji. Nowe wersje hiperwizorów oraz rozwiązań sprzętowych (procesorów, pamięci masowych, systemów wirtualizacji sieci) powodują, że wirtualizacja rozwiązuje coraz więcej problemów i ma coraz szersze pole zastosowania.

Ważne, aby nie traktować wirtualizacji jako pojedynczego projektu, ale jako koncepcję dotyczącą przyszłej architektury systemów IT w ramach przedsiębiorstwa. Stanowi ona duży krok na drodze transformacji tradycyjnego centrum przetwarzania danych do nowoczesnego modelu usługowego chmury obliczeniowej, czy to w wydaniu publicznym, czy prywatnym, a także hybrydowym.


TOP 200