Wirtualizacja: obsługa SMB na czterech U

Wnioski z tego eksperymentu są takie, że można z powodzeniem uruchomić dość wydajne środowisko wirtualizacyjne na serwerach o niezbyt wyśrubowanych parametrach, opartych na niedrogich procesorach z nie najwyższej półki i jeszcze mieć sporo miejsca na rozwój. Kiedy planuje się serwery dla nowych projektów wirtualizacji, kuszące jest wybieranie najmocniejszych, najlepszych, najszybszych CPU w celu zapewnienia dostatecznej wydajności infrastruktury na przyszłość. Teoretycznie, najnowsze, najszybsze z dostępnych procesory będą mieć dłuższy użyteczny czas życia niż tańsze, wolniejsze CPU, jednak zwrot z takiej inwestycji nie zawsze będzie taki, jakiego się spodziewamy.

Polecamy Wirtualizacja i cloud computing przyszłości

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT
  • Powstał serwer chłodzony cieczą do obsługi aplikacji AI

Znacząca liczba wirtualizowanych infrastruktur używa dużo mniej zasobów CPU niż inne rozwiązania. Intensywnie wykorzystują one RAM, ale pamięć nie jest droga i łatwo ją rozbudować. Wydawanie pieniędzy na RAM i szybsze dyski prawie zawsze daje lepsze rezultaty niż inwestowanie w najszybsze procesory dostępne na rynku.

Tym co może w tej testowej infrastrukturze wirtualizacyjnej budzić pewne obawy jest kwestia redundancji. Utrzymywanie w całej infrastrukturze firmy jedynie dwóch fizycznych serwerów wydaje się zbyt ryzykowne, ale w praktyce, z mechanizmami rozkładania obciążeń (load balancing) i HA (high-availability) obecnymi w dzisiejszych rozwiązaniach wirtualizacji, dopiero jednoczesna awaria dwóch serwerów mogłaby unieruchomić nasze środowisko.

Polecamy VDI - nie tylko dla dużych firm

Jeżeli jest to problemem, to zamiast zwiększać RAM w istniejących serwerach zawsze można rozbudować klaster o jeden lub dwa serwery. Podstawowa pamięć masowa w tym wypadku może nie mieć redundantnych kontrolerów, ale ma za to redundancję zasilania, a na dodatkowej pamięci masowej (u nas był to QNAP) wykonywane są regularne backupy, za pomocą prostego rsync.

Polecamy Rynek wirtualizacji: konkurencja coraz większa

Przedstawione rozwiązanie nie było "dostrajane" pod jakikolwiek profil przetwarzania, a jedynie pod uśrednione potrzeby małego lub średniego biznesu. Jednak z pewnością warto się zastanowić nad faktem, że koszt tych wszystkich komponentów nie przekracza kilkudziesięciu tys. zł a z powodzeniem obsłuży znaczącą liczbę użytkowników.


TOP 200