Okablowanie w nowym centrum danych

Natomiast wirtualizacja wykorzystuje inną koncepcję architektury systemu. Choć jego budowa też zaczyna się od fizycznego serwera-hosta, ale najpierw instalowane jest w nim oprogramowanie wirtualizacyjne - hiperwizor. Choć oprogramowanie wirtualizacyjne oferowane przez wielu producentów różni się w szczegółach, ale w ogólności opiera się na tej samej zasadzie - umożliwia utworzenie wielu maszyn wirtualnych VM (wirtualnych serwerów) na jednym fizycznym hoście. Każda z nich współdzieli zasoby fizycznego komputera. Oznacza to, że jeśli któraś z maszyn VM nie korzysta w danym momencie z procesora, pamięci RAM lub karty sieciowej, to inne mogą skorzystać ze zwolnionych przez nią zasobów.

Wirtualizacja jest obecnie powszechnie stosowana w centrach danych, bo pozwala na zwiększenie efektywności systemu. Wynika to zarówno z możliwości jego konsolidacji (zmniejszenie liczby niezbędnych elementów sprzętowych), jak i bardziej efektywnego zużycia energii (lepszego stosunku mocy przetwarzania do pobieranej mocy). A jednocześnie większość urządzeń takich jak klimatyzatory lub zasilacze UPS ma wyższą efektywność energetyczną podczas pracy z wydajnością zbliżoną do maksymalnej.

Zobacz również:

  • Strategiczna współpraca NTT DATA Business Solutions i Beyond.pl

Kablowe konsekwencje wirtualizacji

Wdrożenie technologii wirtualizacji serwerów w szczególności istotnie zwiększa wymagania na przepustowość infrastruktury sieciowej. Wynika to głównie z dwóch powodów.

Z jednej strony zwiększenie wykorzystania zasobów fizycznego hosta oznacza, że obsługuje on więcej aplikacji i w większym stopniu niż klasyczny serwer wykorzystuje dostępną moc przetwarzania. Proporcjonalnie do wzrostu wykorzystania zasobów fizycznego serwera, z reguły rośnie zapotrzebowanie na wymianę danych z systemami zewnętrznymi lub innymi serwerami czy pamięciami masowymi funkcjonującymi w systemie.

Jeśli na przykład trzy fizyczne serwery, których zasoby są obciążone na poziomie 30%, a każdy wykorzystuje przepustowość sieci 4 Gb/s, zostaną zwirtualizowane i skonsolidowane w jednym hoście fizycznym o podobnych parametrach, oznacza to, że serwer ten zostanie obciążony w 90%, ale jednocześnie będzie musiał zapewnić przynajmniej 12 Gb/s wydajności interfejsów sieciowych.

Chyba każdy specjalista projektujący centra danych, od razu zauważy tu problem. Typowy serwer, który jest lub może być wyposażony w dwa interfejsy Ethernet 10 Gb/s nie będzie mógł pracować w takim systemie, jeżeli tylko wymagana jest redundancja połączeń sieciowych.

Z drugiej strony trzeba sobie zdawać sprawę, że samo oprogramowanie wirtualizacyjne wprowadza dodatkowe wymagania na przepustowość sieci. Przede wszystkim jest to związane z jego zaawansowanymi funkcjami takimi, jak mechanizmy zapewniające wysoką dostępność, odporność na awarie oraz możliwość migracji maszyn wirtualnych między fizycznymi hostami bez przerywania ich pracy.

Funkcje te wykorzystują sieć do transmisji danych i plików często o dużej objętości, co zmniejsza pasmo dostępne dla usług i aplikacji działających w systemie. Może to istotnie zmniejszyć jego wydajność, zwłaszcza w sytuacji, gdy pojawi się awaria i mechanizmy wirtualizacyjne przystąpią do przenoszenia i odtwarzania wielu maszyn wirtualnych jednocześnie.

Dlatego też, projektując centrum danych intensywnie wykorzystujące wirtualizację trzeba z założenia przyjąć, że wydajność interfejsów sieciowych praktycznie każdego hosta musi zostać istotnie zwiększona. Trudno jednoznacznie powiedzieć o ile, ale jak wynika z praktyki, w wielu istniejących środowiskach zwirtualizowanych centrów danych, wymagania na przepustowość już przekroczyły standardowe 10 Gb/s na hosta.

Nawet jeśli tak nie jest, to warto przewidywać możliwy wzrost wymagań na przepustowość i w wielu wypadkach rozważyć możliwość zastosowania systemu okablowania zapewniającego pasmo przenoszenia 40 Gb/s, a w perspektywie być może także 100 Gb/s. Bo wymiana infrastruktury sieciowej jest kosztowna.


TOP 200