Przełączniki dla centrów danych

Opóźnienia - specyfikacje a rzeczywistość

Przeglądając specyfikacje techniczne dołączane do przełączników, można zauważyć, że podawane w nich parametry odbiegają nieraz od tych, które można zmierzyć po uruchomieniu testu. Dotyczy to np. opóźnień i fluktuacji opóźnień. W rzeczywistości były one często nieco większe niż podaje producent. Dlaczego tak się dzieje?

Przełączniki dla centrów danych
Wiele zależy od tego, jak przeprowadzane są testy. Producent mierzy często opóźnienia i ich fluktuacje, przesyłając pakiety tylko między jedną parą portów. Dokument RFC 2285 (opisujący metody testowania przełączników) definiuje taką konfigurację jako non-meshed. Opóźnienia mogą być wtedy mniejsze niż w sytuacjach, które mają miejsce w rzeczywistym świecie, gdy pakiety są przesyłane między dwoma przypadkowo dobranymi parami portów.

Istnieje jeszcze druga przyczyna. Producent może podawać opóźnienia, mierząc je na samych portach (czyli nie biorąc pod uwagę opóźnień, które występują również w obszarze okablowania czy transceiverów). W testach używano krótkich kabli o długości 1 m, który wprowadza dodatkowe opóźnienie rzędu 10 nanosekund.

W stronę wirtualizacji

Urządzenia oferują wiele opcji wspomagających wirtualizowanie serwerów. Przełącznik firmy Arista oferuje funkcję Virtualized EOS (vEOS), dzięki której administrator ma wgląd w wirtualną infrastrukturę przełączania i może przeglądać wiele ustawień systemu operacyjnego EOS (Extensible Modular Operating), związanych z wirtualnymi serwerami. Jedną z ciekawszych opcji jest tu ISSU (In Service Software Upgrades).

Przełączniki dla centrów danych
Firma Blade wprowadziła do swojego przełącznika dwie opcje dotyczące wirtualizowania serwerów: VMReady i vNIC. Dzięki pierwszej przełącznik może obsługiwać wirtualne maszyny, kontrolować reguły (VLAN, ACL, QOS) i przenosić je razem z wirtualnymi maszynami, wtedy gdy te są przesuwane z jednego fizycznego serwera na inny. Opcja vNIC korzysta z usług karty sieciowej Ethernet 10 Gb/s i buduje za jej pomocą cztery wirtualne połączenia. Każde z nich jest postrzegane przez system operacyjny zarządzający serwerem jako oddzielna karta sieciowa, której przepustowością można sterować (zwiększając ją lub zmniejszając o kolejne 100 Mb/s).


TOP 200