Przełącznik w centrum danych

Przełącznik to podstawowy element sieciowy w centrum danych. Zapewnia komunikację sieciową, realizując połączenia serwerów czy pamięci masowych. Przedstawiamy najważniejsze metody łączenia przełączników w centrum danych, parametry oraz właściwości kilku przykładowych urządzeń.

W 1953 roku Charles Clos badacz Bell Laboratories opublikował dokument zatytułowany „A Study of Non-blocking Switching Networks”. Opisał w nim, w jaki sposób rozmowy telefoniczne mogą zostać przełączane przez sprzęt wykorzystujący wiele poziomów połączeń, w ramach zestawienia rozmowy. Technologia przełączania określona została nazwą crossbar. Wprowadzona architektura zawierała trzy poziomy połączeń – wejściowy, pośredni oraz wyjściowy. Ideą było zapewnienie wielu ścieżek do przesyłu rozmowy przez sieć telefoniczną co powodowało, że rozmowa nigdy nie mogła zostać zablokowana przez inną rozmową. Urządzenia przewidziane przez Closa pojawiły się w latach 90-tych XX wieku w postaci przełączników Ethernet. Przełączniki w centrach danych perfekcyjnie realizują założenia i idee Closa.

Jak działa przełącznik w data center

Dążenie do coraz mniejszych opóźnień prowadzi do tworzenia struktur sieci, coraz bardziej zbliżających się do architektury jednowarstwowej. Jeszcze kilka lat temu typowy system przełączników składał się z trzech warstw – przełączniki dostępowe były połączone z przełącznikami agregacji, które z kolei włączane były do przełączników szkieletowych. Architektura tego typu okazała się zbyt mało wydajna do zastosowania w nowoczesnych centrach danych. Coraz częściej przełączniki migrują do architektury dwuwarstwowej, a także jednowarstwowej. W wielu przypadkach grupa przełączników w ramach jednej warstwy jest połączona ze sobą wzajemnie, ale zarządzanie pozwala traktować wszystkie urządzenia jak pojedynczy przełącznik.

Zobacz również:

Trójwarstwowa architektura przełączników w centrach danych

Trójwarstwowa architektura przełączników w centrach danych

W tradycyjnie stosowanych rozwiązaniach przełączników wykorzystujących mechanizm STP (Spanning Tree Protocol) lub trasowanie w warstwie trzeciej, sieć zawsze wybiera jedną, najlepszą z możliwych, ścieżkę z zestawu alternatywnych tras. Cały ruch jest przesyłany przez tę ścieżkę aż do momentu, gdy napotka przeszkody w postaci zatorów wpływających na odrzucanie pakietów. Alternatywne ścieżki nie są wykorzystywane, ponieważ algorytm wskazuje je jako gorsze i usuwa w celu zapobiegania pętlom w sieci. Istnieje możliwość migracji z takiej topologii przy zachowaniu odporności na powstawanie pętli, a jednocześnie z możliwością wykorzystania wielu łącz alternatywnych. Zastosowanie metody ECMP (Equal Cost MultiPath) zwiększa wydajność, a sieć będzie bardziej odporna na awarie.

Mechanizmy nowoczesnych przełączników stosowanych w centrach danych umożliwiają wykorzystanie zestawu identycznych i niedrogich urządzeń do stworzenia drzewiastej i wysoko wydajnej, ale płaskiej architektury. W celu zapobiegania monopolizacji jednej ścieżki, ścieżka jest wybierana losowo, więc ruch jest dystrybuowany sprawiedliwe pomiędzy przełącznikami wyższego rzędu. Jeżeli jeden z przełączników wyższego rzędu ulegnie awarii, obniży się wydajność całego centrum danych, ale struktura będzie funkcjonowała prawidłowo. To doskonały przykład realizacji założeń Closa.

Architektury łączenia przełączników

Historyczną, ale nadal często spotykaną, jest trzypoziomowa architektura przełączników (three-tier). W tym modelu realizowany jest naturalny trzypoziomowy podział na przełączniki dostępowe, agregacyjne oraz szkieletowe. Nowoczesne centra danych wyposażone są jednak głównie w przełączniki dostępowe ToR (Top of Rack) oraz przełączniki szkieletowe. Przełączniki ToR są bezpośrednio przyłączone do serwerów czy pamięci masowych, natomiast z drugiej strony realizują połączenia do przełączników wyższego rzędu. W ten sposób tworzona jest niezwykle popularna architektura dwupoziomowa. Przełączniki ToR są określane często nazwą listków (ang. leaf), które zostają przyłączone do przełączników szkieletowych, określanych mianem gałęzi (spine). W ten sposób tworzona jest architektura leaf-spine. „Listki” nie są ze sobą połączone bezpośrednio, natomiast każdy z nich jest przyłączony do każdego przełącznika reprezentującego „gałąź”. W takiej architekturze ilość łącz dosyłowych z każdego przełącznika-listka jest równa liczbie przełączników reprezentujących gałęzie. Podobnie liczba łącz od „gałęzi” w kierunku „listków” jest identyczna co liczba przełączników-listków. Całkowita liczba połączeń jest liczbą „listków” zwielokrotnioną przez liczbę „gałęzi”.

Dwuwarstwowa architektura łączenia przełączników w Spine-Leaf

Dwuwarstwowa architektura łączenia przełączników w Spine-Leaf

W teorii Closa każdy niższy funkcjonalnie przełącznik jest przyłączony do każdego wyższego przełącznika w technologii pełnej sieci kratowej (fullmesh). Jeżeli nie istnieje nadsubskrypcja pomiędzy niższymi przełącznikami i ich łączami dosyłowymi, architektura nie pozwala na blokadę łączności. Architektura leaf-spine stanowi model dwuwarstwowy, w którym przełączniki dostępowe (spine) – do których przyłączone są serwery, pamięci masowe i inne elementy sieciowe centrum danych – łączą się z przełącznikami szkieletowymi (leaf). Każdy z węzłów szkieletowych łączy się z każdym węzłem dostępowym. Oznacza to, że pakiet danych na trasie do celu musi przejść przez najwyżej dwa „skoki”. W centrach danych popularna jest także architektura kratowa (mesh), która stanowi model jednowarstwowy. W tym rozwiązaniu każdy przełącznik jest połączony z każdym, ale cała grupa przełączników jest zarządzana jak jeden wirtualny przełącznik.

Istnieją także hybrydy opisanych architektur oraz wariacje. Architektura kratowa może pracować jako węzeł dostępowy (leaf) w architekturze leaf-spine lub węzeł szkieletowy (spine). Istnieć może także bezpośredni dostęp do pewnych zasobów serwerowych i pamięci masowych. Implementacja określonej technologii jest jednak zależna od zastosowań centrum danych oraz modelu wspieranego przez producenta danego rozwiązania. Trzeba mieć na uwadze, że decydując się na określone rozwiązanie danego producenta, trudno będzie „zmusić” do współpracy z nim urządzenia innego dostawcy, a nawet innej grupy produktów tej samej firmy.

Podstawowe parametry przełączników

Duże urozmaicenie narzędzi i platform wymaganych do wdrożenia przełączników w centrum danych to codzienny koszmar administratorów. Idealna platforma pozwala na zarządzanie z jednego miejsca kompletną infrastrukturą z możliwością tworzenia oraz zarządzania strukturą przy minimalnym narzucie architektury (three-tier, leaf-spine, spline, mesh). Dostawcy oferują możliwość rekonfiguracji i zarządzania bez konieczności przeładowania (wyłączenia i włączenia) przełącznika. A, jak wiadomo, w centrach danych każda funkcja umożliwiająca pracę bez przerw jest wysoce pożądana.

Architektura łączenia przełączników full-mesh

Architektura łączenia przełączników full-mesh

Kluczowym elementem sieci nowych generacji jest integracja infrastruktury fizycznej, jak i wirtualnej, rozszerzenie sieciowych zasobów programowych o sieci zdefiniowane programowo (SDN) oraz mechanizmy zarządzania prywatną chmurą. Przełączniki mogą wspierać integrację sieci wirtualnych poprzez VLAN/VXLAN. Poprzez mostowanie wirtualnych sieci do fizycznych, przełączniki mogą znakomicie zwiększać wydajność i bezpieczeństwo sieci wirtualnych. Automatyzacja konfiguracji sieci w ramach przełączników powinna być wspierana przez znane mechanizmy, przykładowo OpenFlow. OpenFlow jest protokołem komunikacji, który umożliwia interakcję pomiędzy kontrolerem SDN (Software Defined Networks) a funkcjami przekazywania pakietów w przełączniku.

VLT jest protokołem agregacji łacz w warstwie drugiej pomiędzy urządzeniami końcowymi (serwerami) a przełącznikami dostępowymi. VLT pozwala zapewnić serwerom redundancję połączeń sieciowych, balansowanie ruchem, eliminuje potrzebę stosowania mechanizmó STP (Spanning-Tree Protocol). Alternatywne mechanizmy LAG/LACP zapewniają podobne możliwości, ale w ramach kilku fizycznych połączeń do tego samego przełącznika. VLT pozwala realizować takie połączenia pomiędzy serwerem a kilkoma różnymi przełącznikami. Podobną właściwość do VLT oferują protokoły MC-LAG (Multi-Chassis LAG) oraz Cisco VPC (Virtual Port Channel).

Coraz więcej przełączników pozwala na instalację alternatywnego oprogramowana (firmware). Przykładem projektu, który umożliwia instalację nowego środowiska dla przełączników jest ONIE (Open Network Install Enviromant). ONIE oferuje instalator sieciowych systemów operacyjnych, wykorzystywany do uruchomienia na przełącznikach alternatywnych sieciowych systemów operacyjnych. OINE jest niewielkim systemem operacyjnych bazującym na Linuksie, który uruchamia się na przełączniku sieciowym, wyszykuje dostępne obrazy instalacyjne OS dla przełącznika w sieci lokalnej, następnie transferuje obraz do przełącznika, aby ostatecznie stworzyć środowisko umożliwiające uruchomienie nowego OS (Operation System) na przełączniku.