SDN w centrum danych

Tradycyjne podejście sprawiło, że sieci stały się zbyt skomplikowane i stanowią barierę dla rozwoju innowacji. Koncepcja Software Defined Network ma szansę całkowicie odmienić ten niekorzystny stan rzeczy. Wielu inżynierów sieciowych będzie musiało zmierzyć się z wdrożeniem tej technologii.

Po czasach maszyn typu mainframe oraz modelu klient-serwer nastała era wirtualizacji i cloud computingu. Efektem zachodzących zmian jest, m.in. przenoszenie coraz większej ilości zasobów do świata cyfrowego czy możliwość dostępu przez użytkowników, w szczególności mobilnych, z dowolnego urządzenia i z dowolnego miejsca do aplikacji. Dlatego sieci stały się krytycznym komponentem infrastruktury IT. Tradycyjnie budowane są w modelu rozproszonym, który pozwala zapewnić skalowalność i niezawodność. Takie podejście sprawiło, że obecnie środowiska sieciowe są zbyt skomplikowane, aby szybko i tanio wdrażać nowe usługi czy aplikacje, jak to jest możliwe w przypadku wirtualnych maszyn. Tymczasem biznes wymaga coraz większej elastyczności i efektywności usług IT. Stąd konieczność wdrożenia całkiem nowej koncepcji sieci – SDN (Software Defined Network).

Początki tej idei sięgają wczesnych lat 90-tych ubiegłego wieku, kiedy to firma Cabletron prowadził prace badawcze nad protokołem Secure VNS (Virtual Management Protocol), co doprowadziło do stworzenia rozwiązania SecureFast. Z kolei w segmencie dostawców usług rozwijano takie koncepcje, jak architektura IMS (IP Multimedia Systems) czy IN (Intelligent Network) przeznaczona do sieci trasmisji głosu TDM.

W dzisiejszych sieciach, aby spełnić jednoczesne wymagania dotyczące bezpieczeństwa, wirtualizacji, zarządzania i mobilność, promuje się koncepcję sieci sterowanej programowo (SDN). Ta architektura pozwala na szybkie dostarczanie nowych usług i aplikacji w coraz bardziej dynamicznym środowisku IT. Ogólnie, SDN separuje płaszczyznę kontrolną od płaszczyzny danych oraz dostarcza interfejsy i API pozwalające na scentralizowane zarządzanie siecią, zamiast konfigurowania poszczególnych, rozproszonych urządzeń. Nie ma jednej, dokładnej definicji SDN, dlatego w praktyce mamy do czynienia z różnymi typami i modelami wdrożeniowymi. W zależności od wymagań w danym przypadku najlepszym wyborem może być nieco inna architektura.

Separacja kontroli od danych

Centralizacja to jeden z kluczowych czynników, decydujących o biznesowym powodzeniu architektury SDN, ponieważ pozwala osiągnąć znaczną redukcję kosztów operacyjnych i kapitałowych. Tymczasem najbardziej dyskusyjną kwestią architektury SDN jest to, jak bardzo da się scentralizować płaszczyznę kontrolną oraz jak wydajnie mogą w tym modelu pracować poszczególne urządzenia sieciowe bez dodatkowego podsystemu kontrolnego.

Niestety historia pokazuje, że wprawdzie centralizacja płaszczyzny kontrolnej pozwala na uproszczenie architektury, ale takie podejście nie sprawdza się w konfrontacji z koniecznością dużej skalowalności w rzeczywistych zastosowaniach. Jest to wyjątkowo ważne w kontekście dzisiejszych sieci IP, w których liczba węzłów sieciowych i punktów końcowych stale rośnie, jak również zwiększa się ruch, którym miałby zarządzać scentralizowany system.

Dlatego eksperci, w tym sami producenci urządzeń, podkreślają, że w praktyce będziemy mieli do czynienia z modelem hybrydowym. Scentralizowane będzie zarządzanie topologią sieci, natomiast zarządzanie poszczególnymi przepływami danych będzie się odbywało już wewnątrz sieci. Takie podejście wydaje się konieczne, jeżeli ma być zachowana skalowalność sieci SDN.

Problem z przepływami

Ponieważ konfiguracje poszczególnych przepływów są bardzo szczegółowe i mogą zawierać parametry również warstwy aplikacji – jest to wskazane ze względów bezpieczeństwa – jakikolwiek scentralizowany system w dużej sieci byłby przeciążony konfigurowaniem milinów tych przepływów. Musiałby je przetwarzać i ewentualnie zmieniać ich parametry w przypadku wystąpienia błędów w połączeniu czy awarii urządzeń. Jeśli jednak scentralizować tylko proste operacje kontrolne, np. wytyczanie ścieżek pomiędzy podsieciami, wtedy koncepcja SDN ma szansę sprawdzić się w praktyce.

Ilustracja pokazuje liczbę nowych strumieni na jednego klienta. W przypadku wdrożenia wirtualizacji serwerów te liczby są od 10 do nawet 100 razy wyższe. Jeśli mówimy o niedużej serwerowni, w której działa 100 maszyn wirtualnych, liczba nowych strumieni, które trzeba obsługiwać w ramach sieci, wzrośnie z 10 do co najmniej 100 tysięcy. Wprawdzie urządzenia sieciowe bez problemu radzą sobie z takimi ilościami, jednak wiąże się to z inwestycją w bardziej wydajne modele. Jednocześnie w takich sytuacjach, jak awaria w sieci i konieczność wytyczenia nowych ścieżek, propagacji wirusa czy skanowania sieciowego liczba strumieni może dramatycznie wzrosnąć. W takiej sytuacji rozproszona warstwa kontrola – umieszczona lokalnie w każdym przełączniku - zarządza i skaluje się lepiej niż całkowicie scentralizowany system.

Kolejnym istotnym kryterium, które należy uwzględnić przed podjęciem decyzji o wdrożeniu SDN, są opóźnienia w przesyłaniu pakietów. W przypadku łączy o przepustowości 10 GB/s nie mogą przekraczać nanosekund, jeśli ma być utrzymana wydajność tego łącza. Po przeniesieniu kontroli przepływów w czasie rzeczywistym do centralnego punktu opóźnienia mogą wzrosnąć do nieakceptowalnych wartości.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200