Platforma skomasowana

W ciągu najbliższych lat platformy sieciowe zmienią się nie do poznania. Będą "mądrzejsze", bardziej niezawodne, wydajniejsze, a przede wszystkim uniwersalne.

W ciągu najbliższych lat platformy sieciowe zmienią się nie do poznania. Będą "mądrzejsze", bardziej niezawodne, wydajniejsze, a przede wszystkim uniwersalne.

Platformy sieciowe nieustannie integrują w sobie coraz więcej funkcji. Wśród rozwiązań dla średnich i dużych firm próżno dziś szukać urządzeń, które spełniają funkcje li tylko przełączników sieciowych czy routerów. Przyszłość należy do zintegrowanych platform wieloprotokołowych i wielousługowych.

W związku z pełnieniem przez urządzenia sieciowe coraz bardziej wysublimowanych funkcji, zmieniać się będzie ich architektura wewnętrzna - zarówno sprzętowa, jak i programowa. Wiele zmian w budowie urządzeń, ale także w topologii całych sieci, zajdzie na skutek upowszechnienia się tanich technologii światłowodowych i bezpiecznych technologii radiowych. Równolegle z postępującą integracją urządzeń sieciowych obserwować będziemy lepszą koordynację w sieciach z natury rozproszonych.

Nastąpi wzrost "samoświadomości" urządzeń i całych sieci, które będą wzajemnie koordynować swoje działania w różnych warstwach. Co oczywiste, wzrośnie stopień wymiany informacji pomiędzy warstwami logiki - coś, co do tej pory było słabą stroną rozwiązań nastawionych na optymalizację w jednej tylko warstwie. Jeśli dodać do tego integrację rozwiązań sieciowych z aplikacjami, powstanie zupełnie nowa jakość.

Router z przyległościami

Router już dziś nie jest tylko routerem. W wielu przypadkach jedno urządzenie mieści w sobie funkcjonalność routera, zapory sieciowej, sprzętowo wspomaganej bramy VPN, sondy IDS/IPS, translatora adresów (NAT), serwera RADIUS, filtra treści. Router, z wewnętrzną strefą DMZ, stał się tak naprawdę wydzieloną, wydajną podsiecią realizującą określone usługi dla innych, podłączonych do niego sieci. W przyszłości tej funkcjonalności będzie tylko przybywać.

Oprócz relatywnie prostego routingu opartego na "skokach" i dostępnym paśmie rosnąć będzie rola routingu opartego na regułach ustalanych na potrzeby - lub zgoła przez - określonych aplikacji lub usług, za pośrednictwem odpowiednich wywołań API. W efekcie funkcje, związane z rezerwacją mocy obliczeniowej, operacji I/O, pasma itd., będą z biegiem czasu - podobnie jak w serwerach - coraz bardziej szczegółowe i elastyczne, a przy tym dynamicznie zmienne w zależności od aktualnych potrzeb, zawartości umów SLA itp.

To samo dotyczyć będzie ruchu w sieciach lokalnych LAN. Można założyć, że platforma sieciowa automatycznie przydzieli komunikującym się stronom tymczasową podsieć VLAN, w której ruch będzie szyfrowany tymczasowym kluczem sesyjnym. Zanim jednak do tej komunikacji dojdzie, działający na platformie przełącznika moduł IDS/IPS ustali tożsamość urządzeń i użytkowników na kilka niezależnych sposobów oraz sprawdzi, czy komunikacja między nimi w ogóle jest dozwolona.

Wielce prawdopodobne, że w ramach owej uniwersalnej platformy sieciowej zintegrowana będzie logika sterująca z równolegle działającymi radiowymi sieciami dostępowymi. Stacje bazowe WLAN podłączone światłowodami do urządzenia-szkieletu sieci będą jedynie końcówkami radiowymi - cała logika zarządzania użytkownikami, ruchem, pasmem i bezpieczeństwem odbywać się będzie na platformie sieciowej.

Urządzenie = sieć

Wraz ze wzrostem roli sieci i spełnianych przez nią funkcji rosnąć będzie nacisk na utrzymanie wydajności komunikacji. Wysoka wydajność jest możliwa przede wszystkim w ramach jednego urządzenia, co przy dzisiejszych konstrukcjach jest raczej nie do utrzymania. Jeśli jednak działające w laboratoriach przełączniki optyczne trafią pod strzechy, a koszty budowy elementów laserowych spadną...

Może się okazać, że najprostszym sposobem budowy sieci przyszłości jest jej agregacja w jednym megaurządzeniu, do którego - bezpośrednio, za pomocą światłowodów - podłączone zostaną wszystkie komputery w firmie - nawet w sieci MAN czy WAN. To nie mrzonka - światłowody nie mają ograniczeń zasięgu charakterystycznych dla sieci miedzianych. Zarządzanie siecią zostałoby ponadto uproszczone, a jej zabezpieczenie na wypadek awarii sprowadzałoby się do zdwojenia "centralnego urządzenia sieciowego".

Owo urządzenie, jeśli powstanie, będzie obsługiwać wszystkie ważniejsze protokoły warstwy drugiej, które można będzie uruchamiać wprost na platformie optycznej. Na jednej platformie działać więc będą urządzenia korzystające z Ethernetu i TCP/IP, ale także Fibre Channel, Frame Relay, ATM itd. Transformacja ruchu między różnymi protokołami odbywałaby się w takich warunkach wydajnie i bezpiecznie.

Dostępność, rzecz pewna

Rosnące uzależnienie środowiska aplikacyjnego od dostępności usług sieci prowadzić będzie do zwiększenia odporności platform na zdarzenia losowe, jak awaria komponentu, błąd pamięci itp. Z tego względu już dziś zdwajane są np. zasilacze, ale trend ten obejmie wkrótce więcej elementów platform sieciowych. Coś, co dziś oferowane jest jako rozwiązanie wysokiej dostępności, stanie się już niedługo czymś zupełnie normalnym, standardowym.

Swój udział w tej transformacji będzie mieć oprogramowanie wirtualizacyjne działające w warstwie sprzętowej, czy to w wydaniu Intela, czy też AMD lub IBM - router to komputer, tyle że ograniczony funkcjonalnie. Usługa działająca na wydzielonej maszynie wirtualnej, połączonej w klaster z jedną lub większą liczbą takich samych usług w klaster równoważący obciążenie, będzie znacznie bardziej dostępna niż usługa działająca w tradycyjnym środowisku.

Wirtualizacja stanie się powszechna, ponieważ ułatwi utrzymanie dostępności przez przezroczyste dla użytkowników migrowanie usług między komponentami podlegającymi wymianie. Ogłoszona właśnie przez VMware decyzja o przekazaniu kodu ESX Server środowisku open source znacząco przyspieszy proces wirtualizacji usług na platformach sieciowych - znacznie bardziej, niż dążenie dostawców do upodabniania systemów operacyjnych urządzeń sieciowych do "normalnych" systemów operacyjnych.

Grunt to samokontrola

Wzrost funkcjonalności platform sieciowych prowadzi wprost do wzrostu komplikacji ich wewnętrznej architektury, a to pachnie kłopotami. Aby wszystko działało prawidłowo, bezpiecznie i niezawodnie, konieczne będzie monitorowanie działania całego środowiska. W pierwszym rzędzie będzie to jednak samokontrola urządzeń, polegająca na wykrywaniu wczesnych symptomów potencjalnych awarii i usuwaniu ich przyczyn, zanim wystąpi problem. Wirtualizacja bardzo w tym pomoże, jako że nieprawidłowo działający kod będzie można po prostu wyłączyć i uruchomić ponownie.

Kontrola stanu w czasie rzeczywistym, polegająca na generowaniu różnego typu danych i metadanych oraz ich analizie, będzie kluczowym elementem zachowania bezpieczeństwa całego środowiska informatycznego. Równie ważne będzie jednak współdzielenie informacji z platformy sieciowej z informacjami o zdarzeniach zachodzących w innych środowiskach, np. w serwerach czy w systemach pamięci masowych. Wzrośnie rola rozwiązań koordynujących dystrybucję polityk bezpieczeństwa, wysyłki logów, automatycznych procedur dostępowych itp.

Wszystko to będzie musiało wydajnie współdziałać - bez względu na specyfikę sprzętową czy systemową poszczególnych elementów składowych. Współdziałanie i wymiana informacji konieczne będzie także pomiędzy warstwami logiki, co na razie nie jest bardzo rozpowszechnione w rozwiązaniach sieciowych. Motorem takiej integracji będzie oczywiście bezpieczeństwo, ale przy okazji usprawniona zostanie optymalizacja wydajności czy zarządzanie ruchem.

Aplikacje zmienią wszystko

Prawdziwym wyzwaniem dla platform sieciowych będzie integracja z protokołami aplikacyjnymi. Innej drogi nie ma, tylko bowiem w ten sposób urządzenia sieciowe mogą zyskać większą użyteczność. Wyzwanie jest jednak szczególne, o ile bowiem w sieciach liczba protokołów czy usług jest ograniczona, o tyle w warstwach aplikacyjnych zarówno liczba protokołów, jak i stopień ich skomplikowania gwałtownie rosną.

W praktyce nie obędzie się bez przekształcenia oprogramowania urządzeń sieciowych w platformy aplikacyjne z jasno sprecyzowanymi interfejsami API, do których odwoływać się będą aplikacje. Czy dojdzie w ten sposób do ponownej integracji urządzeń sieciowych z serwerami? Raczej nie, ale można przypuszczać, że powstaną - w liczbie znacznie większej niż dotychczas - moduły rozszerzeń zawierające własne systemy operacyjne, realizujące wąsko określone zadania aplikacyjne.

Strumień prosto z platformy

Wiele systemów w ramach jednej platformy oznaczać będzie dużo danych. Jakkolwiek sporo z nich będzie wykorzystywanych tylko przez chwilę, część będzie wymagać trwałego zapisu - czy to w celach zgodności z przepisami, czy też na potrzeby ewentualnego ustalania stanu faktycznego w ewentualnym śledztwie. Danych może być naprawdę dużo - zasadnie jest przypuszczać, że coraz więcej urządzeń sieciowych będzie wyposażanych w twarde dyski.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200