Nie wyrzucajmy routerów

I tu widać wyraźną różnicę w przeznaczeniu przełączników realizowanych w technologii LAN switching i ATM switching. Stosując przełączniki ATM, zakłada się, że sieć tworzona jest z wielu przełączników połączonych liniami komunikacyjnymi o określonej, ograniczonej przepustowości. Przełączniki ATM muszą zapewnić najszybsze z możliwych i odporne na gubienie pakietów połączenie przez całą sieć. Dlatego przełączniki ATM wyposażane są w duże bufory danych.

W przypadku przełączników pracujących w sieci lokalnej (często na poziomie grup roboczych) niewielkie znaczenie przywiązuje się do przepustowości sieci (jest ona zazwyczaj bardzo duża) i zagadnień związanych z zarządzeniem ruchem sieciowym. Powoduje to, że przełączniki wyposażone są w bufory o wiele mniejsze niż przełączniki ATM.

Problem przeciążenia

Dane przesyłane są do stacji docelowej opartej na adresie MAC (w LAN switchingu) lub wskaźniki Virtual Channel/Virtual Path (ATM switching). Jeśli przez wyjściowy port o przepustowości 10 Mb/s urządzenie próbuje "wyprowadzić" 20 Mb/s, to nie wszystkie dane będą wysłane. W przypadku przełączników z dużymi buforami dane przetrzymywane będą w buforze czekając na zmniejszenie ruchu sieciowego. Jeśli jednak bufor jest zbyt mały lub nie nastąpi zmniejszenie ruchu, przełącznik będzie musiał usunąć nie przesłane dane. Czy zatem usuwanie danych nie przesłanych przez porty wyjściowe przełączników jest rozwiązaniem złym? Wszak w sieciach LAN opartych na technologii współdzielonego dostępu kolizje są zjawiskiem nagminnym, a w sieciach ATM komórki są usuwane często.

W sieciach Ethernet, gdy dwie stacje podczas próby nadania informacji kolidują, obie "wyczuwają" kolizję. Definicja detekcji kolizji zawarta jest w nazwie standardu, według którego te sieci są budowane (CSMA/CD - CD oznacza colission detection). W przypadku konfliktu w sieci obie stacje odczekają losową liczbę mikrosekund i ponownie rozpoczną nadawanie. Losowość wyboru czasu retransmisji danych powoduje, że istnieje małe prawdopodobieństwo ponownej kolizji (oczywiście, o ile sieć nie składa się z dużej liczby komputerów). W przypadku przełączników sieci LAN problem jest bardziej złożony. Port przełącznika, do którego przyłączony jest nadawca informacji, zaakceptował tę informację, zanim port docelowy (do którego podłączony jest odbiorca informacji) zasygnalizował problem z jej przesłaniem. Stacja nadająca przygotowuje kolejną porcję informacji nieświadoma, że pierwsza wiadomość koliduje z innym ruchem sieciowym na porcie adresata i prawdopodobnie zostanie usunięta przed jej dostarczeniem.

Nie musi to jednak oznaczać, że dane znikną bezpowrotnie. Jeśli port wyjściowy zrezygnuje z transmisji informacji, to protokół wyższego rzędu (jeśli taki jest) odtworzy tę informację. Tym protokołem jest np. TCP/IP. TCP potrafi wykryć utratę danych i retransmitować je z pewnym istotnym opóźnieniem. Protokoły typu datagram, np. używane do realizacji usług głosowych lub wideo, nie zapewniają możliwości odtwarzania zagubionych podczas transmisji danych. Dla tych protokołów dane usunięte przez port wyjściowy przełącznika są utracone na zawsze. Większość protokołów, które umożliwiają odzyskiwanie danych (np. TCP/IP), zmniejsza rozmiar okna kontroli przepływu danych (flow control window size), aby zminimalizować zagrożenie kolejnej utraty danych, co w istotny sposób zmniejsza efektywność ich przesyłania do czasu aż rozmiar tego okna ponownie zostanie powiększony (może to wystąpić tylko wtedy, gdy nie będzie kolejnych strat w transmisji). W typowych sieciach przełączanych występują kolizje na portach wyjściowych najczęściej w dwóch sytuacjach: na połączeniach z serwerami i typu przełącznik-przełącznik. Im wolniejsze łącze przyłączone jest do portu wyjściowego przełącznika, tym większe prawdopodobieństwo kolizji, gdyż port może być zajęty wysyłaniem innych danych po wolniejszej linii w czasie gdy pojawią się kolejne dane do wysłania. W obu przypadkach takie współdzielone porty wyjściowe działają jak sieć LAN o współdzielonym dostępie (ze wszystkimi konsekwencjami z tego wynikającymi), a właśnie to miało być wyeliminowane przez przełączanie. Czy zatem lepszym rozwiązaniem jest ATM? Nie, ponieważ ATM w wielu obecnych implementacjach cechuje ten sam problem. Technologie, takie jak ATM LAN Emulation (LANE) i Multi-Protocol Over ATM (MPOA), bazują na usłudze nazwanej UBR (Unspecifed Bit Rate). Wykorzystując UBR, nadawca informacji nie dostarcza urządzeniom sieciowym żadnego opisu strumienia danych, który zamierza przesłać siecią, a sieć nie rezerwuje żadnych zasobów na czas transmisji ani nie nakłada restrykcji na stację nadającą, które mogłyby wymusić ograniczenie generowanego przez nią ruchu. Informacja przesyłana jest do przełącznika z taką prędkością, jaką jest w stanie osiągnąć stacja nadająca. Powoduje to, że nawet port o przepustowości 155 Mb/s może być w całości zajęty przez strumień danych UBR. Kiedy kilka takich wejściowych strumieni danych z różnych portów próbuje "wydostać" się z przełącznika przez jeden port docelowy, to występuje identyczna kolizja jak w przypadku przełączników sieci LAN.


TOP 200