Gigabit Ethernet włącza drugi bieg

Podejrzenie to okazuje się prawdziwe. Gdy używamy metody bezpośredniego dostępu do pamięci, przepustowość wzrasta do 360 Mb/s. Pomijając dysk twardy zwiększono więc przepustowość o blisko 250 proc. A przecież nie są to pecety wyposażone w tanie dyski twarde ISA. Komputery wyposażono w szybkie dyski twarde Quantum Ultra2/Wide SCSI (9 GB; 10 tys. obrotów na minutę). Okazuje się, że nawet tak szybkie dyski nie nadążają za siecią.

Gigabit Ethernet włącza drugi bieg

Tabela 3. Test wydajności Fast i Gigabit Ethernet (porównanie systemów Win NT 4 i Windows 2000)

Test udowodnił, że sieci Gigabit Ethernet muszą współpracować z wydajniejszymi dyskami twardymi, które potrafią dużo szybciej obsługiwać żądania pisania i czytania danych wysyłanych i odbieranych przez karty sieciowe. Jedyne, co pozostaje użytkownikowi, to instalowanie w PC współpracującym z łączem gigabitowym jak najszybszych dysków twardych. Jednak producenci dysków powinni pomyśleć o takich rozwiązaniach, które wychodziłyby naprzeciw takim wymaganiom, i instalować w nich pojemniejsze pamięci podręczne. Pamięci takie obsługują efektywniej dużą liczbę żądań I/O generowanych przez sieć.

Po poprzedniej rundzie testów wiele było krytycznych uwag na temat tego, w jaki sposób system Windows przetwarza dane sieciowe. Każdy pakiet jest odbierany przez system operacyjny, co oznacza, że w procesie obróbki danych sieciowych biorą udział układ CPU, magistrala danych i pamięć RAM. Nie ma się wtedy czemu dziwić, że wydajność aplikacji sieciowych pozostawia wiele do życzenia.

Z systemem Windows 2000 sprawa ma się inaczej. Microsoft pomyślał o tym, aby pakiety sieciowe były przetwarzane w części tam, gdzie są generowane, czyli w obrębie samej karty sieciowej. Dodatkowo system Windows 2000 oferuje nowe mechanizmy zarządzające stosem komunikacyjnym obsługującym protokół IP, co przyczynia się do tego, że sieć pracuje jeszcze wydajniej.

W poprzednich testach nie ingerowano w protokół IP, używając domyślnych parametrów sterujących pracą tego protokołu. Testując urządzenia Gigabit Ethernet drugiej generacji zastosowano taką samą metodę. Jednak tym razem zaobserwowano kilka istotnych różnic.

Jak testowano sprzęt Gigabit Ethernet drugiej generacji?

Z punktu widzenia topologii sieci od przeprowadzenia ostatniego testowania środowiska Gigabit niewiele się zmieniło. Użyto tego samego przełącznika Allied Telesyn AT-9108 Gigabit Switch. Dodano co prawda nowy przełącznik Cisco 4912G Gigabit Ethernet, ale tylko po to, aby sprawdzić, czy sieć zachowuje się identycznie, niezależnie od tego, jaki przełącznik ją obsługuje. Uzyskano podobne wyniki niezależnie od tego, który z przełączników zainstalowano między stacjami roboczymi i serwerem.

Stare komputery Dell Optiplex 200 MHz zastąpiono stacjami roboczymi Dell Precision 610. Każda stacja Precision 610 była wyposażona w dysk twardy Quantum 9 GB Ultra2/Wide SCSI (10 000 obr./min), procesor Pentium Xeon III 500 MHz i 128 MB pamięci RAM. Na dwóch komputerach Dell Precision 610 zainstalowano system Windows 2000 Professional i używano ich jako klientów. Na trzecim komputerze Dell Precision 610 zainstalowano system Windows 2000 Server (komputer ten pełnił rolę serwera).

Najpierw przeprowadzono testowanie zbliżone do warunków rzeczywistych, przesyłając nie skompresowany plik o długości 378 741 855 bajtów między różnymi komputerami (serwer–klient i klient–klient). Przy każdej transmisji pliku zmieniano nazwę pliku źródłowego, tak aby system Windows 2000 nie pobierał danych z pamięci podręcznej, co zafałszowałoby oczywiście wyniki testu.

Po przeprowadzeniu serii testów dla każdej konfiguracji wyliczano wartości średnie (średni czas potrzebny na przesłanie całego pliku). Przy transmitowaniu plików nie próbowano w żaden sposób dopasowywać systemu Windows 2000 do konkretnej sytuacji.

Następnie uruchomiono test mierzący maksymalną wydajność sieci Gigabit Ethernet (pod systemem Windows 2000) w przypadku przesyłania plików bezpośrednio między pamięciami. Tym razem dostrojono w odpowiedni sposób system Windows 2000, opierając się na instrukcjach umieszczonych w dokumentacji Windows 2000 Performance Tuning Guide.

Przy testowaniu szybkości transmitowania plików bezpośrednio między pamięciami posłużono się narzędziem Windows NT-Test TTCP (NTTTCP). Jest to test porównawczy używany w przemyśle informatycznym do izolowania stosu komunikacyjnego TCP/IP od sterowników obsługujących karty sieciowe i testowania tych elementów. Wersja NT tego testu porównawczego wykorzystuje niektóre z zaawansowanych funkcji obsługujących operacje asynchronicznego transmitowania danych przez kanały I/O, które są obsługiwane przez system operacyjny Windows 2000.

System Windows 2000 jest tak zaprojektowany, że sam próbuje automatycznie sterować protokołem TCP/IP, dostosowując go do konkretnej sytuacji. I tak na przykład Windows 2000 używa standardu Network Driver Interface Specification (NDIS) 5.0. Specyfikacja NDIS 5.0 oferuje szereg ciekawych opcji, żeby tylko wspomnieć o funkcji zlecającej karcie sieciowej do wykonania zadanie sprawdzania sum kontrolnych protokołu TCP (sprzętowa kontrola poprawności transmisji danych). To samo dotyczy bezpieczeństwa pakietów IP. Specyfikacja NDIS 5.0 pozwala (ustawienie domyślne) protokołowi TCP/IP sprawdzać sterownik karty sieciowej, celem określenia jego możliwości. Chodzi o to, jaką maksymalną długość mogą mieć pakiety obsługiwane przez dany sterownik- parametr MTU (Maximum Transmission Unit). Dzięki temu system operacyjny może obsługiwać najdłuższe z możliwych w danej sytuacji pakietów, co przyczynia się oczywiście do zwiększenia wydajności sieci. Można tu też definiować "ręcznie" niektóre parametry. Można użyć ramek "jumbo" (patrz rysunek), dzięki czemu sieć Gigabit Ethernet pracuje szybciej.

Testu transmitującego pakiety bezpośrednio do pamięci użyto celem zmierzenia różnicy występującej między dwiema metodami sprawdzania sum kontrolnych: sprzętowej i programistycznej. Protokół TCP używa sum kontrolnych zarówno dla nagłówków, jak i dla danych umieszczanych w każdym segmencie. Mechanizm taki powoduje, że błędy powstające w obszarze sieci nie przekładają się na niepoprawną pracę aplikacji sieciowych. Sprawdzanie sum kontrolnych sprowadza się do wykonywania wielu skomplikowanych operacji matematycznych. Operacje te były wykonywane w poprzednich wersjach systemu Windows przez sam system i układ CPU. Ponieważ suma kontrolna musi być wyliczana oddzielnie dla każdego pakietu, operacje takie spowalniają nie tylko samą sieć, ale obciążają też intensywnie układ CPU, czyli zmniejszają ogólną wydajność peceta.

Windows 2000 zmienia tę sytuację, tak aby zadanie obliczania sum kontrolnych protokołu TCP mogła wykonywać karta sieciowa. Aby było to możliwe, opcję taką musi obsługiwać oczywiście sterownik zarządzający kartą sieciową. Test wykazał, że w konfiguracji, w której sumy kontrolne obliczała karta sieciowa, przepustowość wzrosła do 504 Mb/s. Jest to już 50 proc. przepustowości łącza gigabitowego, a więc zupełnie nieźle.

Podsumowując test - jeśli do środowiska Gigabit Ethernet wprowadzimy: karty sieciowe drugiej generacji, systemy operacyjne oferujące mechanizmy zwiększające szybkość transmitowania pakietów w takim środowisku (czyli Windows 2000) oraz najnowsze pecety, to możemy się spodziewać, iż aplikacje sieciowe zaczną pracować dużo szybciej. Gigabit Ethernet nie jest już wyłącznie dla sieci szkieletowej, można tę technologię z powodzeniem wprowadzać bezpośrednio do komputerów PC i stacji roboczych.


TOP 200