Rozładować korki

Coraz lepsze są perspektywy zwiększania wydajności systemów sieciowych i klastrów bez potrzeby wykorzystania do tego celu niestandardowych systemów firmowych.

Coraz lepsze są perspektywy zwiększania wydajności systemów sieciowych i klastrów bez potrzeby wykorzystania do tego celu niestandardowych systemów firmowych.

Jednym z problemów pojawiających się w projektach rozbudowy infrastruktury informatycznej jest różnica w wydajności sieci i komunikujących się za ich pośrednictwem elementów infrastruktury. Te problemy da się oczywiście obejść na wiele sposobów, jednak często wiąże się to z poważnymi wydatkami. Na rynku pojawiło się ostatnio kilka interesujących nowości.

Na przykład Mellanox Technologies wprowadziła do oferty kontrolery Infiniband działające z przepustowością, nie 10 Gb/s, jak dotychczas, lecz 20 Gb/s. Z kolei firmy PathScale i Iwill opracowały nowe rozwiązanie klastrowe łączące HyperTransport i Infiniband. Level 5 Networks zaprezentowała tymczasem nowej generacji rozwiązania Gigabit Ethernet przyspieszające działanie aplikacji sieciowych bez modyfikowania infrastruktury i oprogramowania.

Infiniband pnie się w górę

Rozładować korki

Rozwiązanie opracowane wspólnie przez firmy PathScale i Iwill polega na rozszerzeniu zasięgu magistrali HyperTransport poza płytę główną serwera za pośrednictwem technologii InfiniBand. Cena katalogowa interfejsu PathScale wynosi 895 USD, a płyty główne Iwill kosztują od ok. 600 USD.

Mellanox Technologies opracowała układy kontrolerów umożliwiających dwukrotne zwiększenie przepustowości interfejsów Infiniband do poziomu 20 Gb/s (Infiniband DDR - Double Data Rate). Układy są tylko o ok. 30% droższe od obecnie dostępnych na rynku i mogą być stosowane w przełącznikach, serwerach kasetowych, pamięciach masowych i innych urządzeniach sieciowych wykorzystujących standard Infiniband.

Jest to pierwsza publiczna prezentacja Infiniband DDR - standardu zwiększającego przepustowość interfejsu na poziomie układów fizycznych, a nie jak dotąd - przez agregację wielu łączy. Jednocześnie Mellanox ogłosiła, że wycofuje się z produkcji własnych przełączników Infiniband i zamierza koncentrować się na rozwoju i sprzedaży układów scalonych wykorzystywanych przez innych producentów sprzętu.

Obecnie dostępne interfejsy Infiniband mają przepustowość 10 Gb/s (4 kanały o wydajności 2,5 Gb/s każdy), a przełączniki Infiniband - 30 Gb/s (12 kanałów transmisyjnych). Kontrolery Mellanox zwiększają przepustowość pojedynczego kanału do poziomu 5 Gb/s, a więc odpowiednio 20 i 60 Gb/s w przypadku interfejsów i przełączników Infiniband DDR.

Przedstawiciele Mellanox podkreślają, że Infiniband DDR jest obecnie jedyną technologią opartą na otwartych standardach, która umożliwia zapewnienie pełnej przepustowości wymaganej przez PCI Express x8 przy wykorzystaniu pojedynczej linii transmisyjnej.

HyperTransport + Infiniband

Rozładować korki

Opracowana przez firmę Level 5 Networks technologia EtherFabric zakłada zwiększenie wydajności aplikacji intensywnie korzystających z komunikacji sieciowej. Pomysł opiera się na wirtualizacji stosu TCP/IP i udostępnieniu każdej aplikacji nieskrępowanej możliwości komunikacji bez charakterystycznego dla obecnych rozwiązań współdzielenia połączeń sieciowych.

Firmy: Iwill - tajwański producent serwerów, i PathScale - młoda, innowacyjna firma amerykańska, przedstawiły w czerwcu br. klaster wykorzystujący technologię zwiększania wydajności transmisji i wymiany danych między elementami systemu stosującego procesory AMD Opteron i HyperTransport.

Klaster składa się z 4 dwuprocesorowych serwerów wyposażonych w specjalne, opracowane przez Iwill płyty główne DK8-HTX, układy AMD Opteron i interfejsy PathScale InfiniPath HTX, które bezpośrednio łączą systemową szynę HyperTransport z infrastrukturą transmisyjną wykorzystującą standard Infiniband (na zdjęciu). W praktyce rozwiązanie opracowane wspólnie przez firmy PathScale i Iwill polega na rozszerzeniu zasięgu magistrali HyperTransport poza płytę główną serwera za pośrednictwem technologii Infiniband. Cena katalogowa interfejsu PathScale wynosi 895 USD, a płyty główne Iwill kosztują od ok. 600 USD.

Jak twierdzą przedstawiciele PathScale, tego typu rozwiązanie istotnie zmniejsza czas oczekiwania na dostęp do danych, będący głównym mankamentem wydajności obecnych systemów klastrowych.

Co więcej, czas oczekiwania rośnie wraz ze zwiększaniem liczby węzłów klastra, a technologia opracowana przez PathScale umożliwia połączenie ponad 1 tys. serwerów bez obawy o spadek wydajności.

Mario Cavalli, dyrektor organizacji HyperTransport Consortium zajmującej się promocją architektury HyperTransport, powiedział, że przynajmniej kilkanaście innych firm opracowuje podobne rozwiązania, ale że nie może ujawnić żadnych szczegółów. Według niego mariaż HyperTransport i Infiniband to przyszłość wydajnych klastrów.

Przyspieszanie Ethernetu

Level 5 Networks zaprezentowała EtherFabric - serwerowe karty interfejsów Gigabit Ethernet, które pod względem wydajności mogą konkurować ze złączami Infiniband lub systemami RDMA (Remote Direct Memory Access). Mogą one być instalowane w serwerach o standardowej architekturze i współpracują z klasycznymi przełącznikami Gigabit Ethernet.

Technologia opracowana przez Level 5 wykorzystuje zwirtualizowany stos TCP/IP, dzięki któremu każda aplikacja uzyskuje bezpośredni dostęp do sieci - bez konieczności współdzielenia logicznego połączenia z innymi aplikacjami czy usługami działającymi na tym samym serwerze. Pomysł Level 5 nie polega na przekazaniu przetwarzania niżej, do sprzętu, lecz wyżej - do przestrzeni użytkownika, jednak dla każdej aplikacji oddzielnie.

Podstawowy zysk wynika więc z braku dużego narzutu na zmianie kontekstu. Dzięki temu właśnie, w połączeniu z zastosowaniem do komunikacji standardowego protokołu MPI, Level 5 uzyskuje w swoich rozwiązaniach małe czasy opóźnień w komunikacji - według producenta wynoszą one poniżej 10 mikrosekund. Infiniband, RDMA, karty TOE (TCP/IP Offload Engine) lub inne, firmowe systemy przeznaczone do budowy klastrów o wysokiej wydajności wykorzystują niestandardową architekturę (z reguły działają z pominięciem systemowej szyny FSB) oraz oprogramowanie wymagające modyfikacji systemów operacyjnych.

Jedyne, czego wymaga EtherFabric, to instalacja kart w serwerach. Nie ma potrzeby wymiany okablowania czy przełączników.

Nie trzeba też modyfikować ustawień systemowych. Co ciekawe, EtherFabric pozwala na agregację wielu łączy fizycznych w jedno łącze logiczne, podobnie jak ma to miejsce w standardzie 802.3ad.

Obecnie w ofercie Level 5 znajdują się jedno- i dwuportowe karty interfejsów Gigabit Ethernet przeznaczone do instalacji w serwerach pracujących pod kontrolą systemu Linux (jądro 2.4 lub 2.6). Pod koniec tego roku firma zamierza udostępnić sterowniki dla Windows, natomiast wersje dla Unix pojawią się najwcześniej w 2006 r.

Karta EtherFabric kosztuje ok. 500 USD, a jej wydajność jest według producenta porównywalna z wydajnością dwuportowej karty RDMA Gigabit NIC firmy Alacritech (ok. 1500 USD). To wciąż dużo więcej, niż karta Gigabit Ethernet, jednak trzeba pamiętać, że standardowa karta istotnie obciąża serwer.

Co powiedzą wielcy

Praktyczne testy EtherFabric przeprowadzone na Uniwersytecie w Nottingham w Wlk. Brytanii potwierdzają deklarowane przez Level 5 zalety technologii. Interfejsy te zostały tam zainstalowane w klastrze składającym się z ośmiu dwuprocesorowych serwerów Sun Microsystems pracujących pod kontrolą Novell Suse Enterprise Linux.

Wydajność obliczeniowa klastra w przypadku niektórych aplikacji wzrosła nawet ośmiokrotnie i była zbliżona do uzyskiwanej w konfiguracjach wykorzystujących specjalizowaną architekturę Myrinet firmy Myricom.

W przypadku aplikacji, które z sieci korzystają sporadycznie, wzrosty na pewno nie będą aż tak duże. Jednak poprawienie wydajności o 50 czy 100% na pewno jest warte świeczki, oznacza bowiem, że do obsługi dotychczasowych potrzeba mniej serwerów. To jest właśnie argument, którym posługuje się Level 5, promując swoje rozwiązanie.

Problemem podstawowym jest dziś bowiem nie tyle wydajność sieci, ile niedostatek wydajności serwerów względem wydajności osiąganej przez sieci.

Z technicznego punktu widzenia architektura Level 5 wydaje się bardzo obiecująca, ale jej rynkowy sukces będzie zależeć od tego, jak zachowają się wielcy gracze. Jeśli wstępne umowy OEM potwierdzą zainteresowanie klientów, technologia raczej się przyjmie, ale pewności mieć nie można, ponieważ "wielcy" mają długoletnie strategie, w których nowe rozwiązania mogą się nie mieścić.

Na razie wiadomo, że Cisco Systems zamierza rozwijać własne technologie zwiększania wydajności systemów sieciowych, niekoniecznie w warstwie sieciowej, ale np. w warstwach aplikacyjnych (inicjatywa AON - Application Oriented Networking). Inni, jak HP, IBM lub Sun Microsystems, mogą wesprzeć architekturę opracowaną przez Level 5, ale równie dobrze zdecydować się na inne rozwiązania - własne lub partnerskie.


TOP 200