Sposób na zatłoczoną magistralę

Każdy kanał może być podzielony na maksymalnie 16 kanałów wirtualnych, z czego jeden jest zarezerwowany dla sygnałów sterujących. W odróżnieniu od magistrali PCI komunikacja w InfiniBand odbywa się w pełni niezależnie z pełną przepustowością dostępną w ramach kanału wirtualnego (PCI jest szyną współdzieloną, wymagającą generowania przerwań przez każde urządzenie żądające dostępu do innych elementów systemu).

InfiniBand nie jest też elementem bezpośrednio związanym z komputerem i zintegrowanym wewnątrz jego obudowy. Do szyny tej można podłączać zewnętrzne urządzenia pamięci masowych, elementy sieciowe lub inne serwery przy wykorzystaniu przełączników i okablowania zgodnego ze standardem. Obecna specyfikacja przewiduje, że maksymalna ich odległość nie powinna przekraczać ok. 17 m dla przewodów miedzianych, 300 m - wielomodowych światłowodów i aż 10 km w przypadku jednomodowych kabli optycznych. Jeśli chodzi o połączenia drukowane (na powierzchnię np. kart rozszerzeń czy płyt głównych), maksymalna odległość wynosi ok. 0,5 m. W przypadku standardu PCI odległości takie nie powinny przekraczać kilku lub co najwyżej kilkunastu centymetrów.

Zamiast I/O jeden sterownik

Komputer wykorzystujący szynę InfiniBand nie będzie musiał być wyposażany w zintegrowany wewnętrzny system wejścia/wyjścia, co oznacza, że zostanie uproszczona konstrukcja serwerów. Według niektórych specjalistów, typowe wymiary komputerów będą zredukowane nawet o 60%. Użytkownicy nie będą się musieli zastanawiać, ile gniazd PCI powinien zawierać serwer. Zostanie on wyposażony w interfejs InfiniBand HCA (Host Channel Adapter), który umożliwi łatwe dołączenie pamięci, routerów i innych urządzeń peryferyjnych zawierających interfejsy InfiniBand TCA (Target Channel Adapter).

Znacznie łatwiejsza będzie też rozbudowa komputera. Obecnie, jeśli w serwerze zabraknie gniazd PCI, a niezbędne jest podłączenie dodatkowej pamięci masowej, administrator musi wyłączyć komputer, zainstalować kartę rozszerzeń PCI, podłączyć nowe urządzenie, zmienić konfigurację systemu operacyjnego i dopiero wtedy ponownie uruchomić serwer. W przypadku InfiniBand będzie można po prostu podłączyć pamięć masową wyposażoną w interfejs TCA do odpowiedniego przełącznika, a wbudowana "inteligencja" szyny I/O umożliwi włączenie urządzenia do systemu bez przerywania pracy serwera i interwencji administratora. Podczas inicjalizacji InfiniBand samodzielnie wykrywa wszystkie podłączone interfejsy HCA oraz TCA i przypisuje im logiczne adresy. Następnie jest uruchamiany mechanizm systematycznego przeszukiwania, który praktycznie natychmiast wykrywa fakt dołączenia nowego urządzenia i automatycznie konfiguruje system.

InfiniBand wykorzystuje taką rozszerzoną wersję systemu adresowania, jaka została zastosowana w IP w wersji 6. Transmitowane pakiety zawierają nagłówek tzw. Global Route Header z adresami określającymi ich źródło (adres HCA) oraz przeznaczenie (TCA) - dzięki temu przełączniki InfiniBand mogą natychmiast kierować pakiet do odpowiedniego urządzenia.

Możliwe jest też łączenie kilku interfejsów HCA w celu budowy systemu odpornego na awarie, a nowa architektura pozwala na łatwą integrację funkcji automatycznego backupu i odtwarzania systemu po awarii.

InfiniBand umożliwi zwiększenie wydajności aplikacji, pod warunkiem że zostaną one zaprojektowane tak, by wykorzystywać nowe funkcje systemu I/O. Oprogramowanie będzie mogło bezpośrednio odwoływać się do urządzeń zewnętrznych - bez angażowania procesorów serwerów. Przykładowo, proste żądania otwarcia i zamknięcia pliku w przypadku szyny PCI wymagają generowania odpowiedniego przerwania, a InfiniBand pozwala na bezpośrednie sterowanie funkcjami pamięci masowych przez aplikację.

Zastosowania

Przewiduje się, że początkowo InfiniBand będzie wykorzystywana głównie w serwerach internetowych i ich klastrach lub w komputerach obsługujących bazy danych, które wykonują szczególnie intensywne operacje I/O. Komputery takie będą dostępne prawdopodobnie na początku 2002 r. Do tego czasu możliwa będzie implementacja InfiniBand z wykorzystaniem kart interfejsów ze złączami PCI oraz urządzeń peryferyjnych, które zaczną się pojawiać na rynku już w najbliższych miesiącach.

Nowa szyna będzie służyć przede wszystkim do obsługi wymiany danych między komputerami pracującymi w klastrze, a także zewnętrznymi pamięciami masowymi, np. typu SAN lub NAS. Jest mało prawdopodobne, by na rynku pojawiły się dyski twarde, wykorzystujące magistralę InfiniBand, ale należy się spodziewać, że wkrótce będą dostępne routery InfiniBand, wyposażone w porty Fibre Channel lub SCSI i umożliwiające dołączenie pracujących w tych standardach macierzy dyskowych. Niewykluczone że producenci wysoko wydajnych pamięci masowych zintegrują w ich ramach, oprócz interfejsów Fibre Channel, interfejsy HCA InfiniBand. Za takim rozwiązaniem przemawia fakt, że do komitetu tworzącego standard InfiniBand dołączyły niedawno EMC i Brocade Communications Systems - kluczowi dostawcy rozwiązań dla sieci SAN. Podstawowymi członkami komitetu pracującymi nad standardem są: IBM, Intel, Dell, Compaq, HP, Sun i Microsoft. Wśród firm wspierających standard znajduje się obecnie ponad 200 producentów, w tym również 3Com, Adaptec, Nortel Networks, Cisco, Lucent Technologies, Hitachi, Fujitsu Siemens i NEC.


TOP 200