Lekarstwo na duszności

Komunikacja między wydajnymi serwerami a resztą infrastruktury to największe wąskie gardło infrastruktury informatycznej.

Komunikacja między wydajnymi serwerami a resztą infrastruktury to największe wąskie gardło infrastruktury informatycznej.

Infiniband, PCI Express, RDMA, 10G Ethernet w połączeniu z akceleratorami TCP, a może inne, specjalizowane systemy I/O, jak te oferowane przez Myricom, Quadrics czy zapowiadane przez Precision I/O - którą z tych technologii zastosować do połączenia dwóch lub więcej serwerów? Pytanie to stawia sobie coraz więcej menedżerów informatyki, coraz więcej aplikacji jest zabezpieczanych coraz tańszymi rozwiązaniami klastrowymi - głównie dla systemów Linux i Windows. Równolegle aplikacje klient/serwer są zastępowane rozproszonymi systemami opartymi na serwerach aplikacji i usługach sieciowych, co powoduje większe potrzeby w dziedzinie komunikowania się systemów.

Ethernet tak, ale...

Kolejne generacje sieci Ethernet oferują większą przepustowość, równocześnie jednak zwiększają narzut wydajnościowy na komunikujące się urządzenia. W rezultacie efektywny wzrost wydajności komunikacji z ich otoczeniem jest wciąż najpoważniejszym wąskim gardłem infrastruktury - wewnętrzna wydajność urządzeń nie przekłada się na wydajność całej instalacji. Nawet najwydajniejszy serwer z kilkoma złączami Gigabit Ethernet nie jest w stanie "wypluć" z siebie więcej niż kilkadziesiąt megabajtów danych na sekundę.

Producenci chwytają się więc innych pomysłów. Po dwóch latach odżegnywania się od technologii Infiniband duzi producenci znów myślą o niej ciepło. Infiniband ma wiele zalet, wśród których dwie są bardzo poważne: bardzo duża rzeczywista przepustowość oraz bardzo małe opóźnienia. Z punktu widzenia firm eksploatujących duże ośrodki przetwarzania ma jednak także wady.

Najważniejsza z nich to konieczność budowy kolejnej oddzielnej, poza Ethernetem i Fibre Channel, infrastruktury sieciowej - przełączników, kart sieciowych, okablowania, sterowników itd. Producenci rozwiązań Infiniband, m.in. Topspin, Voltaire i Infinicon, są obecnie adorowani przez wielkich - HP, IBM, Sun Microsystems. Do popularyzacji Infiniband jednak jeszcze daleko.

A jednak Ethernet

Skoro więc Infiniband jest na razie egzotyczna, być może lepiej zainwestować w usprawnienie Ethernetu.

Stąd właśnie wzięła się idea RDMA (Remote Direct Memory Access) zapożyczająca nieco z Infiniband, nieco z technologii klastrowej Memory Channel Digital Equipment oraz, no właśnie - szybkiego, lecz bardzo obciążającego zasoby serwera 10G Ethernetu.

Ze względu na to, że Ethernet służy prawie wyłącznie do przenoszenia TCP/IP/UDP, jednym ze sposobów na ominięcie jego słabości jest zastosowanie ich sprzętowej akceleracji. Przyspieszenie jest osiągane nie tylko przez odciążenie CPU serwera od przeliczania sum kontrolnych czy kompresji nagłówków, ale w pewnym stopniu także oszukiwanie przez wydłużanie okna TCP, buforowanie dużej ilości danych.

Pomysłów nie brakuje

W ciągu jednego, a najdalej dwóch kwartałów na rynek ma trafić nowa technologia opracowywana w zaciszu laboratoriów niewielkiej firmy Precision I/O. Skala nie ma tu aż tak wielkiego znaczenia, szefami firmy są bowiem weterani biznesu sieciowego. Według wstępnych zapowiedzi Precision I/O przedstawi rozwiązanie pozwalające wielokrotnie zwiększyć rzeczywistą przepustowość między serwerami a ich otoczeniem, bez konieczności budowy dodatkowej sieci czy zmiany sterowników. Czy rozwiązanie spełni pokładane w nim oczekiwania, zobaczymy.


TOP 200