Intel Omni-Path w systemach Lenovo – lepszy przepływ danych w klastrach superkomputerowych


Męczą Was dojazdy do pracy? Wyobraźcie sobie, że wyjeżdżając z garażu, wpadacie na superautostradę bez ograniczenia prędkości, która prowadzi bezpośrednio na miejsce parkingowe przed biurem. Dla użytkowników komunikacji miejskiej: wyobraźcie sobie szybki tramwaj, który ma tylko dwa przystanki – pod Waszą klatką schodową i wejściem do biura – i zawsze przyjeżdża zgodnie z rozkładem jazdy. Ponadto na podłodze i pod siedzeniami nie ma gumy do żucia. A teraz wyobraźcie sobie, że Wy i tysiące Waszych współpracowników ma takie same możliwości. Marzenia? Pewnie snujecie je, stojąc w korku albo jadąc w tłoku tramwajem i zdrapując gumę z podeszwy buta? Niestety, to tylko marzenia (Przykro nam!). Jednak Intel wykorzystał je jako koncepcję dla danych przesyłanych w centrach danych i stworzył architekturę Intel® Omni-Path Architecture (Intel® OPA). To wielkie wydarzenie dla klientów HPC. Lenovo już dostarcza klientom na całym świecie karty sieciowe i przełączniki obsługujące tę technologię.

Lenovo było jedną z pierwszych firm, które z entuzjazmem przyjęły Intel SFF (Scalable Systems Framework), którego OPA jest kluczowym komponentem. Tak naprawdę to demonstrowaliśmy działanie OPA w Enterprise Innovation Center, naszym centrum zlokalizowanym w Stuttgarcie w Niemczech już w ubiegłym roku, kiedy Intel ogłaszał wprowadzenie tej technologii. Teraz z przyjemnością prezentujemy nasze pierwsze wdrożenie przy wykorzystaniu tego frameworku – superkomputer “MARCONI” zbudowany dla CINECA, akademickiego konsorcjum w Casalecchio di Reno we Włoszech. MARCONI znajdzie się na czerwcowej (2016) liście TOP 500 i jesteśmy pewni, że będzie to największa instalacja OPA na świecie!

Wraz z wkraczaniem w erę uczenia maszynowego, klienci, na czele z klientami HPC, będą potrzebowali zaawansowanej architektury, takiej jak OPA, żeby możliwe było obsługiwanie ogromnych ilości danych. OPA obsługuje prędkości liniowe do 100 Gb/s oraz dwukierunkową przepustowość do 25 GBps/per port. Przy tym OPA to nie tylko szybsza architektura. To także fundamentalna zmiana sposobu przesyłania danych przez system, mająca na celu minimalizowanie wąskich gardeł związanych z IO oraz zwiększenie ogólnej wydajności systemu. Choć większość klientów nie ma dziś jeszcze takich potrzeb, to ta architektura może skalować nawet ponad 10 tys. węzłów, co w przyszłości otworzy drogę do superkomputerowych procesorów działających w eksaskali.

W przyszłości, OPA dostarczy dodatkowe, przełomowe technologie, które zmienią przepływ danych w klastrze. W tym integrację kontrolera z procesorem. Przyszłe procesory Intel® Xeon® oraz akceleratory Phi będą obsługiwać tę integrację, co będzie stanowiło kolejną rewolucję w zakresie projektowania rozwiązań, kosztów i możliwości.

Zatem choć poprawa warunków dojazdów do pracy może nie nastąpić szybko, to Wasze dane w klastrze wkrótce będą mogły skorzystać z superautostrady lub szybkiego tramwaju… bez gumy na podłodze.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.