Wsparcie dla NVIDIA Tesla V100 32 GB: Lenovo umacnia się na pozycji lidera w obszarze sztucznej inteligencji i HPC


Podczas konferencji GPU Technology Conference w kalifornijskim San Jose, Lenovo poinformowało o rozszerzeniu wsparcia dla procesorów graficznych NVIDIA® Tesla® V100, bazujących na architekturze Volta. Teraz obejmuje ono również niedawno zaprezentowaną platformę 32GB. Koncentrując się na rozwijającym się rynku sztucznej inteligencji, musimy zapewnić naszym klientom potężne narzędzia. Układy takie jako procesor graficzny Tesla V100 32 GB umożliwiają efektywne uruchamianie obciążeń głębokiego uczenia, uczenia maszynowego oraz wnioskowania. Nasi klienci w obszarze HPC (High Performance Computing) będą mogli wykorzystać Tesla V100 32GB do przyspieszania badań prowadzonych przy pomocy serwerów Lenovo ThinkSystem. Napawa nas dumą fakt, że próbują oni rozwiązywać jedne z największych wyzwań, przed jakim stoi obecnie ludzkość.

Począwszy od czerwca, Lenovo będzie obsługiwać Tesla V100 32GB na "ultra-gęstym" ThinkSystem SD530, zwycięzcy konkursu HPCWire Reader's Choice 2017 w kategorii Najlepszy serwer HPC, a także na najlepiej sprzedającym się systemie rack - ThinkSystem SR650. Z punktu widzenia klientów oznacza to, że będą mogli wykorzystać wysokiej jakości platformy ThinkSystem do obsługi obciążeń HPC, uczenia maszynowego, głębokiego uczenia i wnioskowania, które zostały teraz wzbogacone o najbardziej wydajny procesor graficzny NVIDIA.

Wyzwania treningowe

Sporo współczesnych złożonych modeli Deep Learning (głębokiego uczenia) wymaga treningu trwającego wielu dni lub nawet tygodni. Klienci korzystający z naszych Centrów Innowacji AI, do budowania i testowania swoich modeli uczenia maszynowego i głębokiego, doświadczyli tego przedłużającego się oczekiwania w przypadku większych zestawów danych na własnej skórze. Dzięki podwojeniu pojemności pamięci Tesla V100 do 32 GB, klienci mogą zwiększyć wielkość porcji danych i znacznie skrócić czas treningu, a w efekcie przyspieszyć czas potrzebny na osiągnięcie wartościowych informacji (poprzez skrócenie czasu treningu).

Tak duża pamięć pozwala aplikacjom HPC na prowadzenie rozległych symulacji bardziej efektywnie niż kiedykolwiek wcześniej. Zwłaszcza w przypadku aplikacji HPC, które są ograniczane ze względu na ilość pamięci. Przykładowo, prowadzone na dużą skalę obliczenia 3D FFT, które są powszechnie stosowane w aplikacjach sejsmicznych, klimatycznych i przetwarzających sygnały, są - dzięki Tesla V100 32 GB - nawet o 50% szybsze.

Sztuczna inteligencja i HPC - łatwiej i prościej

Podstawowym celem Lenovo jest ułatwianie życia ludziom uruchamiającym modele i analizującym zbiory danych. Większa pojemność pamięci Tesla V100 32 GB może zaoszczędzić im czas. Eliminuje bowiem dostrajanie i równoważenie, które są konieczne do poprawiania wydajności procesorów graficznych z pamięcią o mniejszej pojemności.

Intensywnie koncentrujemy się na ułatwianiu firmom implementowania sztucznej inteligencji. Staramy się oszczędzać czas naszych klientów, a co za tym idzie ich pieniądze. Oprogramowanie LiCO (Lenovo Intelligence Computing Orchestrator) jest doskonałym tego przykładem - upraszcza i automatyzuje cały stos oprogramowania i sprzętu sztucznej inteligencji, w tym również układy GPU.

Dowiedz się więcej o LiCO.

Współpraca Lenovo z firmą NVIDIA to doskonała wiadomość, dla wszystkich klientów, którzy oczekiwali na możliwość wykorzystania mocy nowego procesora graficznego NVIDIA TeslaV100 32GB w obszarze sztucznej inteligencji i HPC.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.