Jak szybciej trenować AI?

HPE we współpracy z NVIDIA przygotowało rozwiązanie AI „pod klucz”, które pomoże firmom w przyspieszeniu trenowania modeli. Rozwiązanie łączy najlepsze oprogramowanie AI/ML, sprzęt, rozwiązania sieciowe i usługi.

Fot. Google DeepMind/Pexels

Hewlett Packard Enterprise zaprezentował superkomputerowe rozwiązanie dla generatywnej sztucznej inteligencji przeznaczone dla dużych przedsiębiorstw, instytucji badawczych i organizacji rządowych, które pozwala na skrócenie procesu trenowania i dostrajania modeli sztucznej inteligencji przy użyciu prywatnych zbiorów danych. Rozwiązanie to składa się z pakietu oprogramowania umożliwiającego trenowanie i dostrajanie modeli oraz opracowywanie aplikacji korzystających z AI. Rozwiązanie obejmuje również superkomputery chłodzone cieczą, przyspieszone obliczenia, rozwiązania sieciowe, pamięć masową i usługi, które pomagają organizacjom szybciej uzyskiwać rezultaty dzięki zastosowaniu sztucznej inteligencji.

„Wiodące firmy i ośrodki badawcze szkolą i dostrajają modele sztucznej inteligencji, aby zwiększać innowacyjność i osiągać przełomowe rezultaty w prowadzonych badaniach. Jednak by robić to skutecznie i wydajnie, potrzebują specjalnie zaprojektowanych rozwiązań” - powiedział Justin Hotard, wiceprezes i dyrektor generalny ds. HPC, AI & Labs w HPE. „Aby korzystać z generatywnej sztucznej inteligencji, organizacje potrzebują zrównoważonych rozwiązań zapewniających wydajność i skalowalność superkomputera, pozwalających skutecznie szkolić modele sztucznej inteligencji. Cieszymy się z rozszerzenia naszej współpracy z firmą NVIDIA i oferujemy rozwiązanie „pod klucz” oparte na sztucznej inteligencji, które pomoże naszym klientom znacznie przyspieszyć trenowanie modeli i uzyskiwanie wyników z wykorzystaniem sztucznej inteligencji”.

Zobacz również:

  • Superkomputer HPE powraca na Międzynarodową Stację Kosmiczną
  • Sztuczna inteligencja wkroczyła do aplikacji Speaking Practice
  • Sztuczna inteligencja od Apple wymagać może nowych procesorów

Narzędzia programistyczne do budowania aplikacji AI, dostrajania gotowych modeli oraz opracowywania i modyfikowania kodu są kluczowymi elementami superkomputerowego rozwiązania dla generatywnej sztucznej inteligencji. Oprogramowanie to jest zintegrowane z technologią superkomputerową HPE Cray, która bazuje na potężnej architekturze używanej w najszybszym superkomputerze świata i wykorzystuje „superczipy” NVIDIA Grace Hopper GH200. Rozwiązanie to oferuje organizacjom bezprecedensową skalę i wydajność wymagane dla dużych obciążeń związanych ze sztuczną inteligencją, takich jak trenowanie dużych modeli językowych (LLM) czy modeli rekomendacji bazujących na głębokim uczeniu (DLRM). Korzystając ze środowiska programistycznego HPE Machine Learning Development Environment w tym systemie, działający na open source model Llama 2 o 70 miliardach parametrów został dostrojony w mniej niż 3 minuty, co bezpośrednio przełożyło się na krótszy czas uzyskania wartości dla klientów. Zaawansowane możliwości superkomputerów HPE wspierane przez technologię NVIDIA przekładają się na 2-3-krotne zwiększenie wydajności systemu.

"Generatywna sztuczna inteligencja wpływa na transformację każdego przedsięwzięcia, zarówno w przemyśle, jak i w nauce" - powiedział Ian Buck, wiceprezes ds. Hyperscale i HPC w NVIDIA. "Współpraca firmy NVIDIA z HPE nad tym gotowym rozwiązaniem do szkolenia i symulacji sztucznej inteligencji, opartym na superczipach NVIDIA GH200 Grace Hopper, zapewni klientom wydajność niezbędną do osiągnięcia prawdziwych przełomów w działalności związanej z generatywną sztuczną inteligencją".

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200