AMD wzmacnia się na rynku serwerów obsługujących aplikacje AI

Amerykański producent chipów zaprezentował oficjalnie w tym tygodniu produkt, który ma umocnić jego pozycję na rynku serwerów obsługujących aplikacje AI. To akcelerator Instinct MI300X składający się z kilku chipletów GPU oraz pamięci HBM3 DRAM o wielkości 192 GB, która jest w stanie transmitować dane z szybkością 5,2 TB/s.

Grafika: AMD

AMD chwali się, że jest to obecnie jedyny dostępny na rynku układ, który może trenować i obsługiwać duże modele językowe, zawierające do 80 mld parametrów. Instinct MI300X jest następcą układu MI300A. Oba układy mają architekturę znaną pod nazwą chiplet, co oznacza iż składają się wielu pojedynczych chipów komunikujących się ze sobą za pomocą wydajnych magistral danych oraz współdzielonej przez nie pamięci.

Układ MI300A składa z trzech chipletów zawierających procesor Zen4 oraz kilku chipletów pełniących funkcję procesorów grafiki. W układzie MI300X procesory Zen4 zostały zastąpione akceleratorami CDNA 3, które mają dużo większą przepustowość i tym samym są w stanie obsługiwać nawet największe modele językowe AI. MI300X zawiera aż 153 tranzystorów i jego twórcy twierdzą, że pracuje dużo wydajniej niż inne tego typu rozwiązania zaprojektowane z myślą o aplikacjach AI, w tym od układu Nvidia H100 Hopper.

Zobacz również:

Aby zademonstrować jego możliwości, AMD uruchomił na zawierającym go komputerze jeden z największych modeli językowych,jakim jest oparte na otwartym kodzie oprogramowanie Falcon-40B. Testy wykazały, że komputer bez większego trudu obsługiwał model, przetwarzając wtedy bez zbędnej zwłoki ponad 40 mld parametrów. Masowa produkcja układu ruszy w trzecim kwartale tego roku, co oznacza iż pierwsze oparte na nim serwery trafią na rynek jeszcze w tym roku.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200