Nowe akceleratory Intel Gaudi znacznie tańsze niż rozwiązania Nvidii. Czy spadną ceny chipów AI?

Intel twierdzi, że jego chipy zapewniają podobną wydajność, co rozwiązania Nvidii, ale przy znacznie niższych cenach. Może to wymusić obniżki cen na "zielonym" gigancie.

Intel twierdzi, że ma bardzo wydajne chipy AI / Fot. Mat. prasowe

Intel twierdzi, że ma bardzo wydajne chipy AI / Fot. Mat. prasowe

Intel rzucił wyzwanie Nvidii w walce o udziały na rynku chipów AI. Na targach Computex 2024 Pat Gelsinger, szef Intela, ujawnił ceny nowej generacji akceleratorów AI Gaudi 2 i Gaudi 3.

Ceny rozwiązań tego typu są zazwyczaj ukrywane przed opinią publiczną, ale Intel złamał ten trend i podał oficjalne dane. Flagowy akcelerator Gaudi 3 będzie kosztował ok. 15 000 dol. za sztukę przy zakupie pojedynczym, co jest o 50% niższą ceną niż konkurencyjne GPU H100 do centrów danych od Nvidii.

Zobacz również:

  • Europejskie inwestycje Intela zagrożone
  • Nvidia chce sprzedawać Chinom swoje układy AI
  • TSCM gotowe do uruchomienia produkcji chipów 2 nm

Gaudi 2, choć mniej potężny, również jest wyraźnie tańszy niż sprzęt Nvidii. Pełny zestaw akceleratorów Gaudi 2 z 8 chipami będzie sprzedawany za 65 000 dol. do dostawców systemów. Intel twierdzi, że to tylko jedna trzecia ceny porównywalnych rozwiązań od Nvidii i innych rywali.

Chipy Gaudi tańsze, a równie szybkie

W przypadku Gaudi 3 ta sama konfiguracja zestawu z 8 akceleratorami kosztuje 125 000 dol. Intel upiera się, że jest to o dwie trzecie taniej niż alternatywne rozwiązania w tym segmencie wydajnościowym.

Dla porównania nowo wprowadzony GPU Blackwell B100 od Nvidii kosztuje ok. 30 000 dol. za sztukę. Tymczasem wysokowydajna kombinacja CPU+GPU Blackwell, B200, sprzedawana jest za ok. 70 000 dol.

Oczywiście cena to tylko jedna część równania. Wydajność i ekosystem oprogramowania są równie ważnymi czynnikami. W tej kwestii Intel twierdzi, że Gaudi 3 dorównuje lub przewyższa H100 od Nvidii w różnych zadaniach związanych z AI.

Benchmarki cytowane przez Intela pokazują, że Gaudi 3 oferuje nawet o 40% szybsze czasy treningu niż H100 w dużych klastrach z 8192 chipami. Z kolei mniejsza konfiguracja z 64 chipami Gaudi 3 oferuje o 15% wyższą przepustowość niż H100 w popularnym modelu językowym LLaMA 2 — według Intela.

Choć chipy Gaudi wykorzystują otwarte standardy, takie jak Ethernet, dla łatwiejszego wdrożenia, brak im jednak optymalizacji dla wszechobecnej platformy CUDA Nvidii, na której opiera się większość dzisiejszego oprogramowania AI. Przekonanie przedsiębiorstw do przepisania swojego kodu na Gaudi może być więc trudne.

Aby zwiększyć adopcję, Intel twierdzi, że ma co najmniej 10 głównych dostawców serwerów — w tym nowych partnerów Gaudi 3, takich jak Asus, Foxconn, Gigabyte, Inventec, Quanta i Wistron. Znane nazwy, takie jak Dell, HPE, Lenovo i Supermicro, również są na pokładzie.

Mimo to Nvidia jest potęgą w świecie centrów danych. W ostatnim kwartale 2023 r. miała 73% udziału w rynku procesorów centrów danych, a ta liczba nadal rośnie, odbierając udziały zarówno Intelowi, jak i AMD.

To trudna walka dla Intela, niemniej duże różnice cenowe mogą pomóc zmniejszyć dystans.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200