Trwa zacięta walka o prymat na rynku układów AI

Na rynku chipów AI dzieje się ostatnio bardzo dużo, jednak ostatni tydzień był pod tym względem szczególny. Czterech wiodących dostawców takich układów zaprezentowało bowiem w ostatnich dniach układy tego typu, które zostały zaprojektowane przez ich własne zespoły badawcze.

Grafika: Arm (układ Ethos-U85)

To ważne wydarzenie, które skłoniło analityków tego rynki do zadania sobie pytania, jak zareaguje na te doniesieniu ich główny rywal, jakim jest Nvidia, która kontroluje obecnie ponad 90% tego rynku. Firma opublikowała niedawno raport finansowy w którym czytamy, że w pierwszym kwartale tego roku jej zyski zamknęły się kwotą 12,3 mld USD. Co jedna będzie, jeśli je najwięksi rywale zaczną projektować i produkować własne chipy IT. A w zeszły tygodniu odnotowano cztery takie wydarzenia: tygodniu miały miejsce następujące premiery.

Arm zaprezentował układ NPU Ethos-U85. Jest to trzecia generacja układów linii Ethos-U. Układ zapewnia w porównaniu ze swoim poprzednikiem 4-krotny wzrost wydajności i o 20% wyższą efektywność energetyczną. Dotyczy to szczególnie aplikacji IoT, w których widzimy jeszcze większe wymagania dotyczące wydajności, szczególnie w takich obszarach, jak automatyzacja fabryk czy inteligentne kamery domowe. Jest przy tym tak zaprojektowany, że doskonale nadaje się do wspierania pracy systemów opartymi na układach Cortex-M i Cortex-A, i toleruje duże opóźnienia DRAM.

Zobacz również:

  • ChatGPT jako dedykowana aplikacja na komputery Mac
  • AMD chce znacząco zwiększyć efektywność obliczeniową data center. "To na potrzeby AI"
  • Snowflake Data Cloud Summit już w przyszłym tygodniu

Google wprowadziło na rynek układ Axion. Jest to pierwszy układ Google oparty na architekturze ARM i został zaprojektowany z myślą o obsługiwaniu centrów danych. Axion jest zbudowany w oparciu o standardową architekturę i zestaw instrukcji Armv9. i zapewnia bezproblemowe działanie popularnych systemów operacyjnych i pakietów oprogramowania na serwerach i maszynach wirtualnych, ułatwiając klientom wdrażanie obciążeń ARM w Google Cloud. Google zapewnia klientom korzystającym z jego chmury wykorzystującej takie procesory dostęp do ekosystemu dziesiątek tysięcy klientów, którzy wdrażają obciążenia i wykorzystują oprogramowanie dostarczane przez setki niezależnych dostawców oprogramowania i projektów aplikacji open source.

Intel zaprezentował akcelerator AI noszący nazwę Gaudi 3, który zapewnia 1,5-krotny wzrost przepustowości w porównaniu do swojego poprzednika oraz o 50% lepsze wnioskowanie i średnio o 40% lepszą wydajność energetyczną w porównaniu z flagowym produktem tego typu oferowanym przez firmę Nvidii (mowa o układzie H100). Ma być przy tym o rząd wielkości tańszy.

Meta pokazała zapowiedziany jeszcze w zeszłym roku, swój najnowszy akcelerator MTIA v1 (Meta Training and Inference Accelerator), zapewniając iż jest on trzy razy wydajniejszy niż pierwsza wersja. Architektura układu skupia się zasadniczo na zapewnieniu właściwej równowagi mocy obliczeniowej i takich przepustowości pamięci i jej pojemności, jakie są potrzebne do obsługi modeli szkoleniowych i rekomendacyjnych.

Akcelerator składa się z siatki elementów przetwarzających (PE) o wymiarach 8x8, która zapewnia znacznie zwiększoną wydajność obliczeń. Meta podwoiła wielkość pamięć SRAM wbudowanej w chip i zwiększyliśmy jego przepustowość 3,5 razy oraz podwoiła pojemność pamięci LPDDR5.

Chociaż wszystkie cztery firmy eksperymentowały już wcześniej z akceleratorami AI, to ich zeszłotygodniowe premiery zasługują na szczególną uwagę. Świadczą o tym iż grono firm chcących odegrać istotną rolę na rynku układów ciągle powiększa się i póki co trudno przewiedzieć, jak ta walką się zakończy. Jedno jest pewne, wygranymi będą firmy wdrażające aplikacje AI, które mogą liczyć na to iż będą one pracować coraz szybciej.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200