Dzięki tej pamięci serwery kolejnej generacji będą pracować dużo wydajniej

HBM to jedna z tych technologii, która może zrewoluzjonizować rynek IT. To skrót od słów High Bandwidth Memory. Technologia ta jest cały czas rozwijana, chociaż oparte na niej pamięci – bo o ten sprzętowy element komputerów chodzi - wchodzą już powoli do centrów danych. Jak sama nazwa na to wskazuje, jest to pamięć o bardzo dużej przepustowości.

Grafika: AMD

Pamięci HBM są szczególnie przydatne wtedy, gdy na komputerze uruchamiamy aplikacje wymagające dużej ilości zasobów czy wykorzystujące sztuczną inteligencję. Pierwsze pamięci tego typu zostały opracowane przez dwie firmy. Chodzi o AMD i SK Hynix. Początki sięgają 2008 roku, gdy specyfikacja techniczna opisująca budowę takich pamięci został przekazana konsorcjum JEDEC, organowi normalizacyjnemu zatwierdzającemu standardy stosowane przez firmy wytwarzające półprzewodniki. Standard HBM2 został zatwierdzony sześć lat temu, a na początku tego roku JEDEC zaakceptował standard HBM3.

Produkcją pamięci HBM zajmują się obecnie głównie południowokoreańskie firmy: Samsung, SK Hynix i Micron Technology. Pamięci HBM zostały zaprojektowane z myślą o rozwiązaniu problemów związanych z małą wydajności standardowych pamięci DRAM, które są instalowane w komputerach w gniazdach typu DIMM (Dual In-Line Memory Module). Problem z pamięciami DRAM nie dotyczy tylko ich małej wydajności, ale magistrali łączącej takie pamięci z jednostkami CPU czy GPU.

Zobacz również:

  • NASA wysyła robota-chirurga w kosmos
  • Pamięci Optane odchodzą do lamusa
Dzięki tej pamięci serwery kolejnej generacji będą pracować dużo wydajniej

Pamięć HBM firmy Samsung

Standardowo magistrala taka ma szerokość pod 8 do 32 bitów. Magistrala HBM ma natomiast szerokość 1024 bitów. Co to oznacza, że nie trzeba chyba nikomu tłumaczyć. Oprócz poszerzenia magistrali (czyli zwiększenia jej przepustowości) technologia HBM pozwala też zmniejszyć rozmiar samych układów pamięci. Dość powiedzieć, że układ pamięci GDDR o wielkości 1 GB zajmuje powierzchnię o wielkość prawie 700 milimetrów kwadratowych, podczas gdy w przypadku pamięci HBM o tej samej wielkości jest to tylko 35 milimetrów kwadratowych.

Kolejna kwestia to budowa pamięci. Zamiast rozmieszczać tranzystory poziomo, w pamięciach HBM są one rozmieszczone pionowo, tworząc stos składający się z 12 warstw, które wymieniają między sobą dane za pośrednictwem łącz bazujących na technologii TSV (Through Silicon Via). Łącze takie TSV przez wszystkie warstwy pamięci HBM, skracając znacznie czas potrzebny na dostarczenie danych układowi CPU czy GPU. I jeszcze jedno. Ponieważ pamięć HBM znajduje się zawsze tuż obok procesora lub karty graficznej, do przenoszenia danych potrzeba znacznie mniej energii.

Pierwszą firmom, która wprowadziła pamięci HBM do komputerów HPC, było Fujitsu. Był to superkomputer Fugaku wyposażony w procesory A64FX, który od razy dostał się w 2020 roku na listę Top500. Firma Nvidia wprowadziła natomiast pamięci HBM do swojej jednostki obliczeniowej GPU noszącej nazwę Hopper. Z kolei AMD używa pamięci HDM w swoim akceleratorze Instinct MI250X, podczas gdy Intel zapowiada, że wprowadzi taką pamięć do niektórych serwerowych procesorów linii Sapphire Rapids.

Pozostaje w tym momencie zapytać, czy pamięć HBM wkroczy w najbliższej przyszłości również do standardowych serwerów. Jeśli chodzi o cenę, to nie powinno tu być większych problemów. Szacuje się, że obecnie 1 GB pamięci HBM kosztuje mniej więcej dwa razy więcej niż pamięć DDR5. Wiele firm – szczególnie tych, które uruchamiają bardzo wymagające aplikacje biznesowe - zaakceptuje taką różnicę mając świadomość tego, że serwer wyposażony w pamięci HBM pracuje wtedy dużo wydajniej.

Problemem może być natomiast to, że serwery zawierające pamięć HBM muszą być intensywnie chłodzone. Oprócz procesora, który musi być chłodzony, serwer taki zawiera układów pamięci, od których trzeba również odprowadzać ciepło. Dlatego każdy serwer zawierający pamięci HBM musi mieć do dyspozycji dodatkowy moduł chłodzenia. A to kosztuje.

Obecnie na rynku dominują pamięci HBM2E, ale JEDEC opublikował pięć miesięcy temu finalną wersję specyfikacji HBM3. Bazujące na niej pamięci wydzielają dużo mniej ciepła niż pamięci HBM2E, co w dużym stopniu rozwiązuje ten problem. Pamięci HBM3 podwajają również w porównaniu z pamięciami HBM2 szybkość transmisji danych do wielkości 6,4 Gb/s, jak również liczbę kanałów (z ośmiu do szesnastu).

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200