Jaka architektura do centrum danych

Budowę nowego centrum danych lub modernizację istniejącego można dziś zrealizować przy użyciu jednej z dwóch platform serwerowych – Intel Xeon Scalable lub AMD Epyc. Czym różnią się te platformy, jakie są ich wady i zalety oraz w jakich zastosowaniach lepiej się sprawdzają?

2017 przeszedł do serwerowej historii jako rok, w którym na rynku zadebiutowały zupełnie nowe platformy serwerowe. W czerwcu 2017 r. pojawiły procesory AMD Epyc bazujące na premierowej architekturze Zen. Na rynkową odpowiedź Intela nie trzeba było długo czekać – już w lipcu zaprezentował nową rodzinę serwerowych procesorów Xeon Scalable. Układy charakteryzują się, ulepszoną architekturą, która wykorzystuje nowy system komunikacji między rdzeniami i nowy kontroler pamięci. Procesory te mogą mieć maksymalnie do 28 rdzeni i obsługiwać do 6 TB pamięci. Co więcej, platforma wieloprocesorowa pozwala na tworzenie systemów zawierających maksymalnie do ośmiu procesorów.

Intel Xeon Scalable pierwszej generacji

Procesory Intel Xeon Scalable zostały zaprojektowane z myślą o zastosowaniach w infrastrukturze chmurowej, algorytmach sztucznej inteligencji oraz obsłudze najbardziej wymagających aplikacji biznesowych. Wbudowane funkcje, takie jak Intel Advanced Vector Extension 512, skracają czas zaawansowanych analiz i kompresji danych oraz przyspieszają działanie aplikacji, w których przetwarza się duże zbiory danych oraz wykonuje zaawansowane działania, wymagające dużej mocy obliczeniowej.

Zobacz również:

  • Strategiczna współpraca NTT DATA Business Solutions i Beyond.pl

Procesory można wykorzystać w realizowanym w czasie rzeczywistym modelowaniu, obliczeniach wysokiej wydajności, symulacjach, przetwarzaniu Big Data, uczeniu maszynowym czy tworzeniu treści cyfrowych.Układy oferują lepszą wydajność (poprawa sięga, w zależności od zastosowań, nawet 65% w porównaniu z poprzednią generacją Xeonów), a także aż pięciokrotny wzrost liczby obciążeń związanych z przetwarzaniem transakcji OLTP. Co ciekawe, ich wydajność w samym tylko uczeniu maszynowym zwiększyła się ponad dwa razy. Możliwe jest też uruchomienie ponad czterokrotnie większej liczby wirtualnych maszyn, co przekłada się nawet na 65% niższe całkowite koszty posiadania w porównaniu do starszych serwerów.

Warto zwrócić uwagę, że układy z serii Scalable pozwalają bardzo łatwo zoptymalizować koszty budowy serwerowni lub centrum danych. Z biznesowego punktu widzenia istotną zaletą procesorów Intela jest możliwość łatwej, sukcesywnie prowadzonej rozbudowy poszczególnych maszyn, w chwili, gdy wzrosną potrzeby przedsiębiorstwa.

Właśnie z tą myślą, inżynierowie Intela wprowadzili m.in. architekturę Mesh, która zastąpiła wcześniejszą pierścieniową metodę wymiany danych pomiędzy poszczególnymi rdzeniami i procesorami. Dzięki temu udało się zmniejszyć oraz usprawnić przepływ danych w systemach wielordzeniowych i wieloprocesorowych. A magistralę QPI stosowaną tu do połączeń między rdzeniami zastąpiono szybszą UPI.

Z kolei Intel QuickAssist Technology przyspiesza kompresję danych i szyfrowanie nawet do trzech razy, dzięki czemu wydajność pomiędzy operacjami realizowanymi na danych zaszyfrowanych i niezaszyfrowanych, czyli tzw. narzut wydajnościowy, nie przekracza 1%. Do procesorów trafiła też pełna obsługa nośników SSD, w tym Intel Optane, co ma istotne znaczenie w aplikacjach wymagających olbrzymiej wydajności od nośników danych. Dwie ostatnie technologie zwiększają nie tylko bezpieczeństwo transmisji i przechowywania danych, ale również, zwłaszcza dzięki pełnej obsłudze nośników SSD, udało się do minimum ograniczyć przerwy w świadczeniu usług, które zależą od wydajności dysków.

Szlachetne rodziny

Procesory Intel Xeon Scalable pierwszej generacji dostępne są obecnie w czterech wariantach: Platinum, Gold, Silver i Bronze – łącznie w sprzedaży są 52 modele. Pierwsze to układy do wymagających zadań, takich jak: kluczowe z biznesowego punktu widzenia procesy sztucznej inteligencji, analizy prowadzone w czasie rzeczywistym, chmury hybrydowe czy infrastruktura o dużej gęstości. Najsilniejszy dostępny model to Intel Xeon Platinum 8180 – 28 rdzeni, taktowanie 2,5 GHz (w trybie turbo 3,8 GHz), 38,5 MB pamięci cache L3.

Z kolei seria Gold to procesory do zadań krytycznych, w których wymagane są: niezawodność, najszybsza pamięć oraz duża wydajność komunikacji. Modelem o najwyższych parametrach jest tutaj 18-rdzeniowy, 3-gigahercowy Xeon Gold 6154 z 24,75 MB pamięci cache L3. Seria Silver charakteryzuje się przede wszystkim balansem pomiędzy wydajnością oraz energooszczędnością, a także stosunkowo niskimi kosztami utrzymania. Przeznaczona jest do typowych zadań biznesowych, a najszybszy dostępny w niej model to Intel Xeon Silver 4116 (12 rdzeni, 2,1 GHz, 16,5 MB L3). Ostatni wariant, Bronze, to platforma dla małych firm, która dostępna jest w przystępnej cenie. Najmocniejszy procesor w tej wersji to Xeon Bronze 3106 (8 rdzeni, 1,7 GHz, 11 MB L3).

Nadchodzi Xeon Scalable drugiej generacji

W kwietniu br. Intel zapowiedział drugą generację procesorów Xeon Scalable. Z technicznego punktu widzenia są to odświeżone modele pierwszej generacji i wszystkie układy kompatybilne są z dotychczasowymi płytami głównymi z podstawką LGA 3467. To bardzo dobra informacja dla użytkowników, którzy chcą łatwo i niskim kosztem i zmodernizować swoją dotychczasową platformę serwerową.

Z punktu widzenia zastosowań krytycznych, zwłaszcza w sektorze finansowym, istotne jest to, że inżynierowie Intela załatali też większość luk bezpieczeństwa wynikających z podatności Meltdown i Spectre. Producent chwali się też zastosowaniem technologii Intel Deep Learning Boost (AVX-512 VNNI), która ma przyspieszyć operacje związane z uczeniem maszynowym i sztuczną inteligencją. Obserwowany tu wzrost wydajności ma być, zdaniem Intela, nawet kilkukrotny.

W drugiej generacji Xeon Scalable zachowano również podział na cztery segmenty: Platinum (modele 8200), Gold (6200/5200), Silver (4200) oraz Bronze (3200). Poszczególne procesory nadal oferują od 4 do 28 rdzeni, ale ich taktowanie zostało nieco podniesione – np. 28-rdzeniowy Xeon Platinum 8280 taktowany jest zegarem 2,7 GHz (4 GHz w trybie turbo) zamiast 2,5 GHz. Warto wspomnieć, że część modeli, oznaczona literą Y, dodatkowo wspiera technologię Speed Select, która pozwala na lepsze zarządzanie obciążeniem obliczeniami i taktowaniem rdzeni, co ma duże znaczenie w systemach Big Data i zastosowaniach związanych ze sztuczną inteligencją.

Dodatkowym atutem drugiej generacji Xeonów jest przyspieszenie kontrolera pamięci z 2666 do 2933 MHz oraz dodanie wsparcia dla pamięci Optane DC. Te modyfikacje pozwolą na lepsze wykorzystanie nowych maszyn wszędzie tam, gdzie kluczowy jest jak najszybszy szybki dostęp do zgromadzonych na dyskach danych.

Warto wspomnieć, że w czerwcu zadebiutowała nowa seria procesorów Xeon Platinum 9200, która objęła modele 9221/ 9222 (32 rdzenie, 2,1 GHz, 71,5 MB cache L3), Platinum 9242 (48 rdzeni 2,3 GHz, 71,5 MB cache L3) oraz 56-rdzeniowy Platinum 9282 (2,6 GHz i 77 MB cache L3). Dysponują one 12-kanałowym kontrolerem pamięci DDR4-2933 i będą montowane bezpośrednio na laminacie płyty głównej w obudowie BGA z 5903 stykami. Nie da się więc za ich pomocą w łatwy sposób zmodernizować starszych maszyn.

Kości z serii 9200 to tak naprawdę dwa połączone procesory Xeon Scalable. Na jednym laminacie tworzącym płytkę procesora znalazły się dwa wielordzeniowe krzemowe układy, które komunikują się za pomocą magistrali UPI. Dzięki temu uzyskano znacznie wyższą wydajność i możliwość współpracy aż 56 rdzeni, które jednocześnie mogą przetwarzać 112 wątków! Ruch ten został podyktowany powolną utratą udziałów Intela na rynku procesorów serwerowych i zbliżającą się premierą kolejnej generacji procesorów AMD EPYC korzystających z 7-nanometrowej architektury AMD Zen 2.

AMD Epyc, czyli alternatywa dla Intela

Premiera serwerowych układów AMD Epycz serii 7000, która odbyła się w czerwcu 2017 r., zmieniła w zasadniczy sposób układ sił panujący na rynku profesjonalnych procesorów. Bezwzględna dominacja serwerowych Xeonów została zachwiana do tego stopnia, że w związku z premierą układów Epyc o ponad 10% zwyżkowały akcje firmy AMD.

Opracowując swoje procesory, firma AMD skupiła się na małych i średnich firmach, gdzie ma znacznie większe szanse konkurować z rozwiązaniami Intela. Z punktu widzenia takiego przedsiębiorstwa istotnym elementem przemawiającym na korzyść architektury Zen/Zen 2 jest znacznie większa obsługiwana pamięć.

Jednoprocesorowy serwer z układem Epyc 7000 pozwala zainstalować znacznie większą ilość pamięci RAM i podłączyć znacznie więcej urządzeń wejścia-wyjścia niż dwuprocesorowy serwer bazujący na układach Intel Xeon Scalable. Dzięki temu platforma Epyc odpowiada pod względem funkcjonalności i mocy obliczeniowej platformom dwuprocesorowym.

Co więcej, biorąc pod uwagę fakt, że jedna czwarta wszystkich sprzedawanych dwuprocesorowych serwerów korzysta tylko z jednego CPU i nigdy nie jest rozbudowywana, mała bądź średnia firma kupując jednoprocesorowy serwer Epyco, otrzymuje do rąk platformę, która wystarczy jej na znacznie dłużej, i to bez potrzeby ponoszenia w przyszłości kolejnych nakładów inwestycyjnych.

W wypadku platformy Epyc inwestując w jednoprocesorową platformę serwerową, mała firma otrzyma zapas możliwości na tyle duży, że wraz ze wzrostem potrzeb nie będzie musiała istotnie rozbudowywać sprzętu. W większej organizacji rozbudowa maszyny o drugi procesor pozwoli uzyskać możliwości zbliżone do systemu czteroprocesorowego, dzięki czemu współczynnik zwrotu inwestycji będzie jeszcze większy.

Oszczędności na licencjach

Kolejnym argumentem przemawiającym na korzyść platformy AMD jest to, że ze względu na wyjątkowo sprawną obsługę pamięci, serwery bazujące na procesorach Epyc7000 znakomicie sprawdzają przy obsłudze baz danych. Biorąc pod uwagę fakt, że jednoprocesorowy serwer odpowiada standardowej maszynie dwuprocesorowej, można zaoszczędzić na licencjach, zwłaszcza tam, gdzie licencja płacona jest od liczby fizycznych procesorów zainstalowanych w serwerze lub od sumarycznej liczby rdzeni.

Mało tego, dzięki możliwości obsługi do 2 TB pamięci RAM przez pojedynczy procesor, a wypadku maszyn dwuprocesorowych do 4 TB, bez problemu odbywa się przetwarzanie ogromnych baz danych SAP HANA. Mała czy średnia firma jest też w stanie samodzielnie analizować nieustrukturyzowane dane, np. pochodzące od ich klientów czy ze stron internetowych. Może też skorzystać z algorytmów sztucznej inteligencji i uczenia maszynowego do zadań klasy Business Intelligence i Business Analytics, z którymi to do niedawna radziły sobie jedynie najsilniejsze procesory Intela.

Moc obliczeniowa

Poczynione przez firmę AMD optymalizacje architektury Epyc w przepływie danych przyczyniły się m.in. do 40-proc. wzrostu współczynnika IPC (instructions per cycle), a więc liczby instrukcji wykonywanych w jednym cyklu procesora. Przekłada się to bezpośrednio na zwiększone możliwości obliczeniowe centrum danych bazujących na serwerach z architekturą firmy AMD. Dla przykładu 40-proc. wzrost liczby wykonywanych instrukcji pozwala nawet na ok. 20-proc. przyspieszenie algorytmów symulacji Monte Carlo, a co za tym idzie, skrócenie o jedną czwartą czasu potrzebnego do analizy zachowań klientów, a większą moc maszyn zgromadzonych w centrum danych można jednocześnie udostępnić większej liczbie użytkowników bez obawy o istotne spowolnienie obliczeń. Tym kierowała się firma Intel, opracowując platformę Intel Xeon Scalable.

Wszystkie te elementy składają się na bardzo dobre osiągi procesorów Epyc w wielu profesjonalnych zastosowaniach. Przede wszystkim są to obliczenia HPC, zarówno w dziedzinie obliczeń zmiennoprzecinkowych, jak i wektorowych, a także w zastosowaniach storage. Procesory Epyc wyjątkowo dobrze wypadają również pod względem współczynnika wydajności uzyskiwanego z jednego wata dostarczonej energii oraz, co ważne, wydajności liczonej na jeden rdzeń procesora, co istotne jest dla ograniczenia kosztów utrzymania infrastruktury IT.

Układy EPYC 7000 wniosły też dwa nowe mechanizmy bezpieczeństwa: szyfrowanie pamięci SME (Secure Memory Encyption) oraz szyfrowanie wirtualnych maszyn SEV (Secure Encrypted Virtualization). Dzięki nim wszystkie transakcje finansowo-giełdowe realizowane za pośrednictwem internetu, chmury i wirtualnych serwerów są znacznie bardziej bezpieczne. Co więcej, szyfrowanie zawartości pamięci odbywa się całkowicie bez udziału systemu operacyjnego, a więc znacznie trudniej przechwycić krytyczne dla działania przedsiębiorstwa dane.

Wkrótce do serwerowych procesorów Epyc ma trafić architektura Zen 2, która w lipcu 2019 r. zadebiutowała w desktopowych procesorach AMD Ryzen 3000. Nowa litografia wprowadza dwukrotnie większą gęstość upakowania tranzystorów, należy więc oczekiwać o 50% niższego zapotrzebowania na energię elektryczną przy tej samej wydajności. Ostatecznie w wypadku procesorów EPYC wszystkie te zmiany mają umożliwić osiągnięcie wyższej przeszło o 25% wydajności, co jest istotne z punku widzenia systemów montowanych w centrach danych.

W Zen 2 znajdą się również nowe funkcje związane z bezpieczeństwem, w tym sprzętowa „łatka” na podatność Spectre. Warto w tym miejscu przypomnieć, że procesory AMD nigdy nie były podatne na lukę Meltdown. Serwerowe układy EPYC produkowane będą z maksymalnie z 64 rdzeniami, 8-kanałowym kontrolerem pamięci DDR4 RAM, kontrolerem ze 128 liniami PCI-Express 4.0 i maksymalnym taktowaniem sięgającym 4600 MHz. Firma AMD zapowiada, że powinny się one pojawić w sprzedaży w trzecim kwartale br.

Jaką architekturę wybrać

Ogólnie rzecz biorąc, platforma AMD Epyc znacznie lepiej sprawdzi się w serwerowniach w małych i średnich firmach. Układy są lepiej przygotowane do przetwarzania danych w typowych zastosowaniach biznesowych, gdzie nie wymaga się ekstremalnej wydajności, ale dużego bezpieczeństwa i stabilnej pracy przy jednoczesnym zachowaniu niskich kosztów utrzymania. Układy AMD sporą przewagę uzyskują również tam, gdzie niezbędne jest operowanie na dużych ilościach danych.

Z kolei platformę Intela, zwłaszcza układy Xeon Scalable Platinum i Gold, warto stosować do krytycznych zadań biznesowych w sektorze finansowo-bankowym, wszędzie tam, gdzie wymagana jest najwyższa, wręcz ekstremalna, wydajność i niezawodność. Niestety, wadą tych rozwiązań jest wysoka cena, dlatego tego typu systemy kupowane są przez duże międzynarodowe korporacje, banki czy instytucje rządowe związane z wojskiem lub bezpieczeństwem narodowym.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200