Serwery z procesorami Xeon Nocona

Na pierwszy rzut oka wprowadzone do procesora Nocona usprawnienia wydają się odpowiadać typowej strategii wyznawanej przez Intela przy modyfikowaniu układów Xeon: taktowanie szybszym zegarem, szybsza frontowa magistrala danych.

Na pierwszy rzut oka wprowadzone do procesora Nocona usprawnienia wydają się odpowiadać typowej strategii wyznawanej przez Intela przy modyfikowaniu układów Xeon: taktowanie szybszym zegarem, szybsza frontowa magistrala danych.

Tym razem jednak Intel wprowadził do układu kilka innych istotnych innowacji, mając nadzieję, że Nocona ograniczy zainteresowanie nowymi serwerami opartymi na procesorach AMD Opteron.

Nocona ma identyczny rdzeń jak ten stosowany w układach Xeon DP. Jest on oparty na intelowskiej mikroarchitekturze NetBurst. Procesor Xeon DP jest produkowany w technologii 130 nm, a Nocona - 90 nm. Dlatego też Intel mógł upakować na mniejszej powierzchni więcej tranzystorów i zmniejszyć napięcie zasilające układ. Pomogło to rozwiązać problem związany z nadmiernym poborem mocy i przegrzewaniem się układów, co ma zawsze miejsce w przypadku zwiększenia szybkości pracy zegara.

Intel zwiększył też pojemność pamięci buforowej Level 2 do 1 MB (w procesorze Xeon DP 512 KB). Zwiększając tak znacznie pojemność pamięci buforowej Level 2, Intel mógł sobie pozwolić na usunięcie z układu Nocona pamięci buforowej Level 3, która znajduje się w ostatnim modelu procesora Xeon DP. Dwukrotne zwiększenie pamięci Level 2, pracującej z pełną szybkością zegara obsługującego CPU, ma największy wpływ na skok w wydajności procesora.

W procesorze Nocona pojemność pamięci buforowej Level 1 wynosi 16 KB (dwa razy więcej niż w procesorze Xeon DP). Nie jest to dużo, ale pamięć spełnia z powodzeniem swoje zadania, ponieważ znajduje się w bezpośredniej bliskości arytmometra. To właśnie dzięki dużej pojemność pamięci Level 1 procesor Nocona może wykonywać równolegle podczas jednego cyklu zegara wiele operacji arytmetycznych.

Coś wspólnego z Opteronem

Serwery z procesorami Xeon Nocona

Xenon z 64-bitowymi rozszerzeniami

W zeszłym miesiącu przedstawiliśmy serwery z nowymi procesorami AMD Opteron. Mogłoby się wydawać, że architektury systemów opartych na tych procesorach oraz na intelowskich układach Xeon Nocona, z racji tego, że są to 64-bitowe rozwiązania, są do siebie bardzo podobne. To nieprawda. Na początek przyjrzyjmy się jednak podobieństwom.

Oba układy wykorzystują ten sam zestaw instrukcji i używają tych samych rejestrów. Nie może być inaczej, gdyż każda z nich jest oparta na stworzonej przez AMD specyfikacji x86-64. Obsługując technologię EM64T (Extended Memory 64 Technology), procesor Nocona przełamuje barierę 4 GB, bo taką przestrzeń mogą w bezpośredni sposób adresować serwery wyposażone w 32-bitowe układy CPU (oprócz Nocony tę przeszkodę omijają następujące procesory x86: Prescott, Athlon 64, Athlon 64 FX i Opteron).

Technologia 64-bitowego przetwarzania danych zastosowana w obu procesorach opiera się na tym samym założeniu: więcej pamięci i więcej rejestrów. W przypadku 64-bitowych systemów operacyjnych tradycyjny podział na pamięć fizyczną i wirtualną przestaje obowiązywać. Warto jednak zauważyć, że procesor Opteron może obsługiwać większe przestrzenie adresowe niż procesor Nocona. Za to procesor Nocona może obsługiwać dwa razy większą pamięć fizyczną niż dostępne obecnie dwuprocesorowe serwery Opteron (Nocona - 32 GB; Opteron - 16 GB).

Im więcej jest rejestrów i im większa ich długość, tym szybciej będzie pracować serwer. Więcej rejestrów to też większa szybkość przełączania zadań. Dlatego oba procesory zawierają dużo więcej rejestrów niż ma to miejsce w tradycyjnych architekturach CPU.

Wspólny mianownik dla obu architektur to: zestaw instrukcji i obsługiwana przestrzeń adresowa.

Poza tym same różnice

W architekturze Nocona wszystkie dane I/O, adresy, przerwania i dane wymieniane między procesorami są przesyłane przez współużytkowaną magistralę danych. Współużytkowanie magistrali przez wszystkie korzystające z jej usług elementy jest szczególnie nieefektywne w przypadku systemów SMP, w których wiele procesorów musi wymieniać dane ze wszystkimi współpracującymi z nimi podmiotami przez jedną magistralę danych. Chcąc odczytać dane z pamięci, procesory muszą wtedy rywalizować ze sobą o dostęp do niej.

Pracę współużytkowanej magistrali danych można usprawnić na dwa sposoby: można zwiększyć jej szybkość albo podzielić ją na wiele niezależnych od siebie magistrali.

Przykładem pierwszej metody jest rozwiązanie Intela polegające na zwiększeniu szybkości zegara taktującego magistralę z 533 do 800 MHz. To samo podejście reprezentuje technologia PCI Express. Układ scalony, który obsługuje dane przesyłane przez magistralę procesora Xeon, zawiera trzy szeregowe kanały komunikacyjne, każdy posiadający maksymalną teoretyczną przepływność 4 GB/s. Procesor Nocona ze swoją magistralą danych 6,4 GB/s nie może oczywiście w pełni wykorzystać pełnej przepustowości oferowanej przez trzy kanały 4 GB/s (razem 12 GB/s), ale ma i tak do dyspozycji dużo szybsze kanały I/O niż w przypadku magistrali PCI-X.

W przypadku architektury AMD procesor dysponuje czterema niezależnymi od siebie magistralami. Jedna magistrala, mająca przepustowość 6,4 GB/s, obsługuje wyłącznie dane wymieniane z pamięcią. W architekturze Opteron każdy procesor dysponuje własnym bankiem pamięci. Dlatego po dodaniu do serwera kolejnego procesora, teoretyczna szybkość, z jaką serwer wymienia dane ze światem zewnętrznym, zawsze wzrasta.

Opteron wymienia dane z innymi elementami systemu (z urządzeniami peryferyjnymi i pozostałymi procesorami), używając do tego celu kontrolerów magistrali HyperTransport, które są wbudowane w CPU. Jest to równoległa magistrala, opracowana przez AMD. Jej przepływność to 6,4 GB/s (3,2 GB/s w każdym kierunku).

Przepustowość całego systemu opartego na technologii HyperTransport może wynieść 19,2 GB/s. Dzięki istnieniu bezpośrednich połączeń HyperTransport, sprzęgających ze sobą układy CPU, wszystkie procesory mają dostęp do całej pamięci systemowej i mogą ją współużytkować, pobierając z niej dane z pełną szybkością.

Konstrukcja układu Nocona to jedno z największych osiągnięć Intela. To doprowadzony do szczytów swoich możliwości układ Xeon. Przy czym Nocona to potencjalny pogromca układów Xeon DP, ale nie procesorów Opteron. Dlaczego? Odkładając na bok architekturę samego układu, a biorąc pod uwagę różnice występujące na poziomie systemu, domeną Nocony pozostają rozwiązania dwuprocesorowe.

PCI-Express - koniec kłopotów z kanałami I/O

Serwery z procesorami Xeon Nocona

Serwer z magistralą PCI-Express

Procesor to jednak nie wszystko. W serwerach w komunikacji ze światem zewnętrznym krytyczne znaczenie mają też magistrale danych. Do tej pory królowały systemy I/O oparte na technologiach PCI i PCI-X. Są to magistrale mające architekturę równoległą, które osiągnęły szczyt swoich możliwości i ich ograniczona przepustowość obecnie stanowi w serwerach wąskie gardło. Zaprezentowane na następnych stronach serwery z nowymi procesorami Xeon oferują znacznie wydajniejsze magistrale PCI-Express.

Technologia PCI-Express, zastępująca PCI-X, pozwala układom wbudowanym w płytę główną (oraz kartom rozszerzeń) wymieniać dane w trybie punkt-punkt (a nie wykorzystywać do tego celu współużytkowanej przez wiele układów magistrali danych). Przejście na technologię PCI-Express można porównać do zastąpienia w sieciach Ethernet koncentratorów przełącznikami. Przepływność połączenia nie jest tu współdzielona przez wiele urządzeń (koncentrator i PCI-X), a jest w 100% wykorzystywana przez stację nadającą i odbierającą (PCI-Express i przełącznik).

Jeśli w serwerze dysponującym dyskami twardymi SCSI zainstalujemy interfejs sieciowy Ethernet 10 Gb/s i pozostawimy w nim magistralę PCI-X, to możemy być pewni, że to ona będzie stanowić wąskie gardło. Sytuacja poprawi się radykalnie dopiero wtedy, gdy zamiast magistrali PC-X pojawi się magistrala PCI-Express.

Do tej pory takie wymagające aplikacje bazodanowe uruchamiano na silnych serwerach wyposażonych w 4, 8 lub 16 procesorów. Po pojawieniu się w serwerach technologii PCI-Express coraz częściej takie aplikacje są obsługiwane przez klastry składające się z kilku 2- lub 4-procesorowych systemów x86.

W magistrali PCI-Express mamy do czynienia z szeregowymi połączeniami, podobnymi do tych, jakie są stosowane w połączeniach Gigabit Ethernet i Fibre Channel. PCI to połączenie równoległe - magistrala współużytkowana przez wiele podmiotów (nadajników/odbiorników), w której dane są transmitowane jednocześnie bit obok bitu. Kłopot polega tu na tym, że sygnały muszą być koordynowane. Przepustowość połączenia można zwiększyć, dodając więcej ścieżek transmisji i używając większej częstotliwości. Ale po przekroczeniu pewnego progu, taka metoda nie zdaje egzaminu. Koszty związane z koordynowaniem sygnałów są zbyt duże.

PCI-Express udostępnia każdemu urządzeniu jego własną magistralę. Jest to dedykowane połączenie składające się z dwóch ścieżek: ścieżki odbierającej dane i ścieżki wysyłającej dane. Każda z nich wykorzystuje częstotliwość 2,5 GHz. Przepustowość magistrali PCI-Express można zwiększać, dodając kolejne połączenia. Obecnie dostępne są magistrale PCI-Express w konfiguracji x1, x4, x8 i x16 połączeń.

Serwer wyposażony w gniazdo PCI-Express x16 wymienia dane ze światem zewnętrznym z szybkością 80 Gb/s. Dla porównania, gniazdo PCI-X w najwydajniejszej konfiguracji oferuje przepustowość 32 Gb/s.

Serwery z procesorami Xeon Nocona

Porównanie procesorów Xeon z rdzeniami Prestonia i Nocona

Na początku technologia PCI-Express nosiła nazwę 3GIO (third generation I/O). Obecna nazwa jest stosowana od 2002 r. Intel wprowadził do oferty swój pierwszy serwerowy chipset PCI-Express w połowie 2004 r. Już po kilku miesiącach z taśm produkcyjnych zaczęły schodzić pierwsze serwery obsługujące tę technologię.

Dell wprowadził technologię PCI-Express do kilku swoich serwerów, w tym do serwera kasetowego Power-Edge 1855. IBM stosuje technologie PCI-Express w swoich nowych 2-procesorowych serwerach opartych na układach Xeon. HP też dodaje magistralę PCI-Express do niektórych swoich serwerów z procesorami Xeon.

Serwery wyposażone w magistralę PCI-Express wspierają też starsze karty wyposażone w złącza PCI i PCI-X. Ważne jest to, że technologia PCI-Express zapewnia wsteczną zgodność z większością oprogramowania, co oznacza, że sterowniki nie muszą być ponownie pisane.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200