Nowe pomysły na serwery

Procesory Shanghai zużywają ok. 75 watów mocy, mają częstotliwości od 2,3 GHz do 2,7 GHz i są wyposażone w ulepszone mechanizmy hyperthreading oraz funkcje umożliwiające wyłączenie aktywności niewykorzystywanych elementów procesora. W I kwartale 2009 r. mają się pojawić kolejne modele Shanghai, zużywające 55 i 105 W mocy.

Według AMD procesory te są co najmniej o 20% bardziej wydajne od porównywalnych układów Barcelona, mając jednocześnie o 35% mniejsze zużycie energii, a jednocześnie są z nimi zgodne, co oznacza, że można je instalować w serwerach wyposażonych w starsze wersje Opteron, płyt głównych i pamięci RAM.

Shanghai mają też ulepszony system AMD Direct Connect Architecture, nową wersję AMD-Vrtualization (AMD-V), która została wyposażona w zmodyfikowane funkcje Rapid Virtualization Indexing, 2-krotnie większą pamięć cache L3 o pojemności 6 MB oraz wsparcie dla DDR2-800, pamięci o zużyciu mocy istotnie mniejszym niż w pamięciach FB DIMM (Fully-Buffered DIMM) wykorzystywanych w systemach Intela.

Dostępne są dwie serie układów Shanghai: Opteron 2000 i Opteron 8000. Ta druga jest przeznaczona dla serwerów wyposażonych w 4 lub 8 procesorów i obsługuje trzy kanały hypertransport do wymiany danych i współdzielenia pamięci RAM.

W tym roku AMD zapowiada wprowadzenie kolejnych, 6-rdzeniowych układów serwerowych Opteron-Istanbul, a w 2010 r. - procesorów 12-rdzeniowych, znanych obecnie pod kodową nazwą Magny-Cours. Jednocześnie AMD planuje udostępnienie w II kwartale br. nowej wersji szyny danych HyperTransport 3.0 o przepustowości 17,6 GB/s.

Procesory graficzne nie tylko dla grafiki

Na liście najwydajniejszych superkomputerów pierwszą pozycję wciąż utrzymuje IBM Roadrunner - system hybrydowy wykorzystujący 12 960 układów PowerXCell 8i Cell Broadband Engine oraz 6948 2-rdzeniowych procesorów AMD Opteron. Ale koncepcja wykorzystania procesorów graficznych do wspomagania pracy i zwiększania wydajności systemów komputerowych dotyczy nie tylko największych superkomputerów, jest też coraz wyraźniej widocznym kierunkiem rozwoju technologii serwerowych.

Na przykład pod koniec ubiegłego roku AMD wprowadziła akceleratory FireStream 9270 oraz wersję beta darmowej biblioteki open source dla programistów ATI Stream Software Development Kit (SDK) v. 1.3. Produkty te są adresowane do takich użytkowników, jak naukowcy, inżynierowie i instytucje, dla których najważniejsza jest wysoka wydajność wykorzystywanych komputerów.

FireStream 9270 umożliwia istotne zwiększenie mocy obliczeniowej standardowych serwerów lub stacji roboczych i zdaniem AMD, w niektórych zastosowaniach, może być atrakcyjną alternatywą dla zakupu drogich, specjalizowanych systemów lub nawet superkomputerów. Katalogowa cena FireStream 9270 to 1500 USD.

Natomiast pakiet SDK ułatwia przystosowanie aplikacji do korzystania z możliwości oferowanych przez systemy wykorzystujące tego typu dodatkowe akceleratory, bo oczywiście nic nie jest za darmo i skorzystanie z tego typu rozwiązań wymaga odpowiedniej modyfikacji oprogramowania.

Oba te produkty są elementem realizacji tzw. strategii Fusion, ogłoszonej w ub.r. przez AMD. Zakłada ona m.in. modyfikację architektury układów, tak by standardowe procesory ogólnego przeznaczenia mogły efektywnie współpracować z układami graficznymi GPU, a w efekcie pozwolić na budowę platform komputerowych o łatwo skalowalnej wydajności, względnie niskim zużyciu energii, a przede wszystkim stosunkowo tanich, bo opartych na standardowych, masowo wytwarzanych układach.

"AMD FireStream 9270 jest wyposażony w 2 GB najwydajniejszej obecnie pamięci graficznej GDDR5 (Graphics Double Data Rate 5) i ma wydajność przetwarzania 2-krotnie wyższą od oferowanej przez podobne akceleratory dostępne obecnie na rynku" - zapewnia Rick Bergman, dyrektor AMD Graphics Products Group. Akcelerator zużywa 160 W mocy i ma wydajność 1,2 TFLOPS przy przetwarzaniu liczb o pojedynczej precyzji i 2,4 TFLOPS przy podwójnej precyzji.

Nowe pomysły na serwery

Pod koniec ubiegłego roku Nvidia zaprezentowała Tesla Personal Supercomputer - komputer z akceleratorem wykorzystującym cztery układy GPU Tesla C1060 (na zdjęciu), który w testach osiągnął wydajność 4 TFLOPS.

Rozwiązania sprzętowe wykorzystujące akceleratory AMD przygotowuje m.in. firma Aprius, która zapowiedziała wprowadzenie Aprius Computational Acceleration System - serwerów stelażowych umożliwiających instalację do 8 modułów AMD FireStream 9270. Ich wydajność ma osiągnąć poziom zbliżony do 10 TFLOPS. Aprius opracowała innowacyjny system komunikacyjny o przepustowości do 80 Gb/s, stosujący standardowe szyny PCI Express do łączenia elementów za pośrednictwem kabli optycznych o długości do 50 m.

AMD współpracuje też z HP i być może już wkrótce akceleratory FireStream 9270 będą mogły być instalowane w serwerach HP ProLiant.

Oprócz tego należąca do AMD ATI Technologies udostępniła w grudniu darmowe oprogramowanie sterowników ATI Catalyst 8.12, które umożliwia wykorzystanie procesorów GPU zainstalowanych w kartach graficznych serii ATI Radeon HD 4000 do wspomagania pracy głównego procesora i zwiększania szybkości jego obliczeń. Dotyczy to oczywiście tylko niektórych aplikacji, które intensywnie stosują strumieniowe przetwarzanie danych, np. konwersja lub kompresja wideo. Ogłoszona w listopadzie ub.r. technologia ATI Stream jest już obsługiwana przez aplikacje, takie jak: Adobe PhotoShop CS4, After Effects CS4, Flash Player 10, Acrobat Reader, Windows Vista, PowerPoint 2007, Expression Encoder, odtwarzacz Silverlight i in.

ATI zapowiada wprowadzenie systemów wykorzystujących układy Radeon HD 4870, które będą kosztować ok. 1500 USD, umożliwią instalację do ośmiu procesorów w obudowie stelażowej 4U i uzyskanie mocy przetwarzania do 10 TFLOPS.

Nvidia już od ponad roku promuje ideę i technologie umożliwiające zastosowanie układów GPU tej firmy do wspomagania przetwarzania danych przez procesory ogólnego przeznaczenia. Pod koniec ubiegłego roku firma zaprezentowała Tesla Personal Supercomputer - komputer z akceleratorem wykorzystującym cztery układy GPU Tesla C1060, który w testach osiągnął wydajność 4 TFLOPS.

Integracja PCIe z Ethernet

Oryginalnym pomysłem firmy NEC jest ExpEther - technologia umożliwiająca integrację interfejsów PCI Express i Ethernet, a w efekcie zatarcie granicy między lokalnymi szynami danych oraz systemami do ich transmisji na dużą odległość. Jest ona rozwijana przez NEC od ponad 2 lat.

ExpEther stosuje mechanizmy wirtualizacyjne do integracji PCI Express (PCIe) oraz sieciowych łączy Ethernet, i umożliwia wykorzystanie Gigabit Ethernet jako warstwy transportowej dla interfejsów szeregowych PCIe. Technologia ta może znaleźć zastosowanie na przykład w serwerach kasetowych do bezpośredniego łączenia za pośrednictwem sieci Ethernet ich szyn PCIe z pamięciami masowymi lub innymi serwerami.

ExpEther umożliwia integrację serwerów i sprzętu sieciowego oraz tworzenie środowiska wykorzystującego wirtualne zasoby I/O. Na przykład systemu, który łączy wiele komputerów i urządzeń peryferyjnych przy użyciu łatwej do modyfikacji sieci VLAN (Virtual LAN).

Zaprezentowany w ubiegłym roku prototypowy system NEC ExpEther umożliwiał dołączenie do szyny PCIe komputera, za pośrednictwem standardowej sieci Gigabit Ethernet, elementów peryferyjnych znajdujących się w odległości ponad 2 km. A według inżynierów firmy NEC, zasięg ten może być zwiększony nawet do kilkudziesięciu kilometrów.

ExpEther wymaga jednak zastosowania odpowiednich adapterów takich, jak karty sieciowe ze złączem PCIe oraz konwertery przekształcające pakiety Ethernet na format sygnałów PCIe, lub też karty PCIe z odpowiednimi interfejsami umożliwiającymi podłączanie urządzeń wyposażonych w złącza SATA, USB itp.

Jest to więc rozwiązanie dość złożone, ale system taki umożliwia dynamiczną, zależną od bieżących potrzeb modyfikację konfiguracji serwera, bez konieczności zmian sprzętowych. Pozwala na przykład na podłączenie zainstalowanego w innym komputerze akceleratora IPSec i w ten sposób przystosowanie serwera do pełnienia funkcji serwera webowego, a jeśli podłączone zostaną karty z interfejsami Fibre Channel, to serwer może zacząć obsługiwać bazę danych. A z punktu widzenia komputera i urządzeń peryferyjnych komunikacja wygląda tak, jakby były one bezpośrednio połączone za pośrednictwem szyny PCI Express.

Futurystyczna architektura serwerów

Podczas dorocznej konferencji Gartner 27 Data Center Conference analitycy tej firmy przedstawili prognozy, że serwery kasetowe już za kilka lat zostaną zastąpione nową, znacznie bardziej elastyczną architekturą komputerów wykorzystujących procesory, pamięć i interfejsy I/O jako współdzielone zasoby, które mogą być przydzielane i konfigurowane zależnie od bieżących, zmieniających się potrzeb użytkowników centrum danych.

Obecnie użytkownicy serwerów kasetowych są uzależnieni od producentów, którzy decydują, jakie proporcje między mocą obliczeniową, pojemnością pamięci i przepustowością interfejsów I/O są udostępniane przez sprzęt. Nowa architektura umożliwi użytkownikowi samodzielne decydowanie o tym, jakie zasoby i jak duże są mu niezbędne, oraz niezależne dopasowywanie do nich każdego elementu systemu. To na razie tylko dość ogólna wizja, której praktyczna realizacja zależy oczywiście od producentów sprzętu. Ale wydaje się, że ma ona realne perspektywy urzeczywistnienia i najprawdopodobniej już za kilka lat usłyszymy o nowych, rewolucyjnych platformach serwerowych tego typu.


TOP 200