Wydajność dobrze skoncentrowana

Wysoka wydajność i funkcje zarządzania zachęcają do konsolidacji serwerów na platformie RISC.

Wysoka wydajność i funkcje zarządzania zachęcają do konsolidacji serwerów na platformie RISC.

Obsługa operacji finansowych, transakcji giełdowych i obsługa wielkich przedsiębiorstw to nadal domena pracujących pod kontrolą Unixa serwerów z procesorami RISC - potężniejszych niż komputery z układami Intela, a mniej kosztownych niż mainframe. Według IDC, ogólnoświatowe obroty ze sprzedaży serwerów RISC w 2000 r. wyniosły 29 mld USD. To niemal połowa całego rynku serwerów, którego wartość osiągnęła 60 mld USD.

Rynek RISC od wielu lat jest zdominowany przez Compaqa, Hewlett-Packarda, IBM i Sun Microsystems oraz firmę Fujitsu Siemens, szczególnie aktywną w Azji i Europie (głównie w Niemczech). Jeszcze w 2000 r. zdecydowanym liderem był Sun Microsystems z udziałem w rynku sięgającym prawie 40% - dwukrotnie większym niż kolejne w rankingu, wzięte razem HP i IBM (mające odpowiednio: 23 i 15%). W ubiegłym roku rozkład sił na rynku się zmienił. Spadek sprzedaży odczuli wszyscy, ale najwięcej stracił lider. Jak podaje IDC, w III kwartale 2001 r. udział Suna w rynku wynosił 28,8%. Tuż za nim był Hewlett-Packard z udziałem 28,5-proc. Na trzeciej pozycji znajdował się IBM - 20,9%.

Dla kogo duży RISC?

Serwery RISC są dostępne w kilku przedziałach cenowych - od najmniejszych jednoprocesorowych po wysoko wydajne systemy, umożliwiające pracę ponad setce procesorów. Oprócz wysokiej wydajności pojedynczych procesorów podstawową zaletą RISC jest możliwość elastycznego skalowania i zarządzania pracą serwerów, osiągnięta dzięki rozwiązaniom architektury, niedostępnym jeszcze w świecie Intela.

Serwery RISC są wykorzystywane w zadaniach wymagających dużych mocy obliczeniowych (zarówno pod względem wydajności procesorów i pamięci, jak i systemów wejścia/wyjścia) oraz tam, gdzie jest przewidywany znaczący wzrost zapotrzebowania w miarę upływu czasu. Przykłady takich zastosowań to: transakcyjne bazy danych, wymagające szybkiego dostępu do ogromnej liczby dysków; aplikacje o szybkim i trudno przewidywalnym wzroście obciążenia (np. sklepy internetowe); zadania obliczeniowe wymagające skonsolidowanej mocy do symulowania zjawisk fizycznych, obliczeń biotechnologicznych lub chemicznych, modelowania, meteorologii itp.

Realizacja zadań obliczeniowych o różnych priorytetach (a jednocześnie nieograniczonym zapotrzebowaniu na moc przetwarzania) i uruchamianie na jednym serwerze co najmniej kilku aplikacji wymusiły na producentach opracowanie efektywnych mechanizmów zarządzania pracą serwerów i alokacji zasobów. Osiągnęły już one wysoki poziom zaawansowania, pozwalając administratorom dowolnie przydzielać zasoby aplikacjom dynamicznie zmieniając np. liczbę przydzielonych procesorów i pamięci w zależności od aktualnie realizowanych zadań. Ponadto wielu producentów stosuje model sprzedaży nazwany Capacity on demand lub Pay as you grow - klient może otrzymać bez dodatkowych opłat serwer wyposażony w większą liczbę procesorów niż w danej chwili potrzebuje. Za wykorzystanie zapasowych procesorów płaci dopiero wtedy, gdy działające na serwerze aplikacje w szczytowym momencie zapotrzebowania wykorzystają ich potencjał obliczeniowy.

Wyrafinowane mechanizmy zarządzania, pozwalając na praktycznie 100-proc. wykorzystanie dostępnej mocy serwerów RISC, i elastyczne limitowanie "zasobochłonności" aplikacji przyczyniły się do powrotu idei centralizacji przetwarzania. Za coraz popularniejszą ideą konsolidacji wielu mniejszych serwerów w jednej dużej maszynie RISC przemawiają również takie argumenty, jak łatwiejsze zarządzanie, zmniejszenie problemów związanych z replikacją danych oraz mniejsze koszty zakupu oprogramowania. Możliwość logicznego i fizycznego partycjono-wania serwerów (umożliwienia im uruchamiania wielu niezależnych kopii systemu operacyjnego i aplikacji) ułatwia podjęcie decyzji o konsolidacji i powoduje, że duże serwery RISC stają się dobrą alternatywą dla mniej wydajnych serwerów intelowskich i małych serwerów RISC, a jednocześnie tańszą w eksploatacji niż systemy mainframe.

Architektura

Praktycznie wszystkie obecnie dostępne na rynku duże serwery RISC to konstrukcje 64-bitowe, co eliminuje ograniczenia adresowania dużych pamięci fizycznych i wirtualnych (na dyskach), upraszcza strukturę oprogramowania i przyśpiesza wykonywanie rozkazów.

Wysoką niezawodność i dostępność zapewniają redundancyjne systemy zasilania i chłodzenia, mechanizmy kontroli i usuwania błędów na wszystkich poziomach, tzn. magistralach systemowych, pamięci RAM, pamięci podręcznej, a w niektórych konstrukcjach nawet możliwość wymiany procesora "na gorąco".

Dominującą tendencją architektoniczną w dużych serwerach są konstrukcje oparte na jedno- lub wielopozio- mowych przełącznicach krzyżowych (crossbar switch), łączących poszczególne komponenty komputerów: moduły procesorów, pamięć i układów do obsługi wejścia/wyjścia (dysków, kart sieciowych, łącza do innego komputera w klastrze). Pozwalają one na stworzenie konstrukcji, w których moc obliczeniowa, wydajność pamięci i szybkość kanałów we/wy są wzajemnie zrównoważone i umożliwiają zbliżoną do liniowej charakterystykę skalowania mocy serwera jako całości.

Z punktu widzenia systemu operacyjnego są to czyste konstrukcje z symetrycznym przetwarzaniem równoległym SMP, reprezentujące jednolity widok systemu. W praktyce zaś są to raczej konstrukcje CC-NUMA (Cache Coherent Non-Uniform Memory Access), w których procesor ma najszybszy dostęp do swojej pamięci lokalnej (zlokalizowanej na tej samej płycie co procesor) lub pamięci położonej na najniższym poziomie przełącznicy, zaś dostęp do pamięci "zdalnej" znajdującej się w innym module procesorowym jest wolniejszy (czasem znacznie).

Istotną zaletą konstrukcji z przełącznicą krzyżową jest możliwość tworzenia partycji systemowych: fizycznych (w pełni izolowanych elektrycznie) lub logicznych (rozdzielonych przez oprogramowanie zarządzające), na których działają niezależne kopie systemu operacyjnego i aplikacje.

Kierunek - Itanium

W Polsce, podobnie jak na świecie, rynek między siebie podzieliły firmy: Sun, IBM, HP, Compaq i Fujitsu Siemens. Wszyscy za wyjątkiem Suna oferują nie tylko serwery RISC, ale także zaawansowane konstrukcje serwerów SMP z procesorami Intela, znacząco tańszymi i prawie równie wydajnymi. Jak wynika z cenników dostawców, koszt dodania do serwera jednego procesora RISC (z towarzyszącą mu elektroniką) wynosi ok. 25 tys. USD; procesor Itanium kosztuje 2-4 tys. USD.

Hewlett-Packard prezentuje dobrze zdefiniowaną ścieżkę migracji z procesorów PA-RISC do 64-bitowych procesorów IPF (Itanium Processor Family), wykorzystując istniejący system operacyjny HP-UX 11i oraz niektóre z serwerów (np. sztandarowy HP Superdome już dziś jest przygotowany do zastosowania kolejnej generacji procesorów Intela, znanych pod nazwą McKinley). Podobne plany ma Compaq, który niedawno podjął decyzję o zakończeniu w ciągu kilku lat rozwijania procesora Alpha i docelowym zastąpieniu go w nowych serwerach kolejnymi generacjami 64-bitowych procesorów Intela.

W najtrudniejszej sytuacji jest Sun Microsystems. Firma nie dysponuje alternatywną dla UltraSPARC technologią procesorową. Producent ten jest zdecydowany samodzielnie rozwijać zarówno procesory RISC i budować w oparciu o nie serwery, jak i system operacyjny Solaris. Ponadto Sun, w celu podtrzymania swojej opinii dostawcy stacji roboczych do zastosowań naukowych i technicznych, musi rozwijać także technologie wydajnych kart graficznych i wspierać dostawców oprogramowania do tych specyficznych zastosowań. Takiego zmartwienia nie mają dostawcy intelowskich stacji roboczych, gdyż oferta niezależnych producentów dla platformy Intela jest bardzo bogata.

RISC-owe szczyty

Poniżej prezentujemy najbardziej wydajne serwery RISC, znajdujące się w ofercie poszczególnych producentów.

HP

Przechodzimy do Intela

HP Superdome to seria dostępnych od ponad roku serwerów z procesorami PA-8600 i PA-8700, zawierających wiele udogodnień spotykanych w komputerach mainframe. Serwer może być wyposażony maksymalnie w 64 procesory, 256 GB pamięci. Oferuje 192 gniazda PCI.

Bez przerywania pracy serwera można wymieniać zasilacze, wentylatory i karty wejścia/wyjścia. Pamięć pracuje w technologii ChipKill, która umożliwia automatyczną podmianę uszkodzonych kości pamięci.

Superdome oferuje możliwość fizycznego (nPar) i logicznego (vPar) partycjonowania, co upraszcza konsolidację serwerów. Obciążeniem zarządza pakiet Workload Manager (WLM), który pozwala na elastyczne rozdzielanie mocy obliczeniowej w ramach partycji oraz przydzielanie urządzeń wejścia/wyjścia na potrzeby aplikacji w zależności od bieżącego obciążenia.

Współpraca z Intelem nad architekturą procesorów Itanium umożliwi HP zaoferowanie klientom prostej ścieżki migracji do serwerów Superdome, wyposażonych w kolejną generację 64-bitowych procesorów Intela (McKinley) bez konieczności pisania aplikacji na nowo (a nawet jak zapewnia HP - bez potrzeby rekompilacji).

IBM

Bierzemy najlepsze z mainframe'a

Najnowszy serwer p690 (roboczo nazywany Regatta) jest wyposażony w procesory Power G4 z najszybszym zegarem (1,1 lub 1,3 GHz) spośród procesorów RISC. Dostępny od grudnia 2001 r. w konfiguracjach: 6-, 16-, 24- i 32-procesorowych.

Podstawowy układ - serwer na układzie scalonym - zawiera dwa procesory, korzystające ze wspólnej pamięci podręcznej drugiego poziomu, przełącznicy systemowej oraz układów I/O. IBM twierdzi, że taka konstrukcja zdecydowanie zmniejsza pobór mocy oraz pozwala na uzyskanie wysokiej wydajności. Podstawowy moduł konstrukcyjny MCM zawiera cztery takie układy (8 procesorów).

W konstrukcji zawarto wiele rozwiązań sprzętowych i programowych z mainframe'ów oraz projektu eLiza, mającego na celu opracowanie inteligentnych systemów łatwo zarządzanych i prowadzących autodiagnostykę pracy z możliwością przewidywania potencjalnych uszkodzeń i samonaprawiania.

Sun

Wzorzec odniesienia

Serwery Suna to dla wielu producentów nadal wzorzec odniesienia, jak powinien wyglądać i działać sprzęt unixowy. Sun osiągnął sporą przewagę nad konkurencją, gdy kupił rozwiązania technologiczne Craya, które stały się podstawą serwerów Sun Fire i mniejszych modeli. Obecnie również konkurenci stosują podobne rozwiązania.

Oferta Suna opiera się na dużych modelach Enterprise 3800 (do 8 procesorów), 4800 (12), 6800 (24) i Sun Fire 15K (do 72 lub 106 proce-sorów). Wszystkie korzystają z takich samych modułów z procesorami UltraSPARC III o zegarze do 900 MHz i dużej lokalnej pamięci, pełnej kontroli błędów, wielopozio-mowej przełącznicy i redundancji sprzętowej.

System operacyjny Solaris 8 i programy zarządzania zasobami pozwalają na tworzenie w ramach jednego komputera wielu dynamicznie zmienianych partycji oraz umożliwiają dodanie na gorąco modułów procesora, pamięci i układów I/O.

Fujitsu

Solaris na sterydach

Fujitsu Siemens Computers (FSC) to drugi dostawca systemów RISC z procesorami zgodnymi ze specyfikacją SPARC v.9 konsorcjum Sparc International. Produkowane przez HAL Systems procesory SPARC64 GP to inna realizacja architektury SPARC. FSC twierdzi, że przy tym samym zegarze zapewniają one wydajność co najmniej o 30% większą niż UltraSPARC III.

Kluczowa oferta dużych serwerów FSC to systemy PrimePower 800, 1000 i 2000 odpowiednio z maksymalnie 16, 32 i 128 procesorami (największa liczba procesorów pośród systemów SMP), z zegarem 563 MHz i 675 MHz i pamięcią do 4 GB na procesor. Serwery FSC działają pod kontrolą systemu operacyjnego Solaris 8 oraz jako jedyne pozwalają na wymianę modułów procesorowych na gorąco, bez zatrzymywania aplikacji. Serwery FSC można dzielić na partycje statyczne i dynamiczne (z dodawaniem i usuwaniem zasobów, w tym procesorów, w czasie pracy).

Compaq

Równoległa migracja

DEC, którego technologie procesorów Alpha po przejęciu firmy trafiły do Compaqa, przez wiele lat przodował w produkcji wysoko wydajnych komputerów do zastosowań biznesowych. AlphaServer 8400 o bardzo dużej pojemności pamięci już w 1995 r. bił rekordy wydajności TPC-C.

Najwydajniejszym obecnie serwerem unixowym Compaqa jest AlphaServer GS320, który może być wyposażony w 32 procesory taktowane zegarem 731 MHz lub 1 GHz i 256 GB pamięci. Seria serwerów GS oferuje wszystkie możliwości typowe dla sprzętu z najwyższej półki: zaawansowaną architekturę z partycjonowaniem fizycznym i logicznym, wydajnymi systemami I/O, wysoką wydajnością crossbaru, łatwą rozbudową, znakomitymi systemami operacyjnymi OpenVMS i Tru64 Unix.

Klientom wymagającym najwyższej wydajności Compaq proponuje zaawansowane systemy klastrowe, budowane na podstawie serwerów AlphaServer lub też serwerów NonStop Himalaya, skalowalnych do obsługi 4080 procesorów.

Compaq podjął decyzję, o zakończeniu rozwoju w 2004 r. linii procesorów Alpha. Wyposażone w ten procesor serwery mają być jeszcze dostępne do ok. 2006, 2007 r. Równolegle będzie prowadzona ich migracja do platformy Intela.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200