Architektura RISC bez kompleksów

Rozwój serwerów RISC zmierza w kierunku osiągania coraz większej wydajności, wygody zarządzania i bezpieczeństwa.

Rozwój serwerów RISC zmierza w kierunku osiągania coraz większej wydajności, wygody zarządzania i bezpieczeństwa.

Architektury serwerowe oparte na procesorach RISC przeżywają być może pewne załamanie sprzedaży, nie jest to jednak z całą pewnością początek ich końca. Nawet jeżeli - wg firmy analitycznej Dataquest - zdecydowaną przewagę liczebną w 2002 r., bo aż 87% sprzedawanych na świecie serwerów, stanowią te wykorzystujące platformę Intela, to ich udział wartościowy osiągnął zaledwie ok. 50%.

Tak jak w serwerach intelowskich wprowadzane jest coraz więcej funkcji zarezerwowanych dotychczas jedynie dla serwerów RISC, tak te z kolei zbliżają się do funkcjonalności systemów klasy mainframe. Najwięksi producenci serwerów RISC - IBM, Sun Microsystems, Hewlett-Packard, Fujitsu-Siemens czy Unisys - wciąż znajdują nabywców na swoje produkty, a tysiące programistów tworzą dla nich aplikacje. Duża moc obliczeniowa, bezpieczeństwo, wymiana elementów bez wyłączania, skalowalność, a ostatnio także skalowalność na żądanie - to cechy, dla których korporacje wciąż chcą kupować RISC.

Krojenie serwera

Technologią, która w świecie serwerów RISC ostatnio zyskuje na znaczeniu, jest partycjonowanie zasobów, czyli tworzenie w ramach jednego serwera fizycznego kilku niezależnych od siebie serwerów. Zasoby mogą być wydzielane fizycznie lub logicznie. W partycjonowaniu fizycznym pojedynczemu serwerowi są przypisywane konkretne procesory, podsystemy wejścia-wyjścia, szyny systemowe, obszary pamięci itd. Partycjonowanie logiczne umożliwia współdzielenie pojedynczego procesora przez wiele serwerów.

Partycjonowanie jest wykorzystywane do konsolidacji serwerów. Mimo rozdzielności zasobów, partycjami można bowiem w dużym zakresie wspólnie zarządzać, co obniża koszty. Partycjonowanie jest wykorzystywane także do tworzenia systemów o podwyższonej dostępności oraz elastycznego skalowania systemów w zależności od zmieniających się potrzeb. Opracowana przez IBM technologia partycji logicznych LPAR (logical partition) wywodzi się z systemów mainframe. Sun i HP preferowały dotychczas partycje fizyczne, jednak i one pozwalają obecnie na tworzenie partycji logicznych.

Obie metody mają zarówno zalety, jak i wady. Partycjonowanie fizyczne umożliwia całkowite sprzętowe odizolowanie zasobów przydzielonych różnym aplikacjom, dzięki czemu zapewnia duże bezpieczeństwo w razie awarii. Jednocześnie jednak utrudnia ewentualną modyfikację i dostosowanie do zmieniających się wymagań, wprowadzając ograniczenia sprzętowe. Partycjonowanie logiczne, choć nie gwarantuje tak wysokiego bezpieczeństwa, jest znacznie bardziej elastyczne - rozdział zasobów można łatwo zmieniać. Pozwala też tworzyć większą liczbę partycji (kilkadziesiąt czy nawet kilkaset) niż w przypadku partycjonowania fizycznego, ograniczonego liczbą płyt głównych lub procesorów.

Przykładowo, obecnie w serwerach pSeries IBM jest możliwe tworzenie do 16 partycji logicznych. Na pierwszą połowę przyszłego roku IBM zapowiada wprowadzenie nowej wersji systemu AIX 5.3, która umożliwi tworzenie do 10 partycji logicznych na jednym procesorze. W serwerze zawierającym 64 fizyczne układy można będzie uruchomić do 512 niezależnych partycji. Z kolei w serwerach HP Superdome z 64 procesorami PA-RISC jest możliwe wykorzystanie 16 partycji sprzętowych i 64 logicznych. W serwerach Sun Microsystems liczba partycji fizycznych zależy od liczby procesorów.

Partycjonowanie leży u podstaw promowanych obecnie przez producentów serwerów metod zarządzania infrastrukturą z poziomu usług. Program pod nazwą N1, oferowany przez Sun Microsystems, przewiduje stopniowe wprowadzanie na rynek kolejnych pakietów oprogramowania zarządzającego. Dotychczas firma udostępniła pakiet służący do zarządzania zespołami serwerów typu Blade oraz oprogramowanie do zarządzania i wirtualizacji systemów pamięci masowych. Nowe oprogramowanie do zarządzania dużymi serwerami ma się pojawić w najbliższym czasie. Z punktu widzenia klienta najważniejsze jest to, że wszystkimi pakietami N1 można zarządzać z poziomu tej samej konsoli.

Dawkowanie możliwości

Walka o klienta trwa także na polu ułatwiania skalowalności serwerów. Wprowadzony przez IBM w maju br. program on demand pozwala nabywcom dużych serwerów (umożliwiających montaż co najmniej 8 procesorów) na wnoszenie opłat jedynie za układy rzeczywiście wykorzystywane, nawet jeżeli kupowane systemy zawierają maksymalną liczbę procesorów. Ta zasada dotyczy także pamięci RAM. Klientom, którzy nie potrafią precyzyjnie zdefiniować swoich potrzeb, IBM umożliwia bezpłatne włączenie "uśpionych" procesorów i pamięci na 30 dni w celu przetestowania ich wpływu na wydajność systemu i podjęcia decyzji o zakupie odpowiedniej do potrzeb mocy. Co więcej, możliwe jest zarówno czasowe włączanie, jak i wyłączanie dodatkowych zasobów.

Oferta "na żądanie" Hewlett-Packarda jeszcze do niedawna obejmowała wyłącznie procesory. W kwietniu br. firma rozszerzyła jednak program także o układy pamięci, za które klienci musieli do tej pory płacić w całości. Ponadto HP wprowadził zupełnie nowy program, umożliwiający klientom dokładny pomiar rzeczywistego obciążenia serwerów i oparty na nim system opłat, co wprost nawiązuje do praktyki od wielu lat stosowanej przez IBM w przypadku komputerów mainframe. Niestety, nowa oferta HP dotyczy tylko tych firm, które zamierzają kupić co najmniej 4 serwery Superdome i wykorzystywać co najmniej 25% mocy każdego z nich.

Według przedstawicieli , choć zainteresowanie klientów tego rodzaju programami jest spore, raczej rzadko przekłada się ono na decyzje o zakupie. Program capacity on demand sprawdza się przede wszystkim w firmach, które potrafią przewidzieć bądź zaplanować zmiany zapotrzebowania na moc przetwarzania. Firma oferuje doradztwo w tym zakresie.


TOP 200