Serwer zasób strategiczny

Oprócz poprawy wydajności, od nowych serwerów klienci oczekują coraz większej inteligencji. W konsekwencji serwer w coraz mniejszym stopniu kojarzy się z samym sprzętem, a coraz bardziej ze zdolnością do obsłużenia pewnej klasy problemów biznesowych.

Oprócz poprawy wydajności, od nowych serwerów klienci oczekują coraz większej inteligencji. W konsekwencji serwer w coraz mniejszym stopniu kojarzy się z samym sprzętem, a coraz bardziej ze zdolnością do obsłużenia pewnej klasy problemów biznesowych.

Powoli wyłania się wizja serwera przyszłości, który z biegiem czasu przestanie być niezależnym systemem i będzie ewoluować w kierunku standardowego modułu jednego wielkiego rozwiązania, jakim będzie przyszłe centrum danych. Będzie tak, ponieważ w informatyce na pierwszy plan będą się wysuwać problemy, których nie da się rozwiązać bez integracji serwerów z innymi podsystemami, jak pamięci masowe, sieci itd.

Parametry serwerów (modułów obliczeniowych?) nadal będą mieć znaczenie, jednak zostaną przyćmione przez mechanizmy służące do równoległego wykorzystania ich mocy obliczeniowej. Wzrośnie też rola rozwiązań programowych zarządzających ich pracą, w szczególności planujących i na bieżąco regulujących obciążenia, a także wykrywających awarie i błędy. Przyszłość serwerów wyznaczać będą także dynamiczny podział i konsolidacja zasobów, co zresztą już dziś jest faktem. Pewne jest jednak i to, że wizja serwera przyszłości będzie ziszczać się drobnymi krokami.

64 bity na zapas...

Serwer zasób strategiczny

HP BL20p w obudowie

Najnowszy trend to masowe odchodzenie przez producentów od oferowania systemów 32-bitowych na rzecz architektury 64-bitowej i to również w przypadku tanich serwerów. Jeszcze do niedawna podział na platformy 32- i 64-bitowe był podziałem fundamentalnym, odróżniającym rozwiązania popularne od stricte korporacyjnych. Dziś dzięki wysiłkom AMD (Opteron), IBM (PowerPC) i Intela (EM64T) platformy 64-bitowe są dostępne firmie każdej wielkości.

Można sądzić, że już w przyszłym roku serwery 64-bitowe zaczną dominować we wszystkich segmentach rynku. W przypadku serwerów klasy podstawowej i średniej transformacja ta wynika nie z popytu na przetwarzanie 64-bitowe, lecz z chęci dostawców do optymalizacji produkcji przez korzyści skali - rozwijanie i produkcja mniejszej liczby architektur jest po prostu tańsza. IBM zapowiada, że wkrótce wszystkie modele jego serwerów będą zawierać procesory 64-bitowe, co nie wpłynie na ich ceny. Również nowe modele serwerów Fujitsu Siemens Computers (FSC) Primergy są wyposażone w procesory Xeon EM64T, a pod koniec tego roku firma ta zapowiada wprowadzenie modeli komputerów blade z tymi układami.

Serwer zasób strategiczny

Fujitsu Siemens Computers TX300

Mimo tych deklaracji, do powszechnego przetwarzania 64-bitowego droga daleka. Oprócz procesorów potrzebne jest wsparcie ze strony systemów operacyjnych (z czym jest coraz lepiej: Suse Linux, Red Hat Linux, Solaris 10), a zwłaszcza aplikacji. Ponieważ większość aplikacji została stworzona dla platformy Windows, dopiero pojawienie się 64-bitowej wersji tego systemu w przyszłym roku może coś zmienić. W przypadku Xeon i Opteron liczba 64-bitowych aplikacji wciąż jest bardzo ograniczona. Jeśli jednak cena sprzętu jest taka sama, a jednocześnie zgodność platformy x86 64-bitowej z oprogramowaniem 32-bitowym nie jest kwestionowana, to jedynym argumentem za zakupem serwerów z procesorami 32-bitowymi jest dążenie do zachowania jednolitości infrastruktury.

"Ostatnio widać wyraźny wzrost zainteresowania 64-bitowymi platformami Itanium 2, Opteron i Xeon EM64T - szczególnie w obszarze zastosowań bazodanowych i obliczeniowych. Opteron był wprawdzie pierwszym 64-bitowym procesorem x86, jednak na polskim rynku wciąż trudno mu konkurować z rozwiązaniami Intela, za którym stoi większa organizacja i lepsze wsparcie, niż w przypadku AMD. Komputery z układami AMD cieszą się popularnością głównie w instytucjach edukacyjnych, które mają mniejsze wymagania odnośnie do wsparcia" - komentuje obecną sytuację rynkową układów AMD Piotr Pietrzak z IBM Polska.

Tłumik na wirusy

Współczesne serwery są bardzo porównywalne pod względem wydajności i innych cech funkcjonalnych. Producenci poszukują więc sposobów, by pozytywnie odróżnić swoją ofertę od tego, co oferuje konkurencja. Na ciekawy, potencjalnie bardzo użyteczny pomysł wpadł HP, proponując, by w serwerach (jak również w przełącznikach sieciowych) umieścić Virus Throttler (tłumik na wirusy). Technologia ta nie zapobiega infekcjom, jednak spowalnia ich rozprzestrzenianie się w sieci, dając administratorom cenny czas na opanowanie sytuacji.

Aby zapewnić możliwość rzeczywistego "dławienia" niepożądanego ruchu, oprogramowanie zostało umieszczone w sterowniku karty sieciowej. Według HP zastosowanie nie powoduje degradacji wydajności. Wkrótce będzie się można o tym przekonać - oprogramowanie Virus Throttler ma się pojawić w serwerach ProLiant i przełącznikach ProCurve już na początku 2005 r. Technologia ta ma być również dostępna dla

użytkowników starszych modeli ProLiant pracujących pod kontrolą Windows. HP przygotowuje też wersję tej technologii dla serwerów z systemem Linux, ale żadnych terminów jeszcze nie podano. Zapewne trochę to potrwa, ponieważ trzeba będzie opracować i przetestować kilka wersji dla różnych dystrybucji. HP sugeruje także, że Virus Throttler trafi do komputerów PC, ale na temat szczegółów milczy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200