Nowe pomysły na serwery

Sprzętowe wspomaganie wirtualizacji to już standardowa funkcja w serwerach, a producenci sprzętu opracowują kolejne rozwiązania, które pozwoliłyby im wyróżnić swoją ofertę wśród konkurencji.

Sprzętowe wspomaganie wirtualizacji to już standardowa funkcja w serwerach, a producenci sprzętu opracowują kolejne rozwiązania, które pozwoliłyby im wyróżnić swoją ofertę wśród konkurencji.

Na rozwój rynku serwerów wpływ ma zarówno postęp technologiczny dotyczący procesorów, pamięci masowych, interfejsów, jak i zmieniające się warunki ekonomiczne. Inwestycja w tego typu komputery jest z reguły długofalowa i dlatego warto wiedzieć, jakie są tendencje i kierunki ewolucji systemów serwerowych. To ułatwi planowanie i wdrażanie rozwiązań, które nie stracą swej wartości szybciej niż oczekiwano, narażając użytkownika na konieczność kolejnej kosztownej modernizacji infrastruktury.

Śledzenie zmian na rynku nie jest jednak łatwe. Na przykład trudno nie zauważyć wirtualizacji jako technologii, której wsparcie staje się elementem standardowym każdego serwera. Ale pomimo że producenci sprzętu przeznaczonego dla przedsiębiorstw i korporacji z reguły prezentują plany rozwoju technologii i starają się zapewnić zgodność co najmniej w perspektywie kilku lat, najczęściej dotyczy to tylko sprzętu jednej firmy lub platform jednego producenta.

Ponadto wciąż pojawiają się nowe pomysły i technologie, niekoniecznie aspirujące do miana masowo wykorzystywanego standardu, ale w niektórych zastosowaniach mogą być przydatne i czasami nie warto ich lekceważyć. Przykładem mogą być systemy stosujące do obliczeń moc przetwarzania procesorów graficznych lub technologia NEC ExpEther, która polega na unifikacji interfejsów Ethernet i PCI Express, umożliwiająca budowę elastycznych, łatwych do modyfikacji i rekonfiguracji systemów serwerowych.

Nowe wersje platform serwerowych pojawiają się coraz częściej wraz z technologicznymi innowacjami, które trudno lekceważyć. Na przykład Intel wprowadza kolejne platformy regularnie co dwa lata. Choć niewiele jest firm, które byłyby w stanie wymieniać sprzęt tak często, to warto pamiętać, że zbyt długie utrzymywanie starych modeli serwerów nie tylko stosunkowo zmniejsza wydajność systemu IT, ale powoduje też zwiększenie kosztów jego utrzymania i ogranicza możliwości wdrożenia nowych rozwiązań takich, jak choćby właśnie wirtualizacja, której efektywność zależy nie tylko od oprogramowania, lecz także od platformy sprzętowej. Należy zdawać sobie sprawę, że wdrożenie takiego systemu często wiąże się z koniecznością wymiany serwerów na nowe modele, specjalnie przystosowane i zgodne z planowaną do użycia platformą oprogramowania wirtualizacyjnego.

Wirtualna zgodność

Nowe pomysły na serwery

Procesory AMD Shanghai zużywają ok. 75 watów mocy, mają częstotliwości od 2,3 GHz do 2,7 GHz i są wyposażone w ulepszone mechanizmy hyperthreading oraz funkcje umożliwiające wyłączenie aktywności niewykorzystywanych elementów procesora.

Technologie wirtualizacyjne pozwalają na zwiększenie efektywności wykorzystania dostępnej mocy przetwarzania serwerów, konsolidację wielu systemów operacyjnych i aplikacji na jednym serwerze fizycznym, szybsze niż w klasycznych systemach wdrażanie nowych aplikacji, a także przenoszenie aplikacji między serwerami bez przerywania ich działania, co zapewnia elastyczność w zarządzaniu obciążeniem i wysoką dostępność usług.

Systemy do wirtualizacji mogą teoretycznie funkcjonować na każdej platformie sprzętowej, ale w praktyce okazuje się, że jednym z ważnych czynników przesądzających o powodzeniu wdrożenia jest zapewnienie zgodności między platformami serwerowymi a oprogramowaniem, które ma obsługiwać wirtualizację.

Wynika to m.in. z tego, że producenci procesorów już od pewnego czasu zaczęli wprowadzać mechanizmy sprzętowego wspomagania funkcji związanych z wirtualizacją. Nie są one koniecznym warunkiem działania oprogramowania wirtualizacyjnego, ale pozwalają na zwiększenie jego wydajności i niezawodności.

W przypadku platform x86 dotyczy to oczywiście procesorów Intela i AMD. Warto zwrócić uwagę, że choć modele procesorów serwerowych obu tych firm uwzględniają mechanizmy wirtualizacyjne, to ich architektury są różne i możliwość wykorzystania niektórych ważnych funkcji takich, jak przenoszenie obrazów VM między serwerami z układami Intela i AMD są ograniczone. W systemach heterogenicznych stanowi to niewątpliwie hamulec dla zastosowań wirtualizacji.

Co więcej, w wypadku platform intelowskich do niedawna brakowało zgodności między ich różnymi wersjami, i w systemach wykorzystujących wirtualizację użytkownicy musieli zwracać uwagę, aby stosować jednolity sprzęt - z procesorami i chipsetami należącymi do jednej serii układów. Dopiero wraz z najnowszą rodziną Xeon 7400, Intel wprowadził zmodyfikowaną wersję technologii VT, która ma zapewnić możliwość przenoszenia obrazów maszyn wirtualnych przy użyciu funkcji VMware vMotion między maszynami wykorzystującymi różne modele procesorów i chipsetów intelowskich.

Obecnie dotyczy ona serii Xeon 7300 (Tigerton), Xeon 7400 (Dunnington) oraz nowych układów serwerowych Nehalem, które mają się pojawić na rynku w tym roku. "Zamierzamy oferować zgodność mechanizmów wirtualizacyjnych obejmującą przynajmniej trzy generacje platform" - zapewnił Doug Fisher, wiceprezes Intel Software Solutions.

Jeśli chodzi o platformy AMD, to przedstawiciele tego producenta podkreślają, że od dawna dba on o zachowanie zgodności między kolejnymi swoimi platformami serwerowymi na podobnym poziomie jak obecnie obiecuje Intel.

Ale niestety nic nie wskazuje na to, by użytkownicy platform heterogenicznych oraz oprogramowania VMware doczekali się możliwości wykorzystywania funkcji vMotion do przenoszenia obrazów między serwerami wyposażonymi w układy Xeon i Opteron. Jest to poważny problem dla przedsiębiorstw, które chciałyby wdrożyć wirtualizację, ograniczając inwestycje w nowy sprzęt, a mają serwery wyposażone w procesory różnych firm. Jak wyjaśnia Doug Fisher z Intela: "Konstrukcja układów Intela i AMD, choć oparta na tej samej architekturze x86, jest obecnie zbyt różna i jest modyfikowana zbyt często, by można było zapewnić ich zgodność. Wymagałoby to zmniejszenia tempa wprowadzania zmian i innowacji, czego trudno oczekiwać".

W praktyce oznacza to, że wdrożenie wirtualizacji wymaga nie tylko zakupu i instalacji oprogramowania, ale często również poważnej modyfikacji infrastruktury serwerowej.

AMD wraca do gry

Nowe pomysły na serwery

Desktopowe układy Nehalem - Core i7 to zapowiedź kolejnej generacji procesorów serwerowych wyposażonych w zintegrowane kontrolery pamięci, które mają się pojawić na rynku w tym roku.

W listopadzie 2008 r. AMD o co najmniej 2 miesiące wcześniej niż planowano wprowadziła 4-rdzeniowe procesory serwerowe Opteron, znane pod kodową nazwą Shanghai i wytwarzane przy wykorzystaniu procesu 45-nanometrowego.

Dla AMD premiera ta "ma znaczenie krytyczne. Jest dowodem, że firma wciąż może konkurować z Intelem. A jednocześnie z marketingowego punktu widzenia nastąpiła w krytycznym okresie, bo tuż przed premierą intelowskich desktopowych procesorów Nehalem. W ten sposób AMD przynajmniej częściowo może odbudować topniejące zaufanie do jej zdolności konkurencyjnych" - uważa Jim McGregor, analityk z firmy In-Stat. Bo blisko 8-miesięczne opóźnienie układów Barcelona, spowodowane wykryciem błędów w jego konstrukcji, spowodowało, że AMD zaczęła zarówno tracić udziały rynkowe, jak i dobrą opinię u użytkowników.

Analityk Rob Enderle z Enderle Group mówi: "W swoim najlepszym okresie AMD miała blisko jedną trzecią część rynku procesorów serwerowych; udział ten ostatnio spadł do poziomu 10% wskutek ofensywy Intela i jego nowych rodzin układów 4-rdzeniowych. Choć trudno oczekiwać, by nowe układy Opteron pozwoliły na odzyskanie tak wysokiej pozycji rynkowej, to na pewno są ofertą pozwalającą AMD na powrót do efektywnej konkurencji z Intelem".

Tym razem AMD nie popełniła starych błędów i decyzja o przyspieszeniu premiery nastąpiła dopiero w momencie, gdy firma uruchomiła produkcję układów Shanghai. "Sądzę, że mogą one konkurować z procesorami Intela zarówno ceną, jak i wydajnością. Przynajmniej na krótką metę" - mówi Dan Olds, główny analityk w Gabriel Consulting Group. Ta "krótka meta" to premiera serwerowych procesorów Nehalem, pierwszych układów intelowskich wyposażonych w zintegrowane kontrolery pamięci.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200