Serwerowe ewolucje

x86 w natarciu

Sprzedaż serwerów mainframe spada lat i nic nie odwróci tego trendu. Ostatni z kwartalnych raportów IDC Server Tracker pokazuje, że sprzedaż maszyn w architekturze innej niż x86 skurczyła się w ostatnim roku aż o 25,2 %. Wciąż jednak stanowi ok. 18 % całego rynku (taki sam udział mają serwery blade).

Maszyny mainframe są wypierane z rynku przez serwery x86 (wzrost sprzedaży o 4,9 %), które coraz lepiej nadają się do obsługi najbardziej wymagających aplikacji. Co ciekawe, procesory x86 Intela są używane również do budowy serwerów mainframe. Przykładem jest firma Unisys, która podjęła decyzję o wycofaniu specjalistycznych procesorów do platform mainframe, ponieważ okazały się wolniejsze i mniej skalowalne od nowszych układów. Procesory były wykorzystywane w sztandarowych serwerach mainframe tego producenta, ale zostaną zastąpione procesorami x86 Intela. Ponadto firma zapowiedziała wprowadzenie 12 nowych, zaawansowanych modeli z procesorami Xeon E5-2600 v2. Maszyny są adresowane do klientów Unisys do obsługi starszych aplikacji finansowych, telekomunikacyjnych i transportowych.

Zobacz również:

  • Wielka inwestycja Atmana w przetwarzanie danych

Na podobny krok zdecydowało się HP. Producent zapowiada, że w 2015 r. na rynek trafią pierwsze serwery Nonstop z procesorami x86. Dotychczas te maszyny były wyposażone w procesory Itanium. Platforma Nonstop jest na rynku od wielu lat i pracuje głównie w bankach i firmach telekomunikacyjnych. Jej wyróżnikiem jest bardzo wysoka niezawodność. Wprowadzenie nowych modeli w 2015 r. ma umożliwić klientom migracji z architektury Itanium na x86. Kilka lat wcześniej HP wymieniło w serwerach Nonstop procesory PA-RISC na Itanium.

Warto dodać, że w tym roku HP zaktualizowało swój bazujący na Uniksie system operacyjny HP-UX. Jedną z wprowadzonych nowości są ułatwienia dotyczące migracji aplikacji ze starszych serwerów Integrity i2 na nowszą wersję i4. Podobny ruch wykonały również firmy IBM i Oracle. Te działania mają na celu spowolnienie odpływu użytkowników z platform uniksowych na tańsze i coraz bardziej niezawodne serwery x86.

Tego trendu nie da się już jednak zatrzymać. Tańsze procesory x86 będą wybierać droższe procesory Itanium. Czy historia się powtórzy i tańsze procesory ARM, które na razie są w fazie rozwojowej, wyprą droższe procesory x86?

Samoróbki

W największych ośrodkach obliczeniowych można znaleźć serwery przygotowane samodzielnie przez użytkowników. Przykładem jest Open Compute Project. OPC to nowa koncepcja budowy centrów danych, której opracowanie zainicjował Facebook. Częścią tej koncepcji jest specyfikacja budowy tanich węzłów serwerowych tak, aby otrzymać ustandaryzowane maszyny (opracowano założenia dla serwerów z procesorami Intel, AMD oraz ARM). Zaletą takiego podejścia jest otrzymanie serwerów optymalnie dostosowanych do potrzeb danego użytkownika i pozbawianych zbędnych elementów, a przez to tańszych. W przypadku serwerów kupowanych z półki klienta otrzymuje produkt napakowany funkcjami, z których wiele nie jest mu potrzebnych. To prowadzi do zbędnych kosztów i dodatkowych wydatków na zasilanie. Występują też problemy z zarządzaniem w środowiskach złożonych z serwerów różnych producentów.

Podobnie, jak z wieloma innymi rozwiązaniami, ta technologia wdrażana obecnie przez największych użytkowników powinna z czasem pojawiać się w coraz mniejszych środowiskach. Finalnie może trafić także na rynek serwerów dla MŚP. Ponieważ serwery zbudowane zgodnie ze specyfikacją OCP świetnie nadają się do używania w środowiskach wirtualnych, należy spodziewać się ich upowszechnienia w nieodległej przyszłości.

Wąskie gardło macierzy

Macierze NAS i SAN ułatwiają zarządzanie środowiskiem maszyn wirtualnych. Jeśli celem jest jednak maksymalizacja wydajności, macierze dyskowe stają się wąskim gardłem. Pojedynczy serwer obsługujący kilkanaście i więcej maszyn wirtualnych może wygenerować tyle operacji wejścia/wyjścia, że zredukuje ogólny czas odpowiedzi macierzy, zwiększając opóźnienia i wpływając negatywnie na szybkość działania maszyn wirtualnych. Dodawanie kolejnych dysków może na jakiś czas rozwiązać problem, ale nie eliminuje źródła problemu: zbyt niskiego limitu operacji I/O.

Rozwiązaniem jest wykorzystanie dysków podłączonych bezpośrednio do serwerów. Takie podejście umożliwia wyeliminowanie opóźnień powstających podczas komunikacji między serwerem a macierzą. Przykładami implementacji są VMware Virtual SAN czy PernixData FVP (jest to moduł do hypervisora vSphere). Te produkty działają podobnie. Tworzą wirtualną macierz obejmującą dyski podłączone do poszczególnych serwerów. Z tą różnicą, że FVP to rozwiązanie obsługujące wyłącznie nośniki SSD, podczas gdy Virtual SAN obsługuje pamięci HDD i SSD. Co istotne, w takiej konfiguracji działają różne zaawansowane mechanizmy, jak vMotion, DRS czy HA. Jest to też interesujące rozwiązanie z punktu widzenia inwestycji w infrastrukturę, ponieważ umożliwia zbudowanie z wielu rozproszonych nośników jednej, dużej macierzy o wysokim poziomie operacji wejścia/wyjścia.

Mikroserwery

Na rynek wchodzi nowa klasa konwergentnych maszyn – mikroserwery. Patrząc wstecz, serwery typu tower ewoluowały w kierunku serwerów stelażowych, a następnie w serwery blade. Kolejnym krokiem rozwoju są mikroserwery, zwane niekiedy microblade. Zdaniem analityków w nadchodzących latach ten typ serwerów będzia miał 10 % udziału w rynku.

Mikroserwery oferują takie korzyści, jak niskie zużycie mocy czy niewielkie rozmiary (oszczędność miejsca w serwerowni). Ogólnie, najlepiej sprawdzają się w obsłudze aplikacji, których wymagania wzrastają z upływem czasu. Mikroserwery umożliwiają bowiem budowanie klastrów zbudowanych z dużej liczby węzłów. Mają też swoje wady, jak ograniczone możliwości obliczeniowe pojedynczego węzła, potencjalna konieczność przepisywania kodu aplikacji pod kątem konfiguracji klastrowych czy brak standardów. Konkurencję dla nich stanowią też maszyny wirtualne, aczkolwiek klaster mikroserwerów ma przewagi na jednym serwerem fizycznym obsługującym wiele maszyn wirtualnych.

Mikroserwery są obecnie wykorzystywane w zastosowaniach HPC czy do budowy chmur obsługujących serwery WWW, streaming czy klastry Hadoopa. Wraz z wprowadzaniem bardziej wydajnych procesorów rozszerzy się zakres zastosowań. Jednak osiągnięcie wzrostu wydajności będzie wiązało się z koniecznością udoskonalenia przełączników sieciowych, które muszą być zintegrowane z szafą stelażową, podobnie jak przełączniki są integralną częścią architektury blade.


TOP 200