W świecie serwerów zmiana goni zmianę

Rynek serwerów staje się coraz bardziej zróżnicowany – producenci wprowadzają wiele nowych rozwiązań i udoskonalają dotychczasowe technologie. Widać też coraz więcej oznak powstawania ekosystemu wokół serwerowej wersji architektury ARM i za kilka lat być może Intel doczeka się silnej konkurencji.

Parę lat temu swoich sił w technologii ARM próbowała firma Calxeda, wprowadzając tę architekturę do serwerów. Próba zakończyła się niepowodzeniem i firma ogłosiła upadłość. Teraz podobne wysiłki podejmuje AMD, zapowiadając premierę pierwszych swoich serwerowych produktów z procesorami ARM na 2016 r. W tym samym kierunku zmierza nowy gracz, firma Cavium. Ten producent wprowadził już w 2014 r. na rynek serwerowe procesory ThunderX ARMv8 i szuka partnerów zainteresowanych stosowaniem tej architektury oraz jej popularyzacją. Przykładem jest SUSE, które w 2015 r. poinformowało o wsparciu dla 64-bitowych procesorów ARM. Obecnie obie firmy współpracują, aby promować architekturę ARM wśród głównych dostawców OEM, ODM oraz niezależnych producentów sprzętu i oprogramowania.

Plany budowy serwerów z procesorami ARM potwierdziło Lenovo. Pierwszy prototyp wykorzystuje technologię NextScale, w posiadanie której Lenovo weszło wraz z przejęciem linii serwerów x86 od IBM. Użyto w nim procesorów Cavium ThunderX, a cała rozwiązanie będzie wykorzystywało obudowę stelażową o wysokości 19 cali (6U), mogącą pomieścić 12 serwerów. Łącznie w jednej obudowie znajdzie się maksymalnie 1152 rdzeni procesorów. Natomiast w standardowej szafie stelażowej 42U zmieści się aż 7 takich obudów. Również HP i Dell pracują na serwerami z procesorami ARM.

Zobacz również:

Jednak na razie te inicjatywy w żaden sposób nie zagrażają dominującej pozycji Intela. Producent ma ok. 97% udziałów w sprzedaży serwerowych procesorów x86, pozostałe 3% należy do AMD. Z kolei procesory ARM mają ok. 1% w całym rynku serwerów. Dlatego w praktyce wymienione firmy w początkowych latach będą musiały zmierzyć się z zasadniczymi wyzwaniami związanymi ze stosunkowo niewielką skalą działalności oraz koniecznością zbudowania ekosystemu deweloperów, np. zainteresowanych tworzeniem oprogramowania na nową platformę serwerową. Nawet najlepszy stosunek ceny do wydajności niewiele znaczy, jeśli procesor nie obsługuje pełnego spectrum aplikacji, które można na nim uruchomić. Te czynniki będą w pierwszych latach produkcji ograniczały wielkość sprzedaży.

Przedstawiciele Cavium są jednak przekonani, że ich procesory mogą skutecznie konkurować z produktami Intela, przynajmniej w najtańszym segmencie. Układy ThunderX ARMv8 są bowiem pozycjonowane jako konkurencja dla Xeonów E3. Prognozy analityków mówią, że w 2020 r. co piąty sprzedany serwer będzie wyposażony w procesory ARM.

Cavium ma również licencję na układy w architekturze MIPS (Microprocessor without Interlocked Piped Stages). Przedstawiciele firmy nie są jednak przekonani, że mogą znaleźć one zastosowanie w serwerach, dostrzegając znacznie więcej zalet w architekturze ARM. Innego zdania są eksperci z MIPS. Ich zdaniem układ I64000 dobrze sprawdzi się w zastosowaniach serwerowych, szczególnie w segmentach mikroserwerów i rozwiązań o dużej gęstości. Rdzeń I6400 może przetwarzać cztery wątki jednocześnie. Rdzenie te można łączyć w klastry po sześć, a na jednej płytce można umieścić 64 klastry. To oznacza, że pojedynczy procesor może przetwarzać aż 1536 wątków (podobnie, jak procesory graficzne Nvidia Fermi).

BYOS

W największych ośrodkach obliczeniowych, np. Facebooka i Google, pracują serwery montowane samodzielnie, którym analitycy nadali miano Build Your Own Server. Co więcej, Facebook zdecydował się opublikować dokumentację opisującą ten proces i specyfikację maszyn (tzw. Open Compute Project). Główne założenia OPC to budowa tanich, ustandaryzowanych serwerów z wykorzystaniem układów Intel, AMD oraz ARM. Zaletą takiego podejścia jest otrzymanie serwerów optymalnie dostosowanych do potrzeb danego użytkownika i pozbawianych zbędnych elementów, a przez to tańszych. Podobnie jak z wieloma innymi rozwiązaniami, ta technologia wdrażana obecnie przez największych użytkowników powinna z czasem pojawiać się w coraz mniejszych środowiskach. Finalnie może trafić także na rynek serwerów dla MŚP.

Chmura publiczna

Chmura publiczna będzie miała duży wpływ na rynek serwerów. W 2014 r. ok. 30% sprzedanych maszyn trafiło do operatorów chmur publicznych, a w 2017 r. ten odsetek ma się zwiększyć do 43%. Ten trend wpłynie na producentów serwerów, którzy będą musieli projektować serwery dostosowane do wymagań dostawców usług chmurowych. Odczują go również użytkownicy chmur prywatnych. Większość wydatków na informatykę przesunie się bowiem w kierunku chmur publicznych.

Dominacja serwerów x86

Sprzedaż serwerów mainframe spada od lat, choć widać istotne wyhamowanie tego trendu. Ostatni z kwartalnych raportów IDC Server Tracker pokazuje, że sprzedaż maszyn w tej architekturze skurczyła się w ostatnim roku zaledwie o 1,4% (w poprzednich latach spadała w tempie dwucyfrowym). Jest to efekt głównie wprowadzenia przez IBM nowych modeli serwerów z13, co z kolei w pierwszym kwartale 2015 r. spowodowała znaczy wzrost sprzedaży mainframe’ów. W dłuższej perspektywie analitycy nie spodziewają się wzrostu sprzedaży tej klasy urządzeń w takim tempie, jak w 2015 r., jednak uważają, że wciąż będzie na nie popyt ze strony klientów szukających w dużych środowiskach IT alternatywy dla maszyn x86.

Maszyny mainframe nadal będą wypierane z rynku przez serwery x86, które coraz lepiej nadają się do obsługi najbardziej wymagających aplikacji. Co ciekawe, procesory x86 Intela są używane również do budowy serwerów mainframe. Przykładem jest firma Unisys, która podjęła decyzję o wycofaniu specjalistycznych procesorów do platform mainframe, ponieważ okazały się wolniejsze i mniej skalowalne od nowszych układów. Procesory były wykorzystywane w sztandarowych serwerach mainframe tego producenta, ale zostaną zastąpione procesorami x86 Intela.

Mikroserwery

Na rynek wchodzi nowa klasa konwergentnych maszyn – mikroserwery. Patrząc wstecz, serwery typu tower ewoluowały w kierunku serwerów stelażowych, a następnie w serwery blade. Kolejnym krokiem rozwoju są mikroserwery, zwane niekiedy microblade. Zdaniem analityków w nadchodzących latach ten typ serwerów będzie miał 10% udziału w rynku.

Mikroserwery oferują takie korzyści, jak niskie zużycie mocy czy niewielkie rozmiary (oszczędność miejsca w serwerowni). Ogólnie, najlepiej sprawdzają się w obsłudze aplikacji, których wymagania wzrastają z upływem czasu. Mikroserwery umożliwiają bowiem budowanie klastrów zbudowanych z dużej liczby węzłów. Mają też swoje wady, jak ograniczone możliwości obliczeniowe pojedynczego węzła, potencjalna konieczność przepisywania kodu aplikacji pod kątem konfiguracji klastrowych czy brak standardów. Konkurencję dla nich stanowią też maszyny wirtualne, aczkolwiek klaster mikroserwerów ma przewagę nad jednym serwerem fizycznym obsługującym wiele maszyn wirtualnych.

Mikroserwery są obecnie wykorzystywane w zastosowaniach HPC czy do budowy chmur obsługujących serwery WWW, streaming czy klastry Hadoopa. Wraz z wprowadzaniem bardziej wydajnych procesorów rozszerzy się zakres zastosowań. Jednak osiągnięcie wzrostu wydajności będzie wiązało się z koniecznością udoskonalenia przełączników sieciowych, które muszą być zintegrowane z szafą stelażową, podobnie jak przełączniki są integralną częścią architektury blade.

Serwis i wsparcie techniczne

Sektor serwerów doświadcza istotnych zmian, czego skutkiem jest, m.in. przywiązywanie przez użytkowników coraz większej wagi do planów serwisowych. Firmy szukają nowych rozwiązań, aby sprostać wyzwaniom, jakie stawiają przed nimi zmiany zachodzące w segmencie serwerów. Znaczne korzyści może przynieść, np. korzystanie z usług firm trzecich – takich, które świadczą serwis, choć same nie są producentami serwerów. Jest kilka czynników mających wpływ na zmianę strategii serwisowej firm.

Pierwszym jest coraz większa liczba i łatwiejsza dostępność serwerów. Urządzenia te stają się powszechnym towarem, co działom IT daje interesujące możliwości. Łatwo dostępny sprzęt jest tańszy i sprawia, że można szybciej zastępować nim starsze urządzenia lub te, które uległy awarii. To oznacza, że cykle wymiany sprzętu są mniej wymagające finansowo, ale z drugiej strony może sprawić, że te okresy staną się krótsze. Dlatego korzystne mogą okazać się sposoby wydłużenia tych cykli. Jednym z nich są rozszerzone plany serwisowe oferowane przez niezależne firmy. W ten sposób przy niewielkich kosztach można wydłużyć cykl życia standardowych serwerów.

Kolejny czynnik mający wpływ na plany serwisowe to rosnąca popularność rozwiązań o dużej gęstości. Wiele firm testuje sposoby wdrażania serwerów w konfiguracjach o coraz większej gęstości mocy obliczeniowej. To umożliwia uruchomienie większej liczby aplikacji na fizycznie mniejszej powierzchni, a także rozwiązuje inne problemy, np. skraca opóźnienia w komunikacji sieciowej. Jednocześnie ta strategia kładzie niesamowite obciążenie na systemy zasilania i chłodzenia oraz stwarza sytuacje, w której awarie sprzętowe stają się częstsze. Co więcej, większa gęstość systemów utrudnia dostęp do poszczególnych maszyn i przeprowadzanie napraw. Wiele potencjalnych problemów oraz trudności z dostępem do urządzeń sprawiają, że firmy szukają nowych rozwiązań w zakresie serwisu.

Trzeci czynnik to rosnąca integracja aplikacji z pamięciami masowymi. Pamięci masowe stają się coraz ważniejszą technologią w centrach danych, a coraz ważniejsze jest osiąganie maksimum wydajności z posiadanych zasobów, aby sprostać wymaganiom takich aplikacji, jak wideo czy Big Data. Niektórzy dostawcy pracują nad sposobami umieszczenia pamięci masowych jak najbliżej serwerów, a nawet budują systemy, którego integrują w jednej architekturze różne systemy. Takie podejście ma wyeliminować różne wąskie gardła, które ograniczyły funkcjonalność użytkownika końcowego oraz stworzyć podstawy do tego, aby użytkownicy mieli szybki dostęp do danych. Integracja serwerów i pamięci masowych znacznie zwiększa wydajność, ale jednocześnie komplikuje kwestie związane z serwisem i wsparciem technicznym.

Hiperkonwergencja

Od kilku lat producenci wprowadzają kolejne rozwiązania konwergentne do zastosowania w centrach danych. Budowa infrastruktury konwergentnej nie sprowadza się do prostego zastąpienia kilku urządzeń sieciowych. Jest to zupełnie nowe spojrzenie na infrastrukturę sieciową i serwerową oraz pracowników IT, którzy mają się opiekować tymi systemami. Od pewnego czasu mówi się również o hiperkonwergencji.

Mówiąc ogólnie, są dwa sposoby budowy zintegrowanej infrastruktury:

  • pierwszy koncentruje się na warstwie sprzętowej (np. VCE, wspólny projekt EMC, Cisco i VMware) i jest to po prostu konwergentna infrastruktura;
  • drugi to podejście programowe (przykładem są rozwiązania firmy Nutanix), które utrzymało miano hiperkonwergentnego.

Najważniejsza różnica między tymi dwoma technologiami polega na tym, że w infrastrukturze konwergentnej każdy z głównych komponentów może niezależnie realizować swoje zadania. Przykładowo, serwery może wydzielić z systemu i używać ich po prostu jako serwerów. To samo można zrobić z pamięciami masowymi. W rozwiązaniu hiperkonwergentnymi poszczególne komponenty są zdefiniowane programowo, więc w swej istocie jest to zintegrowana technologia, której nie da się rozbić na oddzielne komponenty.

Przyjmijmy, że firma wdraża wirtualizację serwerów. W architekturze niezintegrowanej fizyczne serwery działają pod kontrolą hypervisora, który zarządza każdą maszyną wirtualną. Zasoby dyskowe dla tych maszyn wirtualnych są dostępne na macierzach NAS i SAN lub jako lokalnie podłączone dyski. W systemie konwergentnym pamięci masowe są bezpośrednio podłączone do serwerów fizycznych. Dla najbardziej wymagających aplikacji oraz jako pamięci podręcznej używa się nośników Flash. W infrastrukturze hiperkonwergentnej kontroler pamięci masowej działa jako usługa w każdym węźle klastra, co zwiększa skalowalność i niezawodność. W tym kierunku idą nie tylko nowe firmy, jak Nutanix i SimpliVity, ale także VMware.

Kontroler pamięci masowej, który dotychczas był częścią macierzy, staje się urządzeniem programowym połączonymi z każdą maszyną wirtualną na poziomie hypervisora. Oprogramowanie klasy SDS (Software Defined Storage) kontroluje wszystkie zasoby dyskowe w klastrze i łączy je w jedną pulę. Dane, które muszą być przechowywane lokalnie, aby były dostępne szybko, faktycznie mogą być zapisane lokalnie, natomiast dane używane rzadziej system może zapisywać na serwerze, który ma więcej dostępnego, wolnego miejsca.

Koszty infrastruktury konwergentnej mogą się znacznie zmieniać w zależności od wykorzystywanego hypervisora. Największe koszty zakupu wystąpią w przypadku infrastruktury budowanej na bazie VMware vSphere oraz Microsoft Hyper-V. Tańsze będą otwarte rozwiązania: KVM, XenServer czy OpenStack. Jednakże, jak z każdym rozwiązaniem open source, trzeba pamiętać o kosztach związanych z wdrożeniem i konfiguracją oprogramowania.

Ponieważ kontroler macierzowy jest urządzeniem programowym, odchodzą wydatki na kosztowne, sprzętowe macierze NAS i SAN. Hypervisor komunikuje się z takim kontrolerem w analogiczny sposób, jak ze sprzętowym rozwiązaniem, nie ma więc potrzeby rekonfiguracji. Jednocześnie odchodzi konieczność konfigurowania na macierzy, tzw. LUN’ów (Logical Unit Numbers), co znacznie upraszcza zarządzanie pamięcią masową. Ogólnie, programowe podejście do infrastruktury umożliwia automatyzację wielu zadań, oraz lepszą i efektywniejszą kontrolę.

Jeśli firma jest zainteresowana wdrożeniem systemu hiperkonwegentnego, może sięgnąć po propozycje kilku dostawców, którzy oferują rozwiązania mniej radykalne, ale umożliwiającego wykorzystanie już posiadanego sprzętu: serwerów, macierzy, urządzeń sieciowych. Poprzez dodanie warstwy programowej można uzyskać lepszą wydajność i lepiej wykorzystać dostępne zasoby. Tego typu rozwiązania umożliwiają, przykładowo, stworzenie z posiadanych zasobowych dysków DAS (Direct Attached Storage) jednej puli zasobów przypominających macierz dyskową. W ten sposób powstaje współdzielona przestrzeń dyskowa, z której mogą korzystać maszyny wirtualne.

Firmy, które chcą rozbudowywać swoje środowiska obliczeniowe, wykorzystując rozwiązania hiperkonwergentne, powinny najpierw przeprowadzić pilotażowe wdrożenie. Jest to ekonomiczny sposób przetestowania nowego podejścia do infrastruktury. Stosując rozwiązania modularne, np. serwery blade, można zbudować nowe środowisko z wykorzystaniem nowego sprzętu, które będzie można łatwo rozbudować w miarę potrzeb i w ramach zaplanowanego budżetu. Z punktu widzenie wydatków kapitałowych sprzęt jest raczej neutralny. Oszczędności można szukać w kosztach wsparcia technicznego i serwisu.

Nowe inwestycje w hiperkonwergentą infrastrukturę różnią się, ponieważ nie da się oddzielić elementów sprzętowych, gdyby wdrożenie pilotażowe zakończyło się niepowodzeniem. Ponieważ kluczowym komponentem jest oprogramowanie, początkowe koszty zakupu i wdrożenia są wysokie.

W przypadku infrastruktury konwergentnej w kosztach początkowych trzeba uwzględnić zakup sprzętu. Natomiast podczas oceny kosztów zakupu rozwiązania hiperkonwergentnego pojawią się koszty integracji z istniejącą infrastrukturą oraz zdobycia kompetencji w zakresie zarządzania różnymi platformami.

Patrząc na producentów, systemy konwergentne dostarczają przede wszystkim firmy obecne na rynku od wielu lat, jak EMC, Cisco, NetApp czy HP. Inaczej jest w segmencie hiperkonwergentnym, w którym znaczna część graczy to nowe firmy. Mogą mieć one problem z przekonaniem klientów, aby zaufali i powierzyli ich rozwiązaniom swoje krytyczne aplikacje. Jednak nie wszystkie firmy w tym segmencie są nowe. Działają tutaj również Dell, EMC, Nutanix i VMware. Aczkolwiek VMware jest unikalny, ponieważ nie jest to bezpośrednio oferta tego producenta, lecz program EVO:RAIL, w ramach którego klienci mogą wybierać hiperkonwergentne systemy różnych producentów. Stosunkowo nowymi graczami są Gridstore, SimplVity, Yottabyte, Pivot3 i Maxta.

Wysoka temperatura

Zwiększanie temperatury w szafach stelażowych sprawia, że centrum danych może działać bardziej efektywnej – spada zużycie energii potrzebnej do zasilania systemów chłodzenia. Badania przeprowadzone, m.in. przez Intela i Microsoft, pokazały, że większość serwerów działa poprawnie w podwyższonej temperaturze i chłodzeniu z wykorzystaniem zewnętrznego powietrza. Pojawia się jednak pytanie, jak bardzo można podwyższać temperaturę w centrum danych, aby uniknąć przegrzania sprzętu? Dell gwarantuje działanie swoich serwerów, jeśli temperatura otoczenia nie przekracza 45 stopni Celsjusza. Serwerownia Google w Belgii jest chłodzona wyłącznie zewnętrznym powietrzem. Wiąże się z tym pewna komplikacja. W okresach letnich temperatura w tej serwerowni przekracza 34 stopnie Celsjusza. To za dużo, żeby w środku mogli długo przebywać ludzie, ale serwery pracują normalnie.

OpenXtra, firma specjalizująca się w rozwiązaniach do monitorowania parametrów środowiskowych w serwerowni, zaleca, aby temperatura w centrum danych wynosił między 10 a 28 stopni Celsjusza. Optymalnie, żeby mieściła się w przedziale 20-21,5 stopnia Celsjusza. Z kolei eksperci z American Society of Heating, Refrigerating and Air Conditioning Engineers wskazują, że każde centrum danych jest inne i w związku z tym ma inne wymogi, jeśli chodzi o chłodzenie. Jednakże jako górną granicę temperatury zalecają 25-27 stopni Celsjusza.

Określając optymalną temperaturę w serwerowni, trzeba wziąć pod uwagę kilka czynników, m.in. wielość pomieszczenia i liczbę znajdujących się w nim serwerów. Te dane umożliwiają dobranie optymalnej temperatury do potrzeb. Mając obliczoną tę wartość, można ją ustawić w centrum danych i monitorować. Ważne, aby mieć ustawione alarmy informujące o przegrzewaniu sprzętu, aby zapewnić optymalne chłodzenie i zasilanie.

Podwyższanie temperatury w korytarzach chłodnego powietrza powoduje, że rośnie temperatura również w korytarzach z ciepłym powietrzem. Jak pokazuje przykład Google, ma to wpływ na osoby przebywające w serwerowni. W szczególnie, jeśli trzeba uzyskać dostęp do serwerów od tyłu, a więc wejść do korytarzy z ciepłym powietrzem. Jest to wyzwaniem, z którym można radzić sobie na różne sposoby. Przykładowo, pracownicy mogą zakładać specjalną odzież. Inny rozwiązaniem jest umieszczenie okablowania z przodu serwerów, a więc w korytarzach z chłodnych powietrzem. Takie podejście zastosowano w opracowanej przez Facebooka specyfikacji Open Compute Project.

Producenci infrastruktury serwerowni dostrzegli ten problem i oferują rozwiązania ułatwiające pracę w korytarzach z gorącym powietrzem. Przykładowo, Tate, producent podwyższanej podłogi, skonstruował specjalne rozwiązanie, które umożliwia na żądanie dostarczenie chłodnego powietrza do korytarza z ciepłym powietrzem. Kiedy trzeba przeprowadzić jakieś prace, w ten sposób obniża się temperaturę w wybranym obszarze.