Innowacje sprzętowe będą wspierać hiperkonwergentną przyszłość


Technologia napędza zmiany architektury centrum danych. Podstawowym celem budowniczych ośrodków przetwarzania danych jest tworzenie obiektów, które ułatwiają zapewnienie 100% dostępności dla usług i aplikacji. Choć ich projekty oparte są na istniejących technologiach, uwzględniają także prognozowany w niedalekiej przyszłości rozwój technologiczny. Czy jesteśmy w stanie nauczyć się czegoś, analizując historię? Co wzięcie pod lupę rozwoju od lat 80. ubiegłego wieku – czyli okresu, w którym zaczęły się pojawiać centra danych – powie o przyszłej ewolucji tych motorów cyfrowego świata?

W latach 90. architektura typowego centrum danych opierała się zasadzie „jedna aplikacja na serwerze”. Nie zastanawiano się nad doborem aplikacji i serwerów. Z czasem jednak aplikacje zaczęły wymagać od infrastruktury większej ilości zasobów niż pojedynczy serwer mógł zapewnić. Dlatego podłączano zewnętrzne systemy pamięci masowej. Pozwalało to aplikacjom korzystać z większych zbiorów danych. Systemy pamięci masowej szybko się rozprzestrzeniały i zyskiwały większe możliwości w zakresie połączeń. W efekcie, lata 90. stały się – w kategoriach centrum danych – dekadą sieci SAN.

Od początku nowego wieku można było obserwować istotną zmianę. Technologia opracowana przez VMware przyniosła nową koncepcję – „serwera wirtualnego”. Umożliwiło to dwóm lub większej liczbie wolumenów serwerowych (nazywanych „maszynami wirtualnymi”) współistnienie na jednym serwerze fizycznym. Wówczas, w miarę dojrzewania technologii sieciowych i sieci SAN, architekci centrów danych byli w stanie umieścić system operacyjny (OS), aplikację i dane w sieci SAN.

Następnie, łącząc funkcje wirtualizacji i SAN, udało się uniknąć silosowego dylematu – „wielkiego serwera z wewnętrzną pamięcią masową”. Dane, aplikacja, maszyna wirtualna i system operacyjny były konsolidowane w sieci SAN. Dalej, dostawcy serwerów wprowadzili serwery kasetowe, czyli popularne blade'y. Fizycznie ograniczone jednostki, instalowane jako odrębne komponenty w specjalnej obudowie, która była (albo nie była) wyposażona w niewielką, lokalną pamięć masową. Niemniej nadal była w stanie obsługiwać aplikacje i hypervisory (oprogramowanie, które tworzy i obsługuje maszyny wirtualne).

Model serwera kasetowego oznaczał zagęszczenie mocy obliczeniowej. Mogła być ona skonsolidowana w dostępnych w centrum danych szafach serwerowych. W ten sposób głównym trendem stała się konsolidacja. Wkrótce preferencje klientów skoncentrowały się na dostawcach będących w stanie dostarczyć najszybsze, najbardziej bezpieczne i efektywne rozwiązanie zewnętrznej pamięci masowej. Rola serwera, w tym czasie, zaczęła być nieco marginalizowana.

W pełni samodzielni innowatorzy

Podczas gdy dostawcy walczyli o rynek masowy, starając się dostarczać najlepsze rozwiązania pamięci masowej , wiodące firmy internetowe zaczęły same zastanawiać się nad architekturą własnych centrów danych. Głównym celem było zaspokojenie rosnących wymagań scenariuszy biznesowych realizowanych w skali internetowej. Firmy te wyrosły od podstaw w całkowicie cyfrowym środowisku. Przy tym miały dostatecznie głębokie kieszenie, żeby mogły pozwolić sobie na realizowanie tego typu projektów samodzielnie.

Najbardziej znani spośród tych przedstawicieli nowego stylu myślenia – Amazon, Google oraz Facebook – potrzebowali „megacentrów danych” z tysiącami serwerów i pamięcią masową o ogromnej pojemności. Potrzebne były nieograniczone możliwości skalowania oraz pełna elastyczność. Podstawowym wymogiem była niezawodność. Pracując nad spełnieniem tych wymagań, firmy te opracowały rozwiązania programowe, które można zainstalować na standardowych węzłach serwerowych x86. Rozwiązania te dzisiaj znane są pod nazwą rozwiązań hiperkonwergentnych.

Tutaj tak naprawdę zaczyna się nasza historia.

Jak prosto wyjaśnić, czym jest hiperkonwergencja?

W najprostszej konfiguracji, rozwiązanie hiperkonwergentne składa się z wielu standardowych połączonych w klaster - z wykorzystaniem wysoko wydajnej sieci - węzłów serwerowych x86. Każdy węzeł ma warstwę wirtualizacyjną, hypervisor i dedykowane urządzenie zapewniające wirtualną pamięć masową, czyli VSA (Virtual Storage Appliance).

VSA jest kontrolerem, który łączy wszystkie zasoby dyskowe w klastrze w jedną pulę pamięci masowej. Zapewnia również zaawansowane funkcje, takie jak przełączanie awaryjne, i gwarantuje integralność danych. W przypadku niektórych rozwiązań hiperkonwergentnych kontroler jest maszyną wirtualną. W innych kontroler jest elementem warstwy hypervisora. Diagram prezentujący architekturę hiperkonwergentnego węzła wygląda następująco:

Architektura hiperkonwergentnego węzła wewnętrznego

Gruntownie przemyślana rekonstrukcja architektury centrum danych

Wpływ tych innowacji był znaczący. Kiedy rozwiązania wirtualizacji stały się ogólnie dostępne około 2005 r., zmieniła się ekonomiczna dynamika centrum danych. Mając taką sama ilość pieniędzy, można było dysponować większą wydajnością i pojemnością. Poprzez jeszcze większe uproszczenie technologii, hiperkonwergencja obniża również koszty posiadania.

Złożoność tradycyjnych kontrolerów pamięci masowej została przeniesiona do warstwy oprogramowania w węzłach serwerowych. Ogólna architektura stała się bardziej uporządkowana. Hiperkonwergencja konsoliduje zadania związane z zarządzaniem. W niektórych rozwiązaniach prawie wszystko może być kontrolowane z poziomu jednej konsoli.

Prawidłowo wdrożone rozwiązania hiperkonwergentne mogą zwiększyć zarówno ogólną wydajność systemu, jak i poszczególne czasy reakcji doświadczane przez użytkowników. Niektórym udało się uzyskać 40-proc. zysk ponad poziomy wydajności typowe dla tradycyjnych architektur centrum danych.

Czynnikiem wpływającym na poprawę szybkości operacyjnej jest skalowanie horyzontalne VSA: fakt, że w każdym węźle jest kontroler, a także wzajemna bliskość kontrolera i hypervisora oraz danych - wszystko to przekłada się na wzrost wydajności.

Kluczowa jest architektura sieci

W rozwiązaniu hiperkonwergentnym węzły są połączone, a pamięć masowa rozkłada się na nie wszystkie. Prowadzi to do sytuacji, w której ruch sieciowy jest bardzo wymieszany. Komunikacja musi być bezpieczna, niezawodna i charakteryzować się wysoką wydajnością. Architektura sieci oraz przełączniki – takie jak urządzenia Lenovo Top-of-Rack, wyposażone w zaawansowane funkcje, np. konwergentny rozszerzony ethernet oraz elementy programowe – mają krytyczne znaczenie dla w pełni zoptymalizowanych rozwiązań hiperkonwergentnych.*

Przełączniki Lenovo mogą być łączone w celu optymalizacji potrzeb architektury hiperkonwergentnej

W hiperkonwergentnej infrastrukturze centrum danych funkcje, takie jak dostępność i wydajność, mogą być przypisane do określonych komponentów. Przykładowo: w przypadku trzech węzłów, dwa przełączniki mogą działać jak jedno urządzenie, co zapewnia odpowiednią wydajność zawsze wtedy i wszędzie tam, gdzie jest to potrzebne.

Konfigurowanie przełączników za pomocą Cisco Inter-Switch Link oznacza, że dwa przełączniki fizyczne będą prezentować się i funkcjonować jako jeden przełącznik logiczny. Tabele MAC (Media Access Control) dla węzłów są współdzielone przez przełączniki, a każdy węzeł może być dołączony do obu przełączników fizycznych, aby zwiększyć możliwości wynikające z redundancji. Następnie można wykorzystać konfigurację VLAG (Virtual Link Aggregation Group), znaną również jako MC-LAG (Multi-Chassis Link Aggregation Group), która pozwala na uaktywnienie łączy 10 Gb, co zwiększa przepustowość oraz równoważy ruch między dwoma łączami.

* Lenovo RackSwitch G8124E, Lenovo RackSwitch G8272 oraz Lenovo RackSwitch G8296

Płaskie sieci to mniejsze opóźnienia

W miarę wzrostu ilości ruchu między węzłami w infrastrukturach hiperkonwergentnych, wynikającego z coraz większej liczby maszyn wirtualnych oraz coraz większych ilości danych, niedostateczna wydajność sieci stanowi poważny problem dla architektów infrastruktury centrum danych. Zwłaszcza w odniesieniu do opóźnień. Zaawansowana komunikacja przy użyciu RDMA (Remote Direct Memory Access) w sieci została po raz pierwszy wprowadzona w rozwiązaniach High Performance Computing. To bezpośredni dostęp do pamięci z poziomu pamięci jednego serwera do innego, bez udziału systemów operacyjnych kontrolujących te maszyny.

Microsoft Storage Spaces Direct (S2D) obsługuje obecnie RDMA w konwergentnych sieciach ethernet (RoCE). To protokół ethernet odciążający procesor i zwiększający efektywność opóźnień w sieci. RDMA będzie w końcu obsługiwane przez wszystkie rozwiązania hiperkonwergentne; przełaczniki Lenovo już wspierają RDMA. W takich architekturach, sieć wewnętrzna będzie bardzo 'płaska', a dzięki temu - szybka i efektywna.

Nietrudno przewidzieć, że postęp w obszarze sieci będzie wynikał z zastosowania rozwiązań definiowanych programowo – architektur, w których można łączyć węzły serwerowe w „łańcuchy”, w celu tworzenia rozwiązań hiperkonwergentnych. Możemy wyobrazić sobie dalszy rozwój kart sieciowych, oprogramowania sieciowego i sprzętu serwerowego, który umożliwi serwerom obsługę protokołów sieciowych. Przełączniki będą nadal potrzebne do komunikacji zewnętrznej, ale ich rola również będzie się zmieniać.

Zarządzasz tym, co widzisz

Zarządzanie z Nutanix Prism: jeden widok, jedno kliknięcie

W przypadku rozwiązania hiperkonwergentnego, w którym cała funkcjonalność oparta jest na oprogramowaniu, dużo łatwiej konsolidować informacje o konfiguracji oraz wprowadzać zmiany z poziomu jednej konsoli. Całe rozwiązanie będzie prostsze. Łatwiej będzie można je rozwijać, zarządzać nim, a także je utrzymywać.

Kiedy takie skonsolidowane zarządzanie jest częścią rozwiązania, proces uaktualniania, analizowanie przyczyny pierwotnej (w przypadku wystąpienia błędów) i dodawanie nowych usług będzie mniej wymagające. Będzie zajmować mniej cennego czasu zespołu IT. Narzędzie Prism, które jest częścią rozwiązania Nutanix, jest dobrym przykładem. Za pośrednictwem jednej konsoli – czasem określanej jako jeden ekran – administratorzy są w stanie wykonywać wiele zadań (dodawać usługi, aktualizować firmware lub rozwiązywać problemy) poprzez jedno kliknięcie – to właśnie „zarządzanie jednym kliknięciem” - jak określa je Nutanix.

Hiperkonwergencja dla lepszej integracji chmury

Jak napisano wcześniej, głównym trendem rozwojowym w centrum danych było zastąpienie sieci SAN, a następnie integracja warstwy hypervisora w węzłach, które zapewniały także pamięć masową. Porównanie aktualnie dostępnych ofert hiperkonwergentych ukazuje różnice w funkcjach. Niektóre oferują lepszą integrację, inne wyższy poziom utylizacji sprzętu, a jeszcze inne większe możliwości zarządzania. Wyraźnie jednak kierunek rozwoju został określony. W ten sposób będzie rozwijana funkcjonalność centrum danych. Jednak do tej pory mieliśmy okazję poznać tylko wstępną fazę tego rozwoju. Kolejne etapy będą koncentrować się na integracji chmury. Postaram się wyjaśnić, dlaczego tak będzie.

Microsoft Azure: chmura publiczna, prywatne korzyści

Hiperkonwergencja i chmura są skorelowane. Można użyć Microsoft S2D, Azure oraz Azure Stack do przedstawiania na czym polega ta korelacja. Definiowane programowo rozwiązanie pamięci masowej Microsoft S2D to motor pamięci masowej w chmurze publicznej Microsoft Azure oraz lokalnej chmurze Microsoft Azure Stack. Jeśli dodamy do tego Microsoft Hyper-V, powstaje fundament rozwiązania hiperkonwergentnego od Microsoft. Microsoft S2D jest częścią systemu Windows Server 2016 – rozwiązanie lokalnej chmury Microsoft Azure Stack zostanie wprowadzone do publicznej oferty jeszcze w tym roku.

Niektórzy z dużych dostawców cloud, wykorzystujący rozwiązania hiperkonwergentne we własnych centrach danych, mieli do niego dostęp już wcześniej. Oferując Azure oraz Azure Stack, Microsoft przekonuje, że chmura to raczej platforma, a nie „miejsce”. Firma mówi o rozwiązaniu hybrydowym, które dostarcza klientom wyboru w zakresie miejsca uruchomienia ich usług - w chmurze publicznej lub lokalnie. W obu przypadkach będą mieli do czynienia z tak samo wyglądającym i obsługiwanym rozwiązaniem. Klienci mogą wybrać, gdzie uruchomić ich obciążenia na podstawie wymogów, biorąc pod uwagę kwestie bezpieczeństwa, koszty czy inne czynniki. Jest to wszystko możliwe, ponieważ Microsoft wykorzystuje S2D oraz Hyper-V zarówno w Azure Stack (lokalna chmura), jak i w usłudze cloud - Azure.

Nutanix to inny pouczający przykład tych nowych możliwości. Opisuje swoje rozwiązanie jako „Enterprise Cloud Platform”: dzięki integracji platformy zarządzania, pozwalającej na zarządzanie jednym kliknięciem, firma może prawdopodobnie zaoferować najlepszą, dostępną na rynku, integrację funkcji dla menedżerów centrów danych. Do momentu oficjalnej premiery Azure Stack, wdrożenia Microsoft są w dużej mierze prowadzone za pomocą komend wprowadzanych w wierszu poleceń.

Tymczasem VMware rozwija swoje usługi cloud, wykorzystując silną pozycję na rynku dostawców rozwiązań dla centrów danych. Wprowadzenie rozwiązania vSAN to wyraźny krok ku płynnej integracji z chmurą. Możemy spodziewać się, że VMware wkrótce będzie także w stanie zaoferować konsolę do zarządzania w modelu „jednego ekranu”.

Partnerstwa tworzą fundament hiperkonwergencji

Z perspektywy zajmowanych na rynku pozycji, wszyscy dostawcy omówieni tutaj wydają się zmierzać równocześnie w tym samym kierunku: zdecydowanie stawiając na infrastrukturę hiperkonwergentną jako fundament centrum danych przyszłości. To stawia Lenovo w wyjątkowej pozycji. Używając języka Formuły 1, zajmujemy pole position. Ściśle współpracujemy z większością dostawców oprogramowania dla infrastruktury hiperkonwergentnej i wiemy, jak powinien być zainstalowany oraz skonfigurowany najlepszy węzeł dla danego obciążenia.

To prawda, że oprogramowanie powinno działać poprawnie w środowisku dowolnego dostawcy. Niemniej ważne jest, żeby sprzęt był przetestowany i certyfikowany dla konkretnego rozwiązania, które ma obsługiwać. Specyfikacja i architektura rozwiązania Microsoft nie jest idealną konfiguracją dla rozwiązania VMware. Rozwiązanie do zarządzania sprzętem firmy Lenovo, XClarity, jest przeznaczony do integracji z konsolami zarządzania systemów hiperkonwergentnych (w tym Microsoft, VMware oraz Nutanix), w przypadku których wiemy, że zapewniają klientom doświadczenie zarządzania jednym kliknięciem.

Centralna rola węzła serwerowego w definiowanym programowo centrum danych wymaga od platformy wyższego poziomu dostępności, wydajności, zarządzania i bezpieczeństwa. Lenovo jest liderem we wszystkich tych obszarach. Przykładowo, w obszarze bezpieczeństwa, podwójny moduł TPM (Trusted Platform Module) chroni zarówno aplikacje, jak i oprogramowanie układowe.

Niezależne badania potwierdzają wiodącą rolę Lenovo na rynku infrastruktury hiperkonwergentnej oraz w innych obszarach. Najnowsze badanie przeprowadzone przez Technology Business Research pokazuje na przykład, że serwery Lenovo otrzymują najlepsze oceny pod względem satysfakcji klientów. Natomiast przygotowany przez ITIC raport 2017 Global Server Hardware, Server OS Reliability Report dowodzi, że serwery Lenovo oferują najwyższy, dostępny na rynku, poziom dostępności spośród wszystkich dostawców x86. To nie wszystko. Obydwa raporty zawierają więcej informacji potwierdzających, że Lenovo jest przygotowane na definiowaną programowo przyszłość, która zaczyna coraz bardziej zdecydowanie wkraczać do centrów danych na całym świecie.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.