Hiperkonwergencja: nowy pomysł na data center

Nowoczesne organizacje chętnie korzystają z możliwości oferowanych przez centra danych. Ich infrastruktura często okazuje się jednak zbyt złożona i kosztowna w utrzymaniu. Odpowiedzią na ten problem jest szybki rozwój infrastruktury hiperkonwergentnej.

Infrastruktura konwergentna zapewnia większą elastyczność i skalowalność oraz zdecydowanie ułatwiającej zarządzanie systemami informatycznymi. Jej szybkie spopularyzowanie wynika w znacznej mierze z powszechności wirtualizacji. Technologia ta ma jednak znacznie większy potencjał: jest krokiem na drodze do pełnego zautomatyzowania działań centrów danych.

„W tej koncepcji będziemy mieli do czynienia z systemem, gdzie kluczowym elementem jest definiowana programowo warstwa data center, pod którą będą mogły działać najróżniejsze rozwiązania i produkty. Za większość kluczowych funkcji i „inteligencję” całego systemu będzie odpowiadało oprogramowanie, które będzie potrafiło np. autonomicznie przekierowywać konkretne zadania do odpowiednich dla nich elementów infrastruktury” – wyjaśnia John Abbott, analityk firmy 451 Research.

Zobacz również:

W klasycznym rozumieniu hiperkonwergencja oznacza system łączący w jeden „organizm” serwer, przestrzeń dyskową oraz funkcje sieciowe – wszystko to jest zarządzane w ujednolicony sposób, za pośrednictwem warstwy software’owej. Oznacza to zrezygnowanie z pewnych tradycyjnych podziałów w systemie IT i oparcie się w znacznej mierze właśnie na warstwie oprogramowania. Kluczem jest tu technologia SDS (software-defined storage) w połączeniu z hiperkonwergentnymi rozwiązaniami sprzętowymi, korzystającymi z lokalnej przestrzeni dyskowej (zamiast rozwiązań SAN – storage area networks).

Siła w prostocie

Co korzystanie z takich rozwiązań oznacza dla firm? Przede wszystkim pozwala to na znacznie prostsze zarządzanie całym systemem – choćby dlatego, że w razie problemów użytkownik (firma) kontaktuje się z jednym dostawcą, odpowiedzialnym za zarządzanie całością. „Kluczową ideą jest uproszczenie IT. Nowoczesna infrastruktura IT jest niesamowicie złożona, a naszym celem zredukowanie kosztów jej obsługi – poprzez uproszczenie jej funkcjonowania i zarządzania” – wyjaśnia Jesse St Laurent, wiceprezes ds. strategii w firmie Simplivity.

„W tradycyjnie zarządzanych środowiskach IT istnieje zwykle 10-12 oddzielnych modułów, którymi trzeba zarządzać – urządzeń, aplikacji itp. Infrastruktura hiperkonwergentna opiera się na wykorzystaniu pojedynczego, zunifikowanego interfejsu, który zostaje zaimplementowany do rozwiązań już wykorzystywanych w firmie, np. narzędzi hypervisora” – dodaje St Laurent.

Rozwiązania takie oferowane są w dwóch modelach: część producentów dostarcza wstępnie zintegrowany sprzęt, inni – oprogramowanie do pobrania i wdrożenia w już istniejącym (lub właśnie tworzonym) systemie IT. Taki wybór pozwala klientom m.in. łatwe dodawanie do swoich systemów hiperkonwergentnych modułów (w niektórych przypadkach nowe wirtualne maszyny można dodawać w ciągu kwadransa).

Statystyki rynkowe potwierdzają szybki wzrost popularności takich rozwiązań - z danych IDC wynika, że w bieżącym roku łączna sprzedaż systemów hiperkonwergentnych osiągnie wartość 2 mld USD, zaś w roku 2019 – już 4 mld.

Jednym z pierwszych ważnych graczy w tym segmencie był Nutanix, który takie rozwiązania oferuje już od roku 2011 (obecnie wartość firmy szacuje się na 2 mld USD). Później dołączyli do niego choćby Simplivity czy Scale Computing. Ale potencjał tego segmentu dostrzegają również giganci – swoją ofertę rozwija m.in. Vmware, Hitachi Data Systems czy EMC, a dosłownie kilka tygodni temu plany rozwoju takich produktów przedstawili VCE, Cisco oraz HPE, a także Juniper oraz Lenovo.

Liczy się łatwość skalowania

W pierwszej fazie popularyzowania się hiperkonwergentnej infrastruktury technologią tą interesowały się przede wszystkim małe i średnie firmy, wydające na IT stosunkowo nieduże środki i dysponujące niewielkimi zespołami IT. Dla nich rozwiązanie to było sposobem na redukcję kosztów i uproszczenie zarządzania. Z czasem jednak zaczęła ona trafiać również do korporacji, dla których kluczowe okazały się zapewniane przez hiperkonwergencję oszczędności oraz elastyczność.

Wdrażanie tej technologii zwykle w pierwszej fazie związane było z obsługą infrastruktury VDI (virtual desktop infrastructure), choć często wykorzystywano ją również w rozwiązaniach do odtwarzania po awarii oraz do zarządzania zdalnymi systemami IT (jednym z powodów ku temu było wspomniane wykorzystywanie lokalnych nośników danych zamiast SAN). Ostatnio jednak coraz częściej w infrastrukturze hiperkonwergentnej uruchamia się krytyczne dla pracy organizacji aplikacje, a także aplikacje NoSQL oraz Hadoop. Łatwość dodawania nowych modułów sprawia, że systemy można łatwo skalować, by sprostać wymaganiom analityki big-data.

Alternatywa dla publicznej chmury?

Zdaniem specjalistów, infrastruktura hiperkonwergentna może stanowić realną alternatywę dla chmur publicznych – w końcu nie wszyscy klienci chętnie będą decydować się na przekazanie swoich danych i aplikacji zewnętrznemu dostawcy (szczególnie w świetle obaw o bezpieczeństwo i wydajność takich rozwiązań). Hiperkonwergentność może pozwalać na połączenie zalet korzystania z rozwiązań in-house z wygodą systemów chmurowych.

Dodatkowym atutem mogą być tu koszty. „TCO korzystania z naszych systemów hiperkonwergentnych może być niższe niż koszty związane z używaniem publicznych chmur popularnych dostawców” – deklaruje Jesse St Laurent z Simplivity, dodając jednak od razu, że decyzja o wdrażaniu takich rozwiązań nie powinna być podejmowana wyłącznie w oparciu o aspekt finansowy. „Klienci muszą wiedzieć, że migracja do publicznej chmury nie jest jedynym sposobem na osiągnięcie odpowiedniej elastyczności” – dodaje St Laurent.

Chmurowy most

Hiperkonwergentna infrastruktura może mieć jednak również inne zastosowania – technologia ta postrzegana jest również jako metoda na połączenie firmowej infrastruktury z publiczną chmurą. W ten sposób korzysta z niej np. University of Wolverhampton, wykorzystujący hiperkonwergentne urządzenia HPE HC 250, obsługujące platformę Helion OpenStack. „Dzięki temu studenci i pracownicy uczelni (w sumie prawie 25 tys. stanowisk) mogą np. wygodnie przesuwać dane, aplikacje i zadania zarówno pomiędzy chmurami prywatnymi a publicznymi, jak i różnymi systemami public cloud” – tłumaczy Dean Harris, odpowiedzialny na UoW za IT.

Przedstawiciel uczelni tłumaczy, że takie rozwiązania pozwala działowi IT na szybsze i bardziej elastyczne reagowanie na potrzeby użytkowników – wykorzystanie infrastruktury hiperkonwergentnej sprawia, że lokalny dział IT działa jako „broker”, płynnie przesuwający zasoby pomiędzy systemami inhouse a chmurami publicznymi.

„Kluczowymi aspektem jest tu automatyzacja - cały system jest dzięki temu łatwiejszy do zarządzania, co sprawia, że nasi specjaliści IT mogą zająć poważnymi, krytycznymi dla funkcjonowania organizacji projektami” – wyjaśnia Harris.

Nie wszystko złoto…

Oczywiście, są również obszary, w których hiperkonwergentna infrastruktura sprawdza się znacznie gorzej – w każdym razie na tym etapie jej rozwoju. Wielu użytkowników uważa np., że ten model nie jest odpowiedni dla największych, krytycznych dla funkcjonowania danej organizacji, aplikacji (to jeden z powodów, sprawiających, że to rozwiązanie tak powoli upowszechnia się w korporacjach). Chodzi tu np. o systemy ERP czy finansowe, które by móc działać w nowym modelu muszą zostać „przepisane” od nowa – i dlatego obecnie znacznie uruchamiane są w klasycznie rozumianym modelu konwergentnym.

„Aplikacje w stylu systemów ERP czy oprogramowania finansowego Oracle przestają działać, gdy nie „widzą” podłączonej bazy danych. Dla większości dużych organizacji taka sytuacja jest niedopuszczalna” – tłumaczy Nigel Moulton, CTO firmy VCE.

Wielką zaletą modelu hiperkonwergentnego jest modułowość i skalowalność całego systemu (a więc również możliwość jego łatwej rozbudowy o nowe elementy) – zaleta ta może jednak w pewnych okolicznościach stać się zagrożeniem, gdyż generuje ryzyko stworzenia zbyt złożonego i kompleksowego systemu.

Co dalej?

Wydaje się jednak, że takie wątpliwości nie zmniejszą tempa popularyzowania się hiperkonwergentnej infrastruktury – tym bardziej, że dostawcy rozwiązań z tej dziedziny pracują już nad całym zestawem nowych aplikacji. „Oprogramowanie VDI było dobrym punktem wejścia dla firm chcących wdrażać tę technologię, ale naszym głównym celem zawsze były aplikacje krytyczne dla funkcjonowania data center” – mówi Jesse St Laurent. Klienci Simplivity już teraz używają w nowym modelu zdecydowanie bardziej złożonych aplikacji, jak choćby SQL Server, Exchange, Sharepoint czy Oracle.

„Hiperkonwergencja musi ewoluować, tak by spełniać wymagania wszystkich dziedzin IT, w których ta technologia może być obecna. Czy w tych środowiskach będzie można zaoferować siedmioletnią retencję danych? Czy da się korzystać z krytycznych dla funkcjonowania organizacji aplikacji i liczyć na czas reakcji poniżej milisekund? Hiperkonwergencja już dziś spełnia część tych wymagań i obserwujemy wyraźne parcie w obu wspomnianych kierunkach, dlatego sądzę, że z czasem stanie się ona naturalnym elementem infrastruktury IT” – dodaje przedstawiciel Simplivity.

Opracowano na podstawie tekstu "Hyper-converged infrastructure: How software is transforming the data centre” Matthew Finnegana z Computerworlduk.com.


TOP 200