Data Center – kierunek transformacja

Materiał promocyjny Dynamicznie rosnąca ilość danych niestrukturalnych, wielopoziomowa wirtualizacja, a także postępująca digitalizacja i konsolidacja, stanowią siłę napędzającą postęp w sektorze Data Center zarówno w Polsce, jak i na świecie – podkreśla Paweł Bociąga, Prezes Zarządu Symmetry.

Jakie wymagania powinno spełniać Data Center nowej generacji?

Wymagania są pochodną celów i priorytetów każdej organizacji. Niektóre przedsiębiorstwa stawiają na redukcję kosztów i poprawę efektywności, inne koncentrują się na wzmacnianiu elastyczności biznesowej i szybkim reagowaniu na zmiany rynkowe. W związku z tym, nowoczesne centrum danych musi mieć na tyle dużą zdolność adaptacji, by zaadresować bieżące wymagania organizacji oraz rosnący portfel usług wielu działów w firmie. Stanowi to wyzwanie dla zarządów firm i działów IT. Innowacyjność centrów przetwarzania danych jest odpowiedzią na ewolucję trendów i realiów biznesowych. Obecnie liczy się łatwe, efektywne i zautomatyzowane zarządzanie rozbudowanym środowiskiem obliczeniowym, złożonym często z setek serwerów oraz dziesiątek przełączników czy systemów pamięci masowych. Ponadto centrum danych musi być gotowe do świadczenia usług wykorzystujących chmurę prywatną, jak i publiczną. Poza dostępnością danych, absolutnym priorytetem jest szeroko rozumiane zabezpieczenie.

Data Center – kierunek transformacja

Jakie technologie mogą okazać się rewolucyjne w przypadku Data Center?

Rynek takich technologii rośne dynamicznie. Trzeba skutecznie weryfikować rozwiązania, które są wartościowe i ważne. W odniesieniu do sektora Data Center firmy dostrzegły już korzyści wynikające z zastosowania rozwiązań definiowanych programowo (Software Defined) dla aplikacji, sieci oraz zasobów dyskowych zlokalizowanych w centrach danych.

Rewolucyjną zmianą, którą postrzegam raczej przez pryzmat ewolucji, jest automatyzacja i orkiestracja. To naturalny etap rozwoju Data Center wynikający z wysokiego stopnia skomplikowania systemów IT, a zwłaszcza środowisk wirtualnych, gdzie zwykła obsługa administracyjna już nie wystarcza. Złożoność środowisk wirtualnych wymusza na firmach sięganie po narzędzia automatyzujące zarządzanie, natomiast orkiestracja pozwala nadzorować proces automatyzacji i umożliwia jego sprawną realizację. Rolą orkiestracji w Data Center jest monitorowanie systemów informatycznych, szybka reakcja w przypadku wystąpienia awarii oraz automatyczne przywrócenie określonego zasobu do działania. Co istotne, rozwiązania do orkiestracji dają możliwość pełnej automatyzacji kompleksowych zadań, umożliwiając również uproszczenie przywracania centrum przetwarzania danych po awarii.

Rosnące zainteresowanie budzi architektura sieciowa dedykowana Data Center, umożliwiająca jego elastyczne dostosowanie do zmian oraz wymagań chmury obliczeniowej i dostępnych w nim aplikacji. Infrastruktura ta obsługuje w pierwszej kolejności aplikacje biznesowe, zachowując wyśrubowane parametry ich dostępności w zróżnicowanych środowiskach sprzętowych i programowych. Obecnie klasyczne rozwiązania ADC (Application Delivery Controller) nie radzą sobie z efektywnym dostarczaniem usług spełniających dynamiczne potrzeby użytkowników. Fizyczne urządzenia przeznaczone do równoważenia obciążenia zasobów, typu Load Balancer nie spełniają warunków elastyczności i kompatybilności z różnorodnym środowiskiem IT klienta, a co więcej bardzo często są niedopasowane w stosunku do potrzeb. Infrastruktura skoncentrowana na aplikacjach (Application Centric Infrastructure) zapewnia wydajność aplikacji oraz infrastruktury sieciowej, przynosząc wymierne korzyści biznesowe. Dzięki temu przedsiębiorstwa mogą zyskać uproszczoną, bardziej precyzyjną kontrolę nad jakością usług, bezpieczeństwem i SLA.

Jakie rozwiązania mają obecnie zastosowanie w obszarze równoważenia obciążenia?

Dziś przedsiębiorstwa potrzebują „zwinnych” usług pozwalających na pracę zarówno w chmurze publicznej, jak i prywatnej. Obecnie w dziedzinie rozkładu obciążenia powszechne zastosowanie mają rozwiązania sprzętowe, które w większości przypadków nie są w stanie sprostać wyzwaniom aplikacji natywnie dostosowanych do pracy w chmurze oraz w nowoczesnych centrach danych. Kilka miesięcy temu Symmetry rozpoczęło współpracę z firmą Avi Networks, której rozwiązania pozwalają rozwiązać ten problem. Technologia ta została zbudowana tak, aby dopasować potrzeby usług aplikacyjnych do dynamicznie zmieniającego się środowiska. Ogranicza ona nadmierne wydatki i przeszacowanie infrastruktury urządzeń typu Load Balancer. Platforma Avi Vantage została oparta na koncepcji Software-Defined, a jej budowa uwzględnia odseparowanie warstwy zarządzania od warstwy danych, zapewniając rozproszone równoważenie obciążenia. Z technologii Avi Networks korzysta wiele firm na świecie, m.in. z sektora finansowego, IT czy e-commerce, w tym także przedsiębiorstwa z listy „The Global 2000” i „Fortune 100” Forbesa.

A jakie technologie składowania danych wiodą obecnie prym jeśli chodzi o Data Center ?

Obserwujemy trend związany ze stopniowym wycofywaniem się firm z macierzy dyskowych klasy Enterprise na rzecz intensywnie rozwijającego się rynku pamięci masowych typu flash. Oprócz tego, że pamięć typu flash pozwala uzyskać wysoką wydajność dostępu do danych, daje też lepszą proporcję kosztów do wolumenu operacji wejścia-wyjścia przetwarzanych w ciągu sekundy oraz proste zarządzanie. Dodatkowym atutem pamięci typu flash jest mechanizm deduplikacji i kompresji, co zdecydowanie przechyla szalę korzyści na rzecz tego typu rozwiązań. Wybór pamięci flashowych wynika przede wszystkim z potrzeb związanych z rozwojem rynku aplikacji interaktywnych czy dużych środowisk bazodanowych. Ponadto wzrost wolumenu danych wymusza niejako na firmach posiadanie coraz większej ilości przestrzeni dyskowych.

Warto zwrócić uwagę na rozwiązanie XtremIO. Jest to w całości oparta na technologii all-flash scale-out, niezwykle szybka i wydajna macierz czwartej generacji. Oferuje unikalną funkcję konsolidacji obciążeń, automatyzacji procesów w zakresie pamięci masowej i aplikacji oraz zapobiegania nadmiernemu rozrastaniu się infrastruktury. Co więcej, rozwiązanie posiada trzy cechy, które zrewolucjonizowały rynek pamięci masowych, są to: liniowa skalowalność pozioma, dedupliakcja i kompresja danych w trybie in-line oraz usługi zabezpieczenia danych w pełni zintegrowane w warstwie pamięci masowej.

Z jakich technologii korzysta Symmetry, realizując swoje projekty w zakresie przetwarzania i składowania danych?

Jako integrator rozwiązań informatycznych korzystamy z technologii wielu dostawców pamięci masowych. Wśród nich znajdują się takie firmy jak Dell EMC, HPE, Huawei czy Tegile Systems. Nasze portfolio pozwala nam na elastyczne budowanie wielowarstwowych środowisk składowania danych. W ostatnim czasie większość projektów zrealizowaliśmy w oparciu o technologie firmy Dell EMC. Mamy na swoim koncie liczne wdrożenia zarówno z obszaru zaawansowanych rozwiązań macierzowych, jak i tworzenia kopii bezpieczeństwa z wykorzystaniem takich produktów jak: Avamar, VNX, XtremIO, Data Domain, Networker, czy archiwizacji za pomocą narzędzia SourceOne. Ciekawym rozwiązaniem w kontekście przetwarzania i składowania danych jest oprogramowanie EMC ScaleIO. Umożliwia ono stworzenie elastycznej i skalowalnej warstwy pamięci masowej w oparciu o zasoby dyskowe dostępne w serwerach aplikacyjnych. Jest to nowoczesna alternatywa dla dotychczasowych rozwiązań infrastrukturalnych zasobów SAN (sieci światłowodowe, klasyczne macierze dyskowe). Łączy bowiem tradycyjne dyski twarde, dyski SSD oraz karty pamięci flash, tworząc wirtualne pule dyskowe z dostępem blokowym ze zróżnicowanymi pod kątem wydajności warstwami. W przeciwieństwie do tradycyjnych systemów pamięci masowych, wraz ze wzrostem ilości dysków w środowisku, rośnie również jego przepustowość oraz ilość jednocześnie przetwarzanych operacji wejścia/wyjścia na sekundę (IOPS). Co istotne, nie ma znaczenia producent, ilość pamięci, dysków czy procesorów – możemy je mieszać praktycznie dowolnie w ramach jednego systemu. Dzięki temu zapewniamy równowagę pomiędzy środowiskiem obliczeniowym, składowania oraz aplikacyjnym.

Aktualnie mamy do czynienia z gigantycznym przyrostem danych niestrukturalnych. Jak przedsiębiorstwa mogą sobie radzić z tym wyzwaniem?

Odpowiedzią na potrzeby firm w tym zakresie jest niewątpliwie rozwój koncepcji Data Lake. Repozytoria zwane „jeziorami danych” przechowują gigantyczne ilości informacji nieprzetworzonych, w dodatku w różnych formatach. Idea ta polega na konsolidacji środowiska służącego do przechowywania i przetwarzania danych nieustrukturyzowanych, występujących poza relacyjnymi bazami danych. Kluczową rolę odgrywa tu warstwa składująca. Jej rolą jest zapewnienie odpowiedniej skalowalności i elastyczności, dostępu obiektowego do informacji i sprawnej komunikacji z technologią typu Hadoop. Doskonale sprawdzają się tu rozwiązania skalowalnej horyzontalnie pamięci typu NAS - EMC Isilon – niezwykle łatwe w instalacji i zarządzaniu. Co więcej, za pomocą EMC Isilon można w łatwy sposób przechowywać dane w chmurze. Służy do tego funkcjonalność macierzy plikowej - Isilon CloudPools.

Na świecie dużą popularnością cieszy się technologia firmy Avere Systems, której jesteśmy wyłącznym partnerem w Polsce. Rozwiązania producenta doskonale uzupełniają Isilona. Technologia Avere Systems uspójnia bowiem rozproszone, heterogeniczne środowiska NAS, wykorzystując globalną przestrzeń nazw (GNS -Global NameSpace). W przypadku środowiska, gdzie funkcjonują technologie NAS różnych producentów można zastosować “nakładkę” w postaci rozwiązania Avere, które łączy różne systemy NAS i jest konektorem między środowiskiem fizycznym NAS a chmurą. Możliwe dzięki temu staje się rozdzielenie wydajności i pojemności, co w efekcie pozwala na niezwykle elastyczne skalowanie tych dwóch kluczowych parametrów. Rozwiązanie umożliwia dynamiczne rozłożenie danych pomiędzy różnymi warstwami czy wręcz systemami dyskowymi oraz liniowy wzrost wydajności środowisk NAS. Jest to możliwe dzięki zastosowaniu skalowalnego wielowęzłowego klastra FTX oraz poprzez łączenie urządzeń, które mogą być dostępne przez łącza WAN czy w chmurze. W efekcie poprawie ulega ekonomika przechowywania danych, a firma zyskuje możliwość zabezpieczenia danych przed awarią sprzętu/lokalizacji (kopie lustrzane danych pomiędzy zasobami NAS w różnych lokalizacjach – technologia FlashMirror), zwiększenia komfortu pracy użytkowników końcowych (end user experience) dzięki mechanizmowi pamięci podręcznej w urządzeniach Avere oraz uproszczonej administracji, zupełnie niewidocznej z poziomu użytkownika (dzięki Global NameSpace oraz technologii FlashMove).

Mówiąc o Data Center nie można zapomnieć o monitorowaniu i analizie działania systemów. Na co w tym obszarze warto zwrócić uwagę?

Rozwiązania nowej generacji zapewniają zarówno bieżącą kontrolę systemów, jak również zaawansowane narzędzia analityczne usprawniające funkcjonowanie środowisk Data Center. Nowoczesne platformy monitorujące umożliwiają tworzenie prognoz oraz podejmowanie proaktywnych działań poprawiających wydajność oraz wyrównujących obciążenie infrastruktury.

Jak oferta Symmetry odpowiada na potrzeby firm w zakresie monitorowania infrastruktury?

Portfolio usług Symmetry obejmuje audyt oraz monitoring infrastruktury serwerowej, sieciowej, pamięci masowych, systemów składowania danych i tworzenia kopii zapasowych. Działamy w oparciu o produkty wiodących dostawców technologii informatycznych, takich jak m.in.: Dell EMC czy HPE oraz specjalizowanych producentów, jak na przykład Virtual Instruments (VI), którego jesteśmy wyłącznym partnerem w Polsce. Jako ciekawostkę podam, że koncern ten oferuje unikalny produkt do monitorowania środowiska SAN w czasie rzeczywistym, umożliwiający analizę logiczną i fizyczną na poziomie połączenia światłowodowego.

Jak skutecznie zarządzać infrastrukturę złożoną z produktów różnych producentów?

Obserwuje się rosnące zainteresowanie rozwiązaniami typu Software Defined, wykorzystywanymi do budowy infrastruktury hiperkonwergentnej, które umożliwiają zarządzanie zróżnicowanym środowiskiem. Biorąc pod uwagę obszar monitorowania i zarządzania heterogeniczną infrastrukturą, warto zwrócić uwagę na rozwiązanie Dell EMC ViPR SRM oraz ViPR Controller. Gwarantują one maksymalną przejrzystość złożonych środowisk obejmujących produkty różnych producentów. Technologie te zapewniają kompleksowe zarządzanie zasobami pamięci, dokładny przegląd środowiska sprzętowego, a także oprogramowania serwerowego, wspierając tym samym elastyczne przejście z platformy drugiej generacji do trzeciej opartej na oprogramowaniu. Narzędzie to pozwala także na analizę konfiguracji dla tradycyjnych i zdefiniowanych programowo środowisk. Atutem technologii jest również fakt, iż znacząco usprawnia zarządzanie niemal każdym środowiskiem, począwszy od tych opartych na klasycznej architekturze, a skończywszy na złożonych i wysoce rozbudowanych infrastrukturach IT.

Na czym polega fenomen rozwiązania do monitorowania sieci SAN, o którym Pan wspomniał?

Platforma analityczna VirtualWisdom jest obecnie jedynym na świecie rozwiązaniem umożliwiającym analizowanie środowiska SAN na poziomie sieci światłowodowej w czasie rzeczywistym. Pozwala monitorować środowiska heterogeniczne zarówno fizyczne, jak i wirtualne. Dostępna wersja rozwiązania wspiera platformy wirtualizacyjne takie jak VMware vSphere, IBM PowerVM, Microsoft Hyper-V i zapewnia administratorom pełny wgląd w zasoby wirtualne i fizyczne.

Zaledwie kilka dni temu VI wprowadził na rynek kolejną ulepszoną wersję oprogramowania VirtualWisdom5 wraz z nową sondą wydajnościową - VirtualWisdom NAS Performance Probe. Obecnie jest to pierwsze w branży kompleksowe rozwiązanie do monitorowania wydajności infrastruktury dla środowisk SAN i NAS, zwiększające skuteczność analityki w obszarze infrastruktury fizycznej, wirtualnej i chmurowej.

Warto nadmienić, że technologia Virtual Instruments doskonale współpracuje z rozwiązaniami EMC takimi jak: VPLEX, VNX, VMAX, VIPR SRM czy XtremIO, wzbogacając je o warstwę analityczną i monitoring. Dzięki „zestrojeniu” platformy analitycznej VirtualWisdom z produktami EMC klienci zyskują wydajny system monitoringu, korelacji i analizy w oparciu o dane pozyskiwane z platformy VirtualWisdom. Platforma ta monitoruje każdą transakcję SCSI przy granulacji na poziomie niemal jednej milisekundy, co w efekcie daje lepsze wykorzystanie platformy serwerowej oraz macierzowej dzięki zastosowaniu narzędzi analityki i raportowania. Firmy zyskują w ten sposób pełen wgląd w czasie rzeczywistym w wydajność infrastruktury czy obciążenie aplikacji.

Jakie firmy mogą skorzystać z rozwiązania Virtual Instruments?

Beneficjentami rozwiązania są głównie klienci z sektora Enterprise. Sądzę, że platforma analityczna VirtualWisdom jest godna polecenia wszystkim organizacjom mającym duże centrum danych z infrastrukturą heterogeniczną oraz firmom, dla których krytyczne znaczenie ma maksymalne skrócenie czasu analizy, diagnozy i rozwiązania problemu w środowisku SAN.

Technologia ta pokazuje bowiem cały przekrój środowiska SAN w czasie rzeczywistym, a co więcej momentalnie wskazuje miejsce wystąpienia awarii, co w przypadku środowisk heterogenicznych jest niezwykle pomocne. Rekomenduję tę technologię przedsiębiorstwom, dla których ciągła dostępność aplikacji krytycznych jest absolutnym priorytetem, gdzie nawet chwilowy spadek wydajności systemów usługowych – szczególnie transakcyjnych - powoduje znaczące straty finansowe.

Co przemawia na korzyść tej technologii?

Narzędzie posiada szereg unikalnych funkcji, których walory z pewnością doceni zarówno kadra kierownicza, kierownicy liniowi, jak również administratorzy aplikacji. Niemniej jednak uważam, że głównym czynnikiem wzbudzającym zainteresowanie tą technologią jest pojawienie się macierzy flashowych co sprawia, że infrastruktura musi być odpowiednio dostrojona, aby zapewnić obsługę wysokiej ilości IOPS generowanych przez macierze tego typu. Dzięki platformie VI można uniknąć sytuacji, w której zastosowanie macierzy flashowej przy wąskich gardłach w sieci SAN, uniemożliwi wykorzystanie jej pełnego potencjału.

Dziękuję za rozmowę.

*****

Akademia Technologiczna Symmetry

Transformacja Data Center. Nowa generacja rozwiązań dla Twojej organizacji.

4 października 2016

Hotel InterContinental, Warszawa