Centrum danych – automatyzacja, integracja i sztuczna inteligencja

Koncepcja autonomicznego centrum danych to kwestia przyszłości, ale wcale nie tak odległej jak mogłoby się wydawać. Można podać wiele przykładów technologii, które przynajmniej częściowo zaczynają realizować tą koncepcję w praktyce.

Ewolucja architektury centrów danych to odchodzenie od statycznych fizycznych ośrodków do elastycznej, płynnej infrastruktury spełniającej wymagania cyfrowej transformacji biznesu i pozwalającej na zwiększenie niezawodności i efektywności działania ośrodków przetwarzania danych. W szczególności widać dążenie do automatyzacji zarządzania infrastrukturą oraz wykorzystania mechanizmów sztucznej inteligencji.

W praktyce oznacza to popularyzację technologii programowego sterowania urządzeniami takich jak SDN (programowe sterowanie systemem sieciowym), SDS (pamięciami masowymi), a w perspektywie także SDI (Software Defined Infrastructure – programowe sterowanie wszystkimi elementami infrastruktury centrów danych). W tym ostatnim wypadku praktycznym przykładem kierunku rozwoju technologii jest koncepcja systemów hiperkonwergentnych HCI (HyperConverged Infrastructure).

Zobacz również:

  • AI ma duży apetyt na prąd. Google znalazł na to sposób
  • Strategiczna współpraca NTT DATA Business Solutions i Beyond.pl

Sieci SDN wykorzystujące mechanizmy programowego sterowania funkcjami i parametrami urządzeń sieciowych pozwalają na dynamiczną i zautomatyzowaną modyfikację działania sieci. Można oczekiwać, że SDN już wkrótce stanie się standardową technologią wykorzystywaną w centrach danych.

Ale skrótów określających nowe techniki związane z zarządzaniem elementami infrastruktury jest coraz więcej i wciąż pojawiają się nowe, jak IBN (sieci intuicyjne, patrz artykuł na str. XX) lub DMaaS (Datacenter Management as a Service).

Zdaniem analityków z IDC tendencja do modernizacji infrastruktury centrów danych i wykorzystania w nich nowych technologii będzie w najbliższych latach ważnym trendem. IDC ocenia, że do roku 2020, aż 55% firm podejmie decyzje o takich inwestycjach.

Hiperkonwergencja czyli zintegrowane centra danych

Systemy hiperkonwergentne HCI (HyperConverged Infrastructure) zyskują coraz większą popularność i obecnie znajdują się w ofercie większości dużych producentów sprzętu dla centrów danych.

Są to rozwiązania integrujące serwery, pamięci masowe, urządzenia sieciowe przy wykorzystaniu preinstalowanego oprogramowania do zarządzania tak zaprojektowane by można je było nie tylko łatwo wdrożyć, ale również łatwo skalować. Jeden lub kilka takich systemów może pełnić rolę kompaktowego, kompletnego centrum danych. HCI są przeznaczone głównie dla firm, które chcą korzystać z własnego centrum danych lub systemów hybrydowych. Systemy hiperkonwergentne mają zalety porównywalne do rozwiązań chmurowych, ale nie wymagają korzystania z usług dostępnych w chmurach publicznych.

Systemy hiperkonwergentne są krokiem w kierunku automatyzacji działania centrum danych, bo ich kluczowym elementem jest warstwa programowa kontrolująca działanie systemu, aplikacji i usług. Pozwala ona np. na autonomiczne przekierowywanie zadań do różnych elementów systemu, a także automatyczne optymalizowanie wydajności infrastruktury oraz aplikacji.

Praktycznymi przykładami realizacji koncepcji systemów hiperkonwergentnych mogą być VxRail (Dell EMC), HyperFlex (Cisco), SimpliVity (HPE), Hyperconverged Systems Powered by Nutanix (IBM) lub ThinkAgile (Lenovo).

Sztuczna inteligencja w centrach danych

Mechanizmy sztucznej inteligencji AI (Artificial Intelligence) takie jak uczenie maszynowe będą odgrywały coraz większą rolę w centrach danych. Obecnie są one już testowane i wdrażane przez operatorów największych ośrodków przetwarzania danych i dużych dostawców usług kolokacyjnych, ale można oczekiwać, że w najbliższych latach zaczną znajdować masowe zastosowania.

Wynika to m.in. ze wzrostu skomplikowania systemów IT spowodowanego przez popularyzację środowisk hybrydowych równolegle wykorzystujących firmowe centra danych oraz usługi kolokacyjne i chmurowe. Tradycyjne podejście do zarządzania takimi środowiskami jest mało efektywne, a mechanizmy sztucznej inteligencji mają ogromny potencjał uproszczenia i ułatwienia zarządzania.

Obecnie AI w centrach danych najczęściej wiąże się z wykorzystaniem mechanizmów uczenia maszynowego do monitorowania i automatyzacji zarządzania niektórymi elementami systemu takimi jak dystrybucja zasilania, klimatyzacja i chłodzenie infrastruktury oraz bezpieczeństwo fizyczne.

Rozwój technologii AI i uczenia maszynowego ułatwi firmom podejmowanie decyzji, gdzie najbardziej efektywnie można uruchamiać określone aplikacje, w firmowym centrum danych, w ośrodku kolokacyjnym czy w chmurze.

A w centrach danych systematycznie rośnie liczba czujników zbierających dane o stanie zasilaczy UPS, urządzeń do dystybucji zasilania, serwerów, przełączników, ruterów, pamięci masowych itd. Dane te mogą być analizowane przez algorytmy wykorzystujące mechanizmy uczenia maszynowego na przykład do oceny wydajności systemu i reakcji na pojawiające się lub przewidywane problemy przez automatyczną zmianę odpowiednich parametrów systemu lub wysłanie alarmu do zarządzającego nim administratora.

Celem jest zwiększenie niezawodności i efektywności działania centrum danych, a także zwiększenie obszaru w którym może ono działać autonomicznie.

Nie jest to niestety proste zadanie. Żeby mechanizmy AI mogły efektywnie funkcjonować wymaga to instalacji dużej liczby sensorów do pomiaru zarówno parametrów pracy urządzeń IT (np. obciążenie i pobór mocy przez serwery), środowiska (temperatura, wilgotność), jak i innych elementów infrastruktury (systemy chłodzenia, wentylatory, zasilacze). A liczba punktów wymagających monitorowania może być ogromna.

Problemem jest też brak standaryzacji protokołów komunikacyjnych. W przypadku urządzeń IT wykorzystywane są protokoły TCP/IP i Ethernet, ale inne elementy do monitorowania infrastruktury często stosują inne protokoły takie jak np. Modbus, BACnet, LONworks lub Niagara, co utrudnia wymianę danych i ogranicza możliwości zdalnego sterowania urządzeniami.

Nowa usługa DMaaS – co to takiego?

DMaaS (Datacenter Management as a Service) to usługa oparta na oprogramowaniu DCIM, ale nie jest to po prostu DCIM oferowany w formie usługi chmurowej. DMaaS idzie dalej: wykorzystuje dane zbierane z wielu centrów danych, które są anonimizowane i analizowane w dużej skali.

„Jest to technologia, która potencjalnie może zasadniczo zmienić sposób zarządzania pracą centrów danych. DMaaS agreguje i analizuje duże zbiory zanonimizowanych danych wykorzystując uczenie maszynowe. Głównymi celami tej usługi są przewidywanie i zapobieganie awariom w centrach danych oraz wykrywanie działających nieefektywnie elementów infrastruktury” mówi Rhonda Ascierto, dyrektor z firmy analitycznej 451 Research.

Pierwszymi firmami, które, wykorzystując swoje wieloletnie doświadczenia w projektowaniu i wyposażaniu centrów danych, zaczynają oferować usługi DMaaS są Schneider Electric oraz Eaton. Na przykład oferowana przez Schneider Electric usługa EcoStruxure IT wykorzystuje dane z 500 centrów danych i ok. 2,2 mln zainstalowanych w nich czujników.

„Firmy zarządzające kolokacyjnymi centrami danych są pierwszymi, które często wykorzystują techniki dynamicznej optymalizacji chłodzenia. A zastosowanie technik uczenia maszynowego nie jest nowością w centrach danych, od dawna są wykorzystywane do dopasowywania mocy chłodzenia do bieżących obciążeń i to w czasie rzeczywistym” mówi Rhonda Ascierto.

Liderem na rynku oprogramowania do dynamicznego zarządzania i optymalizacji systemów chłodzenia jest firma Vigilent. Opracowane przez nią rozwiązania pozwalają na automatyczne wykrywanie i eliminację w centrum danych obszarów o zbyt wysokiej temperaturze.

„Operatorzy centrów danych mają tendencję do instalacji znacznie większej liczby systemów chłodzenia niż rzeczywiście potrzebują, a to oznacza istotny wzrost kosztów inwestycji i utrzymania systemu” mówi Cliff Federspiel, założyciel i prezes firmy Vigilent.

A jeśli w centrum danych pojawi się obszar o zbyt wysokiej temperaturze to typową reakcją administratora jest zwiększenie mocy chłodzenia. Ale w rzeczywistości, większa prędkość przepływu chłodzącego powietrza często powoduje różnice ciśnień, które zaburzają jego przepływ przez chłodzone urządzenia lub hamują prędkość powrotu gorącego strumienia do systemu chłodzenia. Choć może się to wydawać sprzeczne z logiką, ale zmniejszenie szybkości pracy wentylatorów może czasami być lepszą metodą zwiększenia efektywności chłodznia, uważa Cliff Federspiel.

Opracowane przez Vigilent algorytmy uczenia maszynowego pozwalają na optymalizację systemu chłodzenia w dowolnym środowisku, co według przedstawicieli tej firmy standardowo umożliwia 40-procentowe zmniejszenie kosztów energii niezbędnej do jego działania.

Systemy chłodzenia to tylko jeden element infrastruktury centrów danych. Można oczekiwać, że zastosowanie mechanizmów sztucznej inteligencji będzie coraz szersze. W praktyce dotyczy to wszystkich obszarów, które obecnie są monitorowane i zarządzane przez oprogramowanie DCIM.

Obecnie trudno jasno określić jaka decyzja jest lepsza, czy skorzystać z systemu DCIM działającego lokalnie czy z z opartej na chmurze usługi DMaaS. Pierwsze rozwiązanie ma zalety jeśli chodzi o bezpieczeństwo danych oraz minimalizację opóźnień procesów, które mają być realizowane w czasie rzeczywistym, a jednocześnie analizy pozwalające na prognozowanie przyszłości nie są bardzo ważne dla codziennych działań operacyjnych i mogą być wykonywane niezależnie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200