Infrastruktura pod kontrolą

Analityka predykcyjna i analiza dużych zbiorów danych to ważne kierunki rozwoju oprogramowania DCIM ułatwiającego zarządzanie infrastrukturą w centrach danych.

Wartość sprzedaży systemów DCIM (Data Center Infrastructure Management) przekroczy poziom 2,85 mld USD do roku 2024, co oznacza roczny wzrost CAGR wynoszący ponad 21%. Takie prognozy zostały przedstawione w raporcie „Data Center Infrastructure Management (DCIM) Market Share, Trend, Segmentation and Forecast to 2022” opublikowanym w czerwcu 2018 r. przez firmę Market Research Engine.

Oprogramowanie DCIM służy do monitorowania działania centrów danych zarówno systemu IT, jak i infrastruktury związanej z budynkami, np. poziomu zużycia energii przez serwery, pamięci masowe, urządzenia sieciowe, systemy klimatyzacji i chłodzenia oraz zasilania awaryjnego, oświetlenie itd. DCIM dostarcza też narzędzia do monitorowania stanu i wykorzystania zasobów (mocy obliczeniowej, pamięci masowej) oraz udostępnia funkcje raportowania, które sygnalizują nieefektywne obszary występujące w infrastrukturze, oraz problemy, które mogą się pojawić. Oprogramowanie umożliwia ocenę efektywności wykorzystania powierzchni dostępnej w centrum danych i ułatwia planowanie modyfikacji systemu, a także zapobieganie potencjalnym awariom. Zakres dostępnych funkcji może być różny zależnie od producenta i wersji oprogramowania.

Zobacz również:

DCIM, czyli oprogramowanie wspomagające zarządzanie infrastrukturą

Gdy kilkanaście lat temu na rynku pojawiły się pierwsze wersje oprogramowania DCIM, towarzyszył im rozgłos podkreślający zalety tego typu rozwiązań, ale ich praktyczne urzeczywistnienie wciąż pozostawiało wiele do życzenia. Niestety, efektywne wdrożenie takich systemów jest trudne, podobnie jak ocena zysków i określenie wartości zwrotu z inwestycji ROI.

Na przykład z wyników badań ankietowych przeprowadzonych przez Uptime Institute (Data Center Survey) wynika, że blisko połowa firm (49%) wdrażających oprogramowanie DCIM nie spodziewa się uzyskania zwrotu z tej inwestycji (co z biznesowego punktu widzenia oznacza porażkę projektu), a 40% zmieniło dostawcę oprogramowania DCIM i podejmuje kolejną, drugą lub nawet trzecią próbę wdrożenia takiego systemu. Jednocześnie mniej niż 25% firm zdecydowało się na skorzystanie z zaawansowanych funkcji oferowanych przez producentów i ograniczyło się tylko do funkcji podstawowych. Tylko 17% ankietowanych oczekuje realnego zwrotu z inwestycji w DCIM.

Producenci oprogramowania DCIM obiecują, że ich rozwiązania umożliwią zwiększenie efektywności centrów danych, m.in. dzięki integracji zespołów odpowiedzialnych za IT z administratorami zarządzającymi budynkami, ułatwią planowanie rozbudowy lub modernizacji infrastruktury, dostarczając funkcji jej modelowania, zwiększą niezawodność jej działania i ograniczą koszty związane z utrzymaniem systemu.

DCIM, czyli oprogramowanie wspomagające zarządzanie infrastrukturą

W praktyce osiągnięcie tych celów nie jest tak proste, jak się wydaje, i dlatego wiele projektów wdrożenia DCIM kończy się fiaskiem. Niestety, sam zakup oprogramowania to dopiero początek drogi. Jego wdrożenie jest zwykle trudniejsze, trwa dłużej i jest bardziej kosztowne, niż oczekiwano.

Kluczem do efektywnego wdrożenia DCIM jest dopasowanie funkcji oprogramowania do indywidualnych wymagań i infrastruktury wykorzystywanej przez firmę.

W niektórych przypadkach możliwa jest samodzielna budowa systemu DCIM, a nie korzystanie z dostępnej na rynku oferty. Są przykłady zakończonych sukcesem projektów, np. przedsięwzięcie zrealizowane w firmie RELX Group, która po długim poszukiwaniu komercyjnych rozwiązań DCIM spełniających jej wymagania zdecydowała się na samodzielną budowę systemu. Opis tego projektu można znaleźć na portalu Uptime Institute w publikacji „If You Cant Buy Effective DCIM Build It”.

Te krytyczne opinie i niezbyt zachęcające fakty dotyczące problemów z wdrażaniem systemów DCIM nie są jednak w sprzeczności z przewidywaniami dotyczącymi wzrostu popytu na takie oprogramowanie. Technologie DCIM wciąż są rozwijane i pojawiają się innowacyjne rozwiązania, np. DMaaS (Datacenter Management as a Service). Jednocześnie rośnie popularność usług chmurowych, ale nie oznacza to, że lokalne centra danych nie są już ważne. Do chmury najczęściej przenoszone są aplikacje o mniejszym znaczeniu, a te krytyczne dla działania firmy najczęściej są wciąż uruchamiane w jej własnych centrach danych. Oznacza to, że rośnie znaczenie funkcji ułatwiających kontrolę i monitorowanie centrów danych, a w efekcie rośnie popyt na DCIM. Jednocześnie rośnie liczba nowych, zaawansowanych funkcji DCIM. Można tu wymienić mechanizmy analityczne pozwalające na ocenę parametrów centrum danych i prezentujące raporty, jakie rozwiązania są najbardziej ekonomicznie efektywne, np. sugerujące przeniesienie części (lub wszystkich) zasobów do ośrodka kolokacyjnego lub chmury.

Oprogramowanie DCIM może być wykorzystane do modelowania centrum danych, m.in. pod kątem dopasowania mocy obliczeniowej do dostępnej w infrastrukturze mocy zasilania i chłodzenia lub do monitorowania dynamicznych zmian obciążenia i kontrolowania, czy przenoszenie obciążeń (maszyn wirtualnych) między różnymi fizycznymi serwerami nie spowoduje nieoczekiwanych problemów z zasilaniem lub chłodzeniem systemu. Kontrola i dopasowywanie dostarczanej energii do bieżących wymagań umożliwia z kolei minimalizację kosztów związanych z poborem mocy elektrycznej.

Oprócz tego wyposażenie centrów danych podlega systematycznym modyfikacjom. Według niektórych ocen w ciągu każdego roku średnio wymieniane jest 25% urządzeń i elementów infrastruktury. Od administratorów wymaga to znacznego nakładu pracy. Oprogramowanie takie jak DCIM może istotnie ułatwić monitorowanie takich zmian i zarządzanie nimi.

DCIM ze wsparciem chmury

Zarządzanie centrami danych staje się bardziej skomplikowane i trudniejsze, gdy następuje rozproszenie infrastruktury wykorzystującej nie tylko tradycyjne lokalne centra danych, ale również centra kolokacyjne, usługi chmurowe oraz aplikacje wykorzystujące przetwarzanie danych na brzegu sieci (edge computing).

Klasyczne oprogramowanie DCIM wymaga instalacji w centrach danych znajdujących się w każdej lokalizacji, co stwarza problemy z porównywaniem parametrów dotyczących wydajności w różnych środowiskach. Stąd też pojawiła się koncepcja stworzenia usługi DMaaS, która została tak zaprojektowana, że umożliwia monitorowanie, analizowanie i porównywanie różnych środowisk.

DMaaS pobiera dane dotyczące funkcjonowania centrum danych, anonimizuje je, analizuje i dostarcza informacji umożliwiających użytkownikowi porównanie rejestrowanych parametrów z typowymi dla innych, podobnych centrów danych, a także przewidywanie potencjalnych awarii i problemów oraz wykrywanie nieefektywnie działających obszarów infrastruktury.

Analiza dużych zbiorów danych pozwala na zwiększenie dokładności monitorowania występujących w centrach danych trendów, a przy wykorzystaniu mechanizmów analityki predykcyjnej przewidywanie problemów, które mogą wystąpić. Im większe są liczba i zakres danych, tym lepsze są możliwości efektywnego prognozowania, więc najlepszą pozycję mają najwięksi dostawcy infrastruktury dla centrów danych. Dlatego też usługi chmurowe zaczęły się pojawiać w ofercie takich firm, jak: Eaton, Schneider lub Emmerson Network Power.

„DMaaS to usługa, która może zasadniczo zmienić sposób zarządzania pracą centrów danych

DMaaS agreguje i analizuje duże zbiory zanonimizowanych danych, wykorzystując uczenie maszynowe. Główne cele tej usługi to przewidywanie awarii w centrach danych i zapobieganie im oraz wykrywanie działających nieefektywnie elementów infrastruktury. Na praktyczne wykorzystanie potencjału DMaaS trzeba będzie jeszcze zaczekać, bo wymaga to integracji mechanizmów związanych z zarządzaniem fizyczną infrastrukturą centrów danych z wieloma innymi usługami, takimi jak zarządzanie obciążeniami systemu IT, zużyciem energii, systemami telekomunikacyjnymi oraz oprogramowaniem do analizy kosztów biznesowych” – mówi Rhonda Ascierto, dyrektor firmy analitycznej 451 Research.

Przykładami usług już dostępnych na rynku są EcoStruxure IT (Schneider Electric) lubPredictPulse Insight (Eaton). Usługa EcoStruxure IT wykorzystuje informacje z 500 centrów danych i ok. 2,2 mln zainstalowanych w nich czujników. Natomiast PredictPulse Insight koncentruje się na monitorowaniu systemów zasilania awaryjnego. Usługa wykorzystuje dane dostarczane przez setki czujników zainstalowanych w systemie zasilania awaryjnego, które monitorują parametry akumulatorów, kondensatorów, zasilaczy i wentylatorów w systemach UPS firmy Eaton. Rozwiązanie stosuje oprogramowanie DCIM opracowane przez CA Technologies i narzędzia Oracle do analizy danych.

Niektórzy użytkownicy mogą mieć wątpliwości, czy udostępnianie danych dotyczących działania infrastruktury, zwłaszcza tej do obsługi aplikacji o znaczeniu krytycznym lub podlegających regulacjom prawnym, jest bezpieczne. Jak jednak zapewniają specjaliści, nie ma powodów do obaw. Przesyłane dane są szyfrowane, anonimizowane i w rzeczywistości nie są danymi, a jedynie informacjami o charakterze statystycznym.