Potrafimy dobrze grać w odpowiedzialną grę

Rozmowa z Małgorzatą Kasperską, wiceprezes firmy Schneider Electric na Polskę, Czechy, Słowację oraz Ukrainę, odpowiedzialną za pion Secure Power m.in. o tym, dlaczego inwestowanie w energooszczędne rowiązania jest kluczowe dla zarządzania bezpieczeństwem energetycznym i optymalizacji infrastruktury, jakie znaczenie w tym wszystkim ma oprogramowanie, które umożliwia monitorowanie i zarządzanie miejscami przetwarzania danych na krawędzie w czasie rzeczywistym oraz jak to się ma do standaryzacji i raportowania wskaźników zrównoważonego rozwoju.

Małgorzata Kasperska wiceprezes firmy Schneider Electric

Zgodnie z predykcjami Gartnera do 2022 roku aż ¾ danych miało być tworzonych poza centrami danych czy chmurą. Efektywność przetwarzania danych w wielu przypadkach zależy bowiem od miejsca. Stąd stała tendencja przesuwania przetwarzania danych jak najbliżej miejsca ich powstawania.

Rozwój tej technologii jest obecnie bardzo obiecujący i myślę, że edge computing ma uzasadnienie z więcej niż jednego powodu. Pierwszym, najbardziej oczywistym, jest zmniejszenie opóźnień w przetwarzaniu danych. Edge computing umożliwia przetwarzanie danych bezpośrednio w miejscu ich generowania, co jest szczególnie istotne w przypadku aplikacji wymagających niskiej latencji, takich jak autonomiczne pojazdy, rozwiązania medyczne, inteligentne miasta, branża produkcyjna czy rozwój Internetu rzeczy w ogóle.

Innym ważnym czynnikiem jest redukcja obciążenia sieci. Przenoszenie przetwarzania danych na krawędź pozwala ograniczyć przepływ danych przez sieć, przez co zmniejsza obciążenie ruchu. Dane mogą być filtrowane, analizowane i przetwarzane lokalnie, a dalej są przesyłane jedynie istotne informacje. To w prosty sposób prowadzi do efektywniejszego wykorzystania zasobów sieciowych, ograniczając także ich ślad węglowy i zużycie energii.

Przetwarzanie danych na krawędzi sieci może również przyczynić się do poprawy ochrony prywatności i bezpieczeństwa danych. Lokalne przetwarzanie oznacza, że dane nie muszą być przesyłane przez publiczną sieć, a to zmniejsza ryzyko nieautoryzowanego dostępu lub wycieku informacji.

W nieco większej skali oznacza to też przenoszenie centrów danych, modelu chmurowego zasilanego z tych centrów do regionów. Wielcy światowi gracze chmurowi, jak Microsoft, Google, AWS, schodzą z wielkich farm serwerowych w USA do innych części świata, tworząc lokalne instalacje.

Migracja centrów danych lub części modeli chmurowych do lokalnych regionów ma wiele korzyści zarówno dla dostawców usług chmurowych, jak i dla klientów. Zabieg ten przyczynia się do rozwiązania bariery legislacyjnej (i kwestii rezydencji danych, czyli ich fizycznej lokalizacji), skracania czasu przetwarzania informacji generowanych lokalnie, redukcji obciążenia sieciowego i lepszego wsparcia dla lokalnych klientów.

Obserwujemy to zjawisko na większą skalę na całym świecie u naszych partnerów, przedsiębiorstw kształtujących nowy wymiar gospodarki cyfrowej takich jak m.in. Equinix czy DLR.

Z perspektywy regulacji, zabieg ten pozwala dostawcom usług chmurowych dostosować się do różnych przepisów i dyrektyw dotyczących przechowywania i przetwarzania danych w poszczególnych krajach i sektorach gospodarki. Lokalne instalacje pozwalają spełnić te wymagania legislacyjne, otwierając jednocześnie na chmurę sektory, które właśnie z tych powodów miały wcześniej trudności we wdrażaniu tej technologii.

Myśląc o edge computing nie powinniśmy zapominać o jeszcze jednym elemencie tej układanki. Technologia ta jest niezwykle ważna z perspektywy wspierania lokalnych klientów. Przenoszenie centrów danych do lokalnych regionów umożliwia dostawcom chmurowym lepsze wsparcie dla klientów w tych regionach. Gromadzenie danych i przetwarzanie ich w bliskiej odległości daje większą kontrolę i elastyczność klientom, szczególnie tym, którzy preferują lokalne rozwiązania ze względów bezpieczeństwa, zgodności prawnej lub wydajności. Oczywiście zabieg ten wymaga odpowiedniego zarządzania całą infrastrukturą, ale na szczęście technologia i na tym polu przychodzi z pomocą, m.in. w zakresie oprogramowania DCIM, które w sumie głównie my jako firma rozwijamy.

Zawsze istnieje ciemna strona księżyca. W przypadku przetwarzania brzegowego będzie to na pewno kwestia kontroli energetycznej, optymalizacja zasobów, a także czynnik ludzki – potrzebnych kompetencji na samym końcu modelu. Co może pójść nie tak na krawędzi sieci?

Także na krawędzi sieci, podobnie jak w przypadku każdej innowacyjnej technologii, istnieją pewne potencjalne problemy lub wyzwania. Przetwarzanie brzegowe często dzieje się na urządzeniach o ograniczonych zasobach energetycznych, takich jak urządzenia IoT lub bramki sieciowe. Może to prowadzić do wyzwań związanych z optymalizacją zużycia energii i zarządzaniem zasobami, szczególnie jeśli wymagane jest intensywne przetwarzanie danych. Niewłaściwe zarządzanie energią może prowadzić do ograniczeń wydajności lub skrócenia czasu pracy urządzeń. Może również prowadzić do zwiększenia złożoności zarządzania infrastrukturą. W przypadku dużej liczby rozproszonych urządzeń na krawędzi sieci konieczne jest odpowiednie zarządzanie, monitorowanie i utrzymanie tych urządzeń. Wymaga to właściwych narzędzi i kompetencji technicznych, aby skutecznie utrzymać rozproszoną infrastrukturę i skutecznie nią zarządzać.

A co konkretnie rekomendujecie? Bo oczywistym jest, że jeśli chodzi o twardą infrastrukturę, wszystko można przewidzieć, postawić na energooszczędne serwery, zoptymalizować łącza energetyczne, zasilać brzegowe serwery zieloną energią. Ale musi być to przecież zarządzane, musi być pełna widoczność procesów.

Palmę pierwszeństwa w cyfrowym wyścigu o innowacje przejmą te firmy, które odpowiednio wcześnie zrozumieją, że nie uda nam się zmienić tego, co jest niepoliczone.

Z pomocą na tym polu przychodzi innowacyjne oprogramowanie, tzw. systemy DCIM 3.0. Dzięki niemu organizacje reprezentujące różne branże mogą proaktywnie zarządzać miejscami przetwarzania brzegowego za pomocą monitorowania w czasie rzeczywistym, oceny, natychmiastowego powiadamiania o usterkach i zaleceń opartych na danych wykorzystujących sztuczną inteligencję.

Działanie to może obejmować także takie elementy, jak śledzenie warunków środowiskowych i wydawanie alertów dotyczących wysokiej temperatury, wilgotności czy stanu baterii UPS, jeżeli mówimy o zasilaniu gwarantowanym jako namacalnym czynniku wpływającym na cyfrową transformację. Co więcej, DCIM to również, a niedługo pewnie przede wszystkim, narzędzia, które pozwalają na śledzenie i raportowanie podstawowych wskaźników zrównoważonego rozwoju dla całego ekosystemu – a to ma coraz częściej znaczenie krytyczne. Zwłaszcza, że z każdym rokiem na kolejne obszary gospodarki nakładany jest obowiązek raportowania w ramach ESG.


Potrafimy dobrze grać w odpowiedzialną grę


Schneider Electric nie tylko rekomenduje rozwiązania z zakresu zarządzania punktami brzegowego przetwarzania, dostarcza przede wszystkim własne narzędzia.

Tak, począwszy do EcoStruxure IT SmartConnect przeznaczonego do monitorowania i zarządzania rozporoszonymi Smart-UPS oraz oprogramowania PowerChute dla bezpiecznego zamykania infrastruktury hiperkonwergentnej i wirtualnej, poprzez chmurowe środowisko EcoStruxure IT Expert pozwalające na monitorowanie, zarządzanie i dostęp do analiz predykcyjnych dla zapewnienia bezpieczeństwa działania infrastruktury krytycznej oraz monitorowanie środowiska i kontrole dostępu zapewnianą przez Netbotz, aż po EcoStruxure IT Advisor, przeznaczony do cyfrowego modelowania, planowania i mierzenia wskaźników zrównoważonego rozwoju.

To wszystko czyni EcoStruxure IT – DCIM 3.0 Schneider Electric – kompleksowym i elastycznym rozwiązaniem pozwalającym na dostosowanie do każdego rodzaju i skali przetwarzania danych.

To jest dobry moment, by wprowadzić wątek sustainability, ponieważ Schneider Electric to przede wszystkim efektywność energetyczna.

Światowy rynek data center już teraz odpowiada za 2-3% światowego zużycia energii elektrycznej i chociaż w ciągu ostatniej dekady branża osiągnęła niesamowitą poprawę wydajności, nie jest jasne czy ten wzrost wydajności może nadal kompensować zapotrzebowanie centrów danych na energię w nadchodzących latach.

W połączeniu z wysokowydajną infrastrukturą IT potrzebną do wspierania gospodarki cyfrowej na całym świecie, jasne jest, że zrównoważone centra danych są ważniejsze niż kiedykolwiek wcześniej.

Dla dużych korporacji, a od tych zaczyna się obowiązek raportowania ESG, nadszedł czas, aby intensywnie inwestować w technologie, które są energooszczędne i odporne. Zaczyna się to od komunikowania zaangażowania w programy środowiskowe, społeczne i zarządzania (ESG), a następnie standaryzacji wskaźników, które pomogą w przyjęciu odpowiednich norm i poprawie działania infrastruktury w oparciu o nie, a ostatecznie postępie w zakresie zrównoważonego rozwoju w całej branży. Dla przykładu, Schneider Electric proponuje pięć kategorii, które obejmują 23 kluczowe wskaźniki dla operatorów centrów danych, którzy znajdują się na różnych etapach swojej podróży w kierunku bardziej zrównoważonej przyszłości.

Dane wspomagające DCIM, w tym dane historyczne, pomagające stworzyć metryki referencyjne – skąd pochodzi taka wiedza, którą potem wykorzystujecie do optymalizacji?

Ważne jest, abyśmy patrzyli na technologię DCIM jako pomocnika, którego głównym celem jest optymalizacja i doskonalenie zarządzania centrami danych. Dane historyczne, które gromadzimy, stanowią cenne źródło wiedzy, które wykorzystujemy do tworzenia metryk referencyjnych i optymalizacji. Źródła tej wiedzy pochodzą z różnych obszarów działalności naszych klientów.

Schneider Electric korzysta z systemów monitorowania i pomiarowych, które zbierają dane z różnych urządzeń i komponentów w centrum danych. Te dane obejmują temperaturę, wilgotność, obciążenie energetyczne, jakość zasilania i inne parametry. Analizujemy je, aby zrozumieć wzorce i trendy w wykorzystaniu zasobów oraz identyfikować obszary, w których można wprowadzić optymalizacje.

Jednocześnie wychodząc naprzeciw potrzebom dostawców hiperskalowalnych usług, wykorzystujemy uczenie maszynowe i AI, aby wydobyć z tych dużych ilości danych cenne informacje. Analiza pozwala nam identyfikować nadmiarowe zużycie energii, nieoptymalne ustawienia systemów chłodzenia, potencjalne problemy z wydajnością i wiele innych obszarów, które można poprawić.

Oczywiście oprócz wewnętrznych danych, korzystamy również z danych porównawczych i benchmarków branżowych. Dzięki nim możemy porównać wydajność i zużycie energii naszych centrów danych z innymi obiektami podobnego typu. To pozwala nam ocenić, czy osiągamy optymalne wyniki i gdzie możemy wprowadzić poprawki.

Trend przenoszenia przetwarzania danych do miejsca ich powstawania raczej nie zmieni się. Ważne w tym wszystkim jest odpowiedzialne podejście do przetwarzania brzegowego. To z jednej strony szansa biznesowa – optymalizacja energetyczna, z drugiej zaś szansa środowiskowa.

Zgadzam się, fala transformacji cyfrowej, z którą obecnie płyniemy, raczej nie wyhamuje prędko. A ponieważ unosi ona IT na brzegi sieci, musimy zapewnić, że będzie ono w tym miejscu tak samo wydajne, jak najbardziej wydajne centra danych. Odpowiedzialne podejście do przetwarzania brzegowego odzwierciedla znaczenie ekologicznego i zrównoważonego spojrzenia na technologię. Wśród najważniejszych aspektów, które podkreślają tę zależność, widzę przed wszystkim optymalizację energetyczną – edge pozwala nam optymalizować zużycie energii na poziomie globalnym poprzez zarządzane odpowiednio lokalne punkty przetwarzania danych i odpowiednią politykę gospodarowania danymi. W przeciwieństwie do przesyłania dużych ilości informacji przez sieć do centrów danych lub chmury, przetwarzanie na krawędzi sieci wymaga mniejszej ilości energii, przez co przyczynia się do efektywnego wykorzystania zasobów. Innym ważnym elementem jest szansa wykorzystania zrównoważonych źródeł energii. To z kolei pozwala na redukcję emisji gazów cieplarnianych, a więc ogranicza wpływ na środowisko.

W ramach odpowiedzialnego podejścia do tej kwestii wspólnie z partnerami wspieramy także naszych klientów w tematach recyklingu i odzyskiwania materiałów związanych z infrastrukturą. Unikanie nadmiernej produkcji elektronicznych odpadów oraz przetwarzanie i odzyskiwanie komponentów elektronicznych dodatkowo pomagają zmniejszyć presję na środowisko.

Jako lider transformacji energetycznej nie możemy natomiast nie prowadzić badań nad efektywnością energetyczną, edukować w tym zakresie i rozmawiać z naszymi klientami o tzw. Elektryczności 4.0.

Najkrócej ujmując, jest to proces transformacji w kierunku pochodzącej z rozproszonych odnawialnych źródeł, zarządzanej cyfrowo energii elektrycznej, dystrybuowanej poprzez dwukierunkowe, elastyczne i niezawodne sieci.

Naszym zdaniem to właśnie Elektryczność 4.0 stanowi odpowiedź na narastający trend elektryfikacji wielu sektorów gospodarki, oparty na zasadach zrównoważonego rozwoju.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]