Konferencja Data Driven Innovation2022. Czy o potencjale danych wiemy już wszystko?

„Computerworld” organizuje konferencję „Data Driven Innovation”, w tym roku po raz trzeci. Co się zmieniło przez te 3 lata? Czy dane w chmurze to chwilowy trend czy nowy paradygmat? Czy 2020 rok będzie można uznać za początek nowej ery rozwoju społeczno-technologicznego?

Trzy lata temu po raz pierwszy zorganizowaliśmy konferencję „Data Driven Innovation” z myślą o kadrze menadżerskiej w sektorze IT, a także menadżerach z innych branż, wprowadzających innowacje i zarządzających zmianą, jak również o osobach zajmujących się zaawansowaną analityką danych. W tej edycji, jak zwykle oprócz prelekcji dostępna była jednocześnie strefa partnerów z dodatkowymi materiałami i dyżurnymi ekspertami firm. Tegorocznej edycji partnerowały firmy: Hewlett Packard Enterprise i Vertica jako partnerzy generalni, partnerem strategicznym był Commvault, zaś merytorycznym C&F.

Jeżeli chcemy pokusić się o znalezienie słów kluczowych opisujących stan obecny branży, to aktualnie byłyby nimi: data lake, cloud native, cybersecurity i zero-trust, Kubernetes (albo szerzej: kontenery).

Zobacz również:

  • Brak dojrzałości danych spowalnia organizacje

Mamy dane. I co z tego?

Produktem ubocznym rozwoju technologicznego jest niewyobrażalny wręcz przyrost ilości surowych danych, coraz częściej z urządzeń IoT lub wearable. Obecnie prawie 5 mld ludzi na świecie ma dostęp do internetu, zaś wg szacunków do 2025 roku aż 75 mld urządzeń będzie podłączonych do internetu. Dobrze ustrukturyzowane, przetworzone i wykorzystane mogą stać się naszym najlepszym sprzymierzeńcem w szybko zmieniającym się świecie. Nie ma już chyba branży, w której organizacje nie chciałyby być data driven, czyli najnowocześniejsze, najbardziej konkurencyjne, zoptymalizowane, rezylientne i, oczywiście, dochodowe. Z danych można wyczytać przeszłość, teraźniejszość i przyszłość. Porównywanie ich do ropy czy złota (czy czegokolwiek znanego nam, co można wykopać z ziemi) nie odzwierciedla ich prawdziwej wartości. Taki ogrom danych wymaga całkowicie nowych rozwiązań, architektur i sposobu myślenia o big data i cloud. Dzięki dobremu ustrukturyzowaniu danych może wydarzyć się magia: kilkudziesięciokrotne obniżenie kosztów, kilkusetkrotne przyspieszenie procesów, wynalezienie leków i technologii, których na razie jeszcze sobie nawet nie wyobrażamy.

Trzeba jednak mieć na uwadze, że nowe technologie zawsze wymagają nowego podejścia i odpowiednich narzędzi. Pełnym zestawem nie dysponuje wiele firm. Łatwiej jest, oczywiście, tym większym, o szerokim spektrum działania i dużej, międzynarodowej skali. Wśród największych problemów, z jakimi mierzy się biznes, są: dług technologiczny, brak ekspertów znających środowisko chmurowe, brak know-how w organizacji. Im technologia jest nowsza, tym trudniej o kompetentnych pracowników. Tu widać przewagę HPE, które ze względu na ogrom swej organizacji przeprowadziło już około tysiąca tego typu wdrożeń. Dzięki temu ma know how, którego brakuje konkurencji. Dysponuje gotowymi frameworkami do pracy z klientem i oferuje usługę doradztwa. Krzysztof Chibowski, Advisory and Professional Services Sales HPE Polska oraz Maciej Kalisiak, HPE Presales Leader, HPE Polska zaprezentowali wspólnie możliwości rozwiązania HPE Ezmeral Data Fabric, dedykowanego do środowisk wielochmurowych. To rozwiązanie unikalne na rynku, składa się z 3 elementów, podstawą jest fabryka danych, potem element organizujący Kubernetes i na najwyższym poziomie MLops, czyli budowa środowisk. Fundamentami, na których je zbudowano są m.in. rozwiązania firm, które HPE przejęło w ostatnich latach: Blue Data (specjalizującą się w szeroko pojętej analityce danych i budowę permanentnych storage’y dla KUbernetes i kontenerów) oraz MAPR Data Technologies.

Eksperci HPE przypomnieli, że nie wszystko da się przenieść do chmury, a samo przejście na chmurę publiczną wcale nie jest takie łatwe i proste, dlatego pomiędzy on prem a chmurą publiczną powstał obszar hybrydowy, np. private cloud. Często obecnie spotykamy się z hybrydową architekturą, co wynika z istnienia trzech dominujących trendów rynkowych: edge computing (=nowe źródła danych), na drugim biegunie cloud (=nowe architektury, nowy sposób przetwarzania), a pomiędzy data (czynnik wspólny i zarazem nowe spojrzenie). Firmy osiągnęły już etap tworzenia architektury IT pod kątem tych trzech trendów. Prawdziwa architektura cloud-native oparta jest o mikrousługi. Aplikacja ma charakter rozproszony, a mikrousługi wzajemnie się ze sobą komunikują. Pojawiło się pojęcie grawitacji danych – polega ona na tym, że jeżeli dane są zebrane w jakimś miejscu, to kolejne napływające dane zaczynają grawitować w kierunku owego zbioru. Internet spowodował skokowy przyrost nieustrukturyzowanych danych, przez co klasyczne metody składowania przestają być efektywne. HPE posługuje się modelem dojrzałości zarządzania danych „HPE Data Value Creation Maturity Model”, który ma 5 poziomów. 1 - anarchia, rozproszone silosy danych, 2 - hurtownie danych, 3 - metadane i data management oraz data governance, 4 -data centricity, podstawa do platformy danych, 5 najwyższy poziom - dane są gotowe do dalszej pracy. Z kolei model Minimal Viable Platform unaocznia jak w sposób organiczny budować platformę danych i kompetencje wokół niej.

Większość prezentacji podczas Data Driven 2022 dotyczyła case studies. Eksperci nie chwalili się sukcesami marketingowymi, lecz pokazywali na przykładach, jak można rozwiązać poszczególne problemy i rozwijać firmę w środowisku chmurowym, nie martwiąc się o bezpieczeństwo wrażliwych danych. Marcin Kurczab, Dyrektor ds. Innowacji w Laboratorium Innowacji PZU zaprezentował testowanie i wdrażanie innowacji analitycznych w Grupie PZU. Laboratorium to działa od 2018. Przez ten czas powstało w nim ok. 5 tys. pomysłów i rozwiązań, z czego ok. 40 zostało przekazanych do wdrożenia. Wśród celów działania Laboratorium można wymienić zmianę percepcję kontaktu z ubezpieczycielem, uważaną za „drogę przez mękę” Stworzona w nim aplikacja medyczna PZU Życie, która jest certyfikowanym narzędziem medycznym ,umożliwia np. zrobienie zdjęcia znamienia smartfonem, jego analizę - sprawdza, czy znamię na ciele pacjenta wygląda niepokojąco i czy pacjent powinien zgłosić się do lekarza. Ocenia prawdopodobieństwo zachorowania na raka skóry. Sztuczna Inteligencja przeanalizowała już ponad 3 mln zdjęć, a algorytmy osiągnęły precyzję na poziomie 90%. Inna aplikacja Agro LAB analizuje zdjęcia satelitarne za pomocą sztucznej inteligencji pozwalając np. na ocenę szkód rolniczych. Przyspiesza to i uprecyzyjnia proces wypłaty odszkodowań.

Innym sektorem, gdzie AI zmieniło zasady gry jest telekomunikacja. Maciej Paliwoda, Solution Architect z Vertica tłumaczył, dlaczego jego organizacja całkowicie przeniosła analitykę danych ze środowiska Hadoop na platformy Kubernetes oraz Vertica. „Kiedy kilka lat temu Kubernetes wkroczyło na arenę analityki danych i uczenia maszynowego, natychmiast stało się bardzo popularną platformą do uruchamiania coraz bardziej złożonych procesów analitycznych. Wszystko to dzięki zaletom takim jak: łatwość wdrożenia, automatyzacja, elastyczność w skalowaniu. Jednakże konteneryzacja silnika bazodanowego dla obszaru BigData, jest posunięciem pionierskim” - mówił. Vertica zdecydowała się na wyjście z analityki bazującej na technologii Hadoop i zbudowanie nowej, przyszłościowej platformy analitycznej, działającej właśnie na Kubernetes oraz opartej o rozwiązanie bazodanowe Vertica. Wymienił zalety nowej architektury (oparta o K8s i Vertica): zwiększone bezpieczeństwo, mniej wymaganego sprzętu (HW), wysoki poziom automatyzacji, łatwiejsze i szybsze wdrożenie, szybsza diagnoza i naprawa błędów, uproszczenie i standaryzacja, łatwość przenoszenia, niezależność od platformy sprzętowej + cloud native (mikroserwisy). To platforma “cloud native” zapewniająca “near zero human touch maintenance”, zapewniająca do 100 razy szybszy czas odpowiedzi.

Jednym z powodów, dlaczego sektor telekomunikacyjny opiera się całkowitemu przejściu do chmury, jest kwestia pracy z niezwykle wrażliwymi danymi, czyli bezpieczeństwa. Problem z danymi w chmurze polega na tym, że każdy dostęp do danych odbywa się przez sieć, czyli dane i użytkownicy są bezustannie narażeni na atak z zewnątrz. Co 11 sekund w Europie następuje obecnie kolejny cyberatak. Oznacza to 63% wzrost liczby ataków w Europie w porównaniu do okresu sprzed pandemii i upowszechnienia się pracy i usług zdalnych. Wg raportu Sophos “The State of Ransomware 2022”, tylko 61% firm, które zapłaciło okup, odzyskało dane. Przemysław Mazurkiewicz, Sales Engineering Director, Commvault Polska pokazał w prezentacji case studieswybranych klientów Commvault pokazując, jak uodpornić dane na cyberataki. Kluczowe są wiele warstw zabezpieczeń, identyfikacja zagrożeń, ochrona, monitoring, odpowiedź na atak i wreszcie odzyskanie danych. Rozwiązanie Commvault Complete™ Data Protection w zakresie cyberbezpieczeństwa umożliwia redukcję powierzchni ataku (niezmienność, air-gap, autentykacja, PAM), detekcja nietypowych zachowań (ML, detekcja, decepcja) i wreszcie minimalizację przestoju działania firmy (szybkie odtwarzanie danych po ataku).

Wszystkie obietnice chmury

Wojciech Winnicki, Chief Technology Officer i Członek Zarządu, C&F skoncentrował swoje wystąpienie wokół zagadnienia, czy przeniesienie danych do chmury to tylko oszczędności i wygoda czy może nowy paradygmat zdalnej ery? Jak mówił, migracja danych i przetwarzania do chmury to nie tylko obietnica oszczędności, wygoda i skalowalność, ale także otwarcie na zupełnie nowe możliwości. Silniki i bazy danych, które umożliwiają pełną separację gromadzenia i przetwarzania danych, rewolucjonizują podejście do rozwiązań analitycznych i big data. Wśród wymienionych przez niego zalet przeniesienia danych i operacji do chmury znajdziemy: skalowalność (magazyny danych w chmurze przyniosły rewolucję); fakt, że dane w chmurze są wielokrotnie replikowane, poziom ich dostępności jest ogromny, wszystko to oznacza większe bezpieczeństwo; efektywność kosztowa (gromadzenie danych w sieci to koszt ok. 20 USD za 1TB danych; w chmurze dowolne dane możemy ze sobą łączyć; różne grupy i użytkowników są w oddzielnych klastrach, minimalizujemy wpływ procesów na siebie, łatwo jest ocenić i rozliczyć kto ile zużył bazy danych; możliwość automatycznego skanowania na dużą skalę w pionie i poziomie. Pod względem technicznym tylko wydajność sieci internetowej ogranicza chmurę.

Aby organizacja była w pełni data driven, musi zaimplementować synergię trzech obszarów: ludzi, procesów i technologii. W tych ostatnich można przebierać, korzystając także z wielu usług eksperckich. Jednak nawet najlepszy partner IT nie zagwarantuje sukcesu, jeżeli pracownicy organizacji klienckiej będą unikać pracy z danymi, nie zrozumieją nowego paradygmatu, czy też będą się ich po prostu bać. Należy o tym pamiętać także podczas podziwiania sukcesów prezentowanych podczas konferencji „Data Driven Innovation”. To pochód triumfalny zwycięzców.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200