Dane + innowacja = przepis na stały sukces w zmiennym świecie

Blisko 440 uczestników zgromadziła tegoroczna konferencja „Data Driven Innovation”. 6 godzin, 11 prelekcji i 6 stref partnerskich. Zapomnijcie o ropie, diamentach czy kryptowalutach. Przedstawiamy ekologiczną, odnawialną, nie podlegającą inflacji i niewyczerpującą się walutę przyszłości: dane.

Dane + innowacja = przepis na stały sukces w zmiennym świecie

Dzisiaj wszyscy zgadzamy się co do jednego: firma nie może nazywać się innowacyjną, jeżeli nie korzysta z bogactwa, jakie niosą ze sobą dane. Jak to określił Wojciech Winnicki, Chief Technology Officer i Członek Zarządu, C&F (partnera Konferencji), mamy do czynienia z pełną demokratyzacją danych. Termin ten ukuła kilka lat temu firma Gartner, a oznacza on umożliwienie otwartego i powszechnego dostępu do danych organizacji. W erze cyfryzacji wdrażanie i ciągłe ulepszanie procesów za pomocą technologii takich jak Big Data, sztuczna inteligencja, uczenie maszynowe, czy rozwoju wiedzy z zakresu Data Science jest warunkiem sine qua non utrzymania się na rynku i wyprzedzenia konkurencji. Czy jednak każdy potrafi korzystać z tych narzędzi w optymalny sposób? Poziom mistrzowski to stawianie trafnych predykcji na podstawie big data, co pozwala na zostawienie konkurencji w tyle. Jako że reprezentują go prelegenci konferencji Data Driven, łatwo ulec wrażeniu, że wdrażanie i korzystanie z big data jest… no właśnie, łatwe. To pozór. Egzamin z obywatelstwa w świecie danych zdają tylko najlepsi. Skuteczne wdrażanie innowacji opartych na danych wymaga od firmy odpowiedniej kultury organizacyjnej i narzędzi. Ali Moinoddin z Uptime Institute przedstawił wnioski z przeprowadzonego w tym roku badania Global Survey (trwa ono przez 6 miesięcy, pod uwagę brane są dane z całego świata). Pierwsze, co rzuca się w oczy, to że „jednorożce” działają w oparciu o dane. A co konkretnie praca z danymi może dać organizacji i ile to kosztuje było tematem wspólnego wystąpienia Grzegorza Bera, AI Lob Managera z Comtegry o raz Bogusz Błaszkiewicz, Principal Systems Engineera z Pure Storage.

Co to znaczy, że dane są FAIR

Po pierwsze, dane muszą być FAIR. Akronim ten oznacza:

Findable – łatwe do znalezienia, opatrzone metadanymi, z unikalnymi, trwałymi identyfikatorami.

Zobacz również:

  • Biały Dom wyda zasady dotyczące sztucznej inteligencji
  • 5G - rozwój jeszcze przed nami, 6G - tuż tuż, za rogiem

Accessible – dostępne dla wszystkich wg określonych warunków dostępu.

Interoperable – dające możliwość połączenia z innymi zbiorami danych, np. poprzez ustandaryzowane nazewnictwo.

Reusable – nadające się do ponownego użycia.

Należy pamiętać, że dane, które nie są przetwarzane, nie mają de facto żadnej wartości. Sytuacja przypomina tę z historyjki o odziedziczonym zegarku, za który domokrążca chciał dać 5 dolarów, paser 10, a dopiero specjaliści z muzeum wycenili wartość przedmiotu na miliony. Im nasza wiedza i umiejętności związane z danymi są większe, tym ten surowiec staje się dla nas cenniejszy. To nie tylko „pasza” dla AI. Największą wartość mają predykcje na podstawie danych. Pozyskane dane trzeba obrobić jak surowiec – nadać im formę, aby wypełniły się dla nas treścią. Jak ujął to Tomasz Jamiński, Head of Data Science, OLX Group, „nowicjat to ograniczenie analityki do przeszłości”. To też etap zbyt wczesny na wdrażanie innowacji. Wyróżnił 4 stopnie wiedzy o danych: new commer, business contributor, strategic partner, source of competitive advantage. Dopiero ten ostatni oznacza wysoką wartość predykcji, ponieważ tak przetworzone i intensywnie używane dane nieustannie generują dodatkową wartość dla firmy, stają się motorem innowacji i przewagi konkurencyjnej, pozwalają na zwinniejsze zarządzanie usługami , optymalizację procesów, projektów i maksymalizację zysków.

Bartłomiej Szubstarski, Principal IT Expert, Roche, mówił o tym jak stworzyć środowisko zarządzania danymi, które pozwoli zachować dynamikę i zwinność nie tylko na poziomie poszczególnych domen i produktów, ale również organizacji. Przedstawił case study z wdrożenia architektury data mesh dzieląc się wiedzą na temat, jak powinny pracować zespoły, żeby zachować swoją efektywność. Pokrótce koncepcja data mesh oznacza zdecentralizowaną odpowiedzialność, dane jako produkt, samoobsługową infrastrukturę i platformę. Powszechna już adaptacja platform i rozwiązań chmurowych skutkuje eksplozją narzędzi dedykowanych analityce. Jednak, jak podkreślał Bartłomiej Szubstarski, przesunięcie architektury danych jeszcze bliżej wartości biznesowej i stworzenie przestrzeni dla inżynierów i analityków danych może być rozwiązaniem problemu, ale niesie za sobą dodatkowe obowiązki. Kultura dzielenia się rezultatami pracy i FAIR jest dziś oczywistą zasadą dla wszystkich zespołów produktowych. Ważne jest danie zespołom odpowiedniej porcji autonomii, ponieważ zależności często spowalniają ich pracę oraz utrzymanie równowagi pomiędzy centralizacją i decentralizacją. W Roche każda z 30 niezależnych domen współpracuje ze sobą, a wypracowane standardy zarządzania kodem umożliwiają jego współdzielenie. Kluczem jest odpowiedzialność – za domenę danych, jakość i dostępność danych oraz zapewnienie ich wykorzystania na poziomie korporacji.

W zakresie zarządzania danymi nie znaleziono na razie jednego podejścia, rozwiązującego wszystkie problemy. Można jednak pokusić się o znalezienie wspólnych elementów w wystąpieniach prelegentów, dzielących się historiami sukcesów swoich organizacji. Swoim pragmatycznym podejściem do Data Mesh podzielił się Rafał Skirzyński, Solution Engineering Manager, Chief Architect, Oracle. Jak mówił, jesteśmy coraz bliżej wypracowania elastycznej architektury, swoistego Graala, pozwalającego na spójne zaadresowanie kwestii różnego charakteru danych, wolumenu, dostępności, oczekiwań różnych grup użytkowników, itd. Tomasz Jamiński, Head of Data Science, OLX Group podkreślał wagę roli innowacji połączenia sił zespołów Data Science, UX Research, Analityki oraz Biznesu. Partner strategiczny konferencji, Vertica zaprosiła swojego klienta do wystąpienia – był to Andrei Popa z rumuńskiej firmy Suberbet, który na podstawie szybko osiągniętego przez nich sukcesu opowiedział, co tak naprawdę znaczy być „data driven dla firmy”. Na przykład, w 2019 r. Superbet zaimplementowało działającego w czasie rzeczywistym chatbota iRina, który obecnie obsługuje niemal połowę ze 150 tys. transakcji zawieranych miesięcznie przez firmę.

Antykruchość to cecha odnoszących sukces organizacji

Żyjemy w ciekawych czasach, by przywołać chińskie przekleństwo. Dzisiaj przeważa wszystko to, co nowe i nieznane, przypadkowe a zmienne. Nassim Nicholas Taleb, który w swoim słynnym „Czarnym łabędziu” dobre kilka lat przed COVID-19 na podstawie modeli matematycznych wieszczył światową pandemię, ukuł termin „antykruchość”. Ma na myśli coś więcej niż elastyczność czy przeciwieństwo kruchości. Antykruche są rzeczy, które wręcz rozkwitają pod wpływem zmienności, przypadkowości, nieładu i stresu. Według Gartnera, incydent związany z przerwą w świadczeniu usług kosztuje średnio 4 595 euro na minutę. Średni koszt tego typu incydentu wynosi 45 130 euro dla małej firmy i 74 670 euro dla MŚP. Oprócz skutków finansowych, awaria lub katastrofa komputerowa może tymczasowo lub trwale uszkodzić dane Twoich klientów. Takie straty mogą mieć dramatyczny wpływ na reputację firmy a także znacząco wpłynąć na jej płynność finansową. Pytanie brzmi, czy można się tego nauczyć, w jaki sposób wykształcić w organizacji tę cechę? Tomasz Sobol, Product Marketing Manager z OVHcloud mówił podczas konferencji właśnie o tym. Na przykładach pokazywał jak być przygotowanym na nieprzewidziane zdarzenia związane z utratą danych. „Stały się krytycznym zasobem każdej firmy, a ich odpowiednie wykorzystanie daje wartość firmie” – przekonywał Tomasz Sobol. Według niego, wyzwaniem jest fakt, że środowisko dla danych musi być jednocześnie bezpieczne, zwinne i skalowalne. Takie wypracowało OVHCloud i udostępnia w subskrypcji (database as a service).

Big Data a Compliance

Data Lake musi być przede wszystkim zgodny z regulacjami, ale też oparty na metadanych i mikrousługach, ale przede wszystkim – zgodny z regulacjami. Compliance jest kluczowym czynnikiem, zwłaszcza w przemyśle farmaceutycznym. Procesy produkcyjne w organizacjach tego sektora muszą być spójne między innymi ze standardami Dobrych Praktyk Wytwarzania (Good Manufacturing Practice – GMP). Z kolei np. procesy finansowe – z wyśrubowanymi standardami, jak (w przypadku rynku amerykańskiego) Sarbanes-Oxley Act (SOX), którego celem jest zapobieganie błędom księgowym i nieuczciwym praktykom w przedsiębiorstwach, a także poprawa dokładności raportów korporacyjnych. O tym jak znaleźć kompromis pomiędzy demokratyzacją a rosnącymi wymaganiami regulacyjnymi opowiadał Wojciech Winnicki, Chief Technology Officer i Członek Zarządu, C&F.

Efektywne wykorzystanie danych w środowisku o tak wysokim stopniu regulacji to dla IT twardy orzech do zgryzienia. Z jednej strony mamy tutaj bowiem złożone środowisko regulacyjne, a z drugiej – ciągły napływ danych, rosnącą liczbę nowych źródeł i nowe use case’y oraz konieczność ich szybkiego obsłużenia. „Odpowiedzią jest Data Lake, ale oparty o innowacyjne wykorzystanie mikrousług przetwarzania danych, które są wielokrotnie wykorzystywane jako wspólne usługi w ramach całego repozytorium” – przekonywał Wojciech Winnicki i opowiadał jak to zrobić krok po kroku na podstawie konkretnego case study wdrożenia w jednej z wiodących, globalnych firm farmaceutycznych. Przypomniał tym samym, że compliance oznacza konieczność:

• formalnego testowania każdego elementu, z uwzględnieniem szczegółowych procedur, zatwierdzania, podpisów, dowodów, itp.

• szczegółowej analizy i działań korygujących w przypadku każdego napotkanego błędu lub odstępstwa.

• formalnych procesów instalacji, przeglądów i innych procesów obsługi.

• walidacji wszelkich używanych narzędzi.

Czy to balast? Raczej szkic, który ułatwi pracę. Tak samo prelegenci nie bali dzielić się wiedzą, ponieważ każdy może kupić książkę kucharską, ale nie każdy będzie potrafił upichcić coś smacznego. Potrzeba czasu, treningu, talentu. Jeżeli z jakichś powodów brak nam tych zasobów, zawsze możemy np. pójść do restauracji.

Partnerami merytorycznymi tegorocznej konferencji były firmy OVHCloud oraz C&F.

W którym miejscu cyfrowej doliny znajdują się polskie firmy dowiemy się już za niespełna rok, podczas kolejnej edycji Data Driven Innovation.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200