Analityka w chmurach

Wywiad Rozmowa z Michałem Gawlikiem, EMEA Cloud and Architecture Leader w SAS

Żyjemy w ciekawym momencie. Światem rządzą dane. Na nich budowane są nowe modele biznesowe, przewagę rynkową uzyskują firmy, które potrafią wyłuskiwać z masy danych te właściwe i na ich podstawie wyciągać wnioski wpływające na ekonomię.

Oczywiście dane są dziś w centrum uwagi, jednak należy podkreślić, że aby z danych coś uzyskać, trzeba je po pierwsze poprawnie zanalizować, a potem na podstawie tych analiz podjąć decyzję. Sam fakt zauważenia trendów i zależności między danymi, nie wystarczy. Analizy nie przerodzą się w wartość biznesową, dopóki na ich podstawie nie zostanie podjęta decyzja, która przyniesie oczekiwaną wartość. SAS od lat pracuje nad tym, by dane we właściwy sposób „ujarzmić” i udostępnić w taki sposób analitykowi czy specjaliście data science, by widzieli oni, co w tych danych jest wartościowe. Dziś praca na coraz większych wolumenach danych powoduje, że ostatecznie podejmowane decyzje mogą być bardziej skorelowane z nowymi zdarzeniami, których analizę do tej pory ograniczała technologia.

Co się zmieniło?

Technologia i sposób dostępu do niej. To, co parę lat temu wymagało długiego procesu zakupowego i często było nieosiągalne ze względu na koszty infrastruktury, dziś możemy zrobić logując się do dostawcy chmurowego, wynająć jego sprzęt i skorzystać z oferowanych usług wspomagających.

W takim razie jak z perspektywy SAS wyglądał świat przed chmurą?

Od początku naszej działalności zajmowaliśmy się oprogramowaniem analitycznym. Przyświecała nam wizja dostępności analityki na wielu platformach, multioperacyjność. Przed chmurą oznaczało to tyle, że mogliśmy uruchamiać nasze narzędzia na komputerach z systemem Windows, na serwerach mainframe, na komputerach z Linuxem. Od strony odbiorcy zawsze to jednak był ten sam sposób „rozmawiania” z danymi i ich analizowania. Byliśmy jednak w naturalny sposób ograniczeni do poziomu sprzętu i środowiska, w którym działaliśmy. Na rynku w zakresie technologii na początku były dostępne pojedyncze komputery ze swoimi ograniczeniami w postaci pamięci RAM czy mocy procesorów. Potem zaczęły pojawiać się wzorce wdrożeniowe związane z wykorzystaniem tanich komputerów powszechnego zastosowania (tak zwane Comodity Hardware) oraz przetwarzaniem w pamięci komputerowej. SAS też przechodził drogę – od jednej maszyny do przetwarzania w klastrze rozproszonych maszyn. W końcu pojawiła się technologia cloud computing, zapewniająca moc obliczeniową i możliwości skalowania niezbędne do wykorzystania analityki i AI na masową skalę.

Przetwarzanie w chmurze to wielki krok w analizie danych, jednak chmura chmurze nierówna.

Jest wielu dostawców chmurowych, każdy wykorzystuje inne mechanizmy i może mieć inne podejście do tych samych zagadnień. My kontynuujemy nasze podejście w zakresie szerokiej dostępności oprogramowania SAS, dlatego zdecydowaliśmy się wykorzystać platformę Kubernetes, która łączy wszystkich dostawców chmurowych. Uważamy, że to jest nasze tu i teraz oraz najbliższa przyszłość analityczna. Dzięki konteneryzacji niezależnie od tego, czy będziemy mieć do czynienia z chmurą Microsoft Azure, Google, AWS, chmurami innych dostawców czy platformami on-premise u Klientów, jesteśmy w stanie zapewnić te same zasady wykorzystania naszego oprogramowania analitycznego. Nasza multiplatformowość nie oznacza, że nie zawieramy dedykowanych umów partnerskich. Wraz z Microsoftem podjęliśmy decyzję o zacieśnieniu współpracy w obszarze rozwiązań SAS w Azure. To oznacza, że będziemy mocno kłaść nacisk, by w pierwszej kolejności pojawiała się integracja z Azure. Zresztą chmura dla SAS ma też nowe znaczenie. Od kilku lat mamy własną infrastrukturę SAS Cloud, którą teraz transformujemy do Azure. W ramach naszej chmury możemy oferować usługi w modelu SaaS oraz usługi zarządzane dla oprogramowania SAS.

A jeśli klienci operują w środowisku hybrydowym?

To zależy, do czego środowisko hybrydowe jest wykorzystywane. Najbardziej efektywną analitykę można bowiem przeprowadzić tam, gdzie się one znajdują. Jeśli klient ma w swojej serwerowni urządzenia, które będą tam jeszcze przez wiele lat, na przykład interfejsy systemów płatniczych kart w bankach, a chciałby wykorzystywać możliwość skalowalności w chmurze, to jednym z pomysłów będą rozwiązania typu AWS Outposts czy Azure Stacks, gdzie część chmury dostawcy znajduje się u klienta. Innym podejściem może być też Google Anthos. Konteneryzacja naszego oprogramowania i wykorzystanie Kubernetesa są tutaj ważnymi czynnikami ułatwiającymi adaptację takich podejść.

Automatyzacja staje się dziś kluczowym pojęciem w realizacji procesów biznesowych. Reakcja w czasie rzeczywistym, uproszczenie danego procesu i wsparcie decyzyjności staje się codziennością dla organizacji transformujących cyfrowo. Jak SAS wspiera swoich klientów w tym zakresie?

Główne obszary, gdzie stosujemy automatyzację, to działania użytkownika biznesowego, dla którego automatyzacja będzie oznaczała dostarczenie szybkich podpowiedzi i wniosków dotyczących danych, z którymi pracuje oraz jak szybko to, co odkryje będzie mogło być wdrożone na produkcji i przyniesie wartość biznesową. Automatyzacja i uproszczenie procesów biznesowych oraz tzw. produkcjonalizacja wyników jest niewątpliwie dużym wyzwaniem.

Kolejny obszar automatyzacji to automatyzacja procesów tworzenia środowisk. Niedługo będziemy mieć już pełny proces continuous integration czy continuous delivery dla środowisk SAS. Dzięki gotowym do użycia kontenerom dostępnym przez internet, klient będzie mógł uruchomić i wdrożyć bieżącą lub kolejną wersję oprogramowania automatycznie. Tworzenie środowisk i jego dostarczanie będzie odbywało się na żądanie. Jeśli firma rozpoczyna projekt i będzie potrzebowała środowiska do wytworzenia jakiegoś modelu prototypowego, będzie to mogła zrobić szybko i w prosty sposób.

Współczesna analiza danych nie może już obyć się bez sztucznej inteligencji. Właściwie w każdym obszarze wykorzystuje się dziś AI.

Tak, to temat „na topie”, ale jest to uzasadnione. Danych jest coraz więcej, samo ich zbieranie mija się z celem i generuje koszty przechowywania. Tak jak mówiłem wcześniej, pozyskiwanie i analiza danych mają sens, jeśli na ich podstawie podejmujemy decyzje, które przynoszą korzyść dla naszego biznesu. W ramach platformy SAS od lat wspieramy automatyzację, by proponować użytkownikowi w interfejsach wizualnych odpowiednie typy raportów - czyli mogę oczekiwać od narzędzia, że podpowie ono, w jaki sposób zaprezentować dane i wyniki. To naturalne udogodnienia wykorzystujące algorytmy sztucznej inteligencji. AI pozwala odkryć złożone zależności i ukryte wzorce w danych, eksperymentować i szukać optymalnych rozwiązań, które zapewnią firmie wzrost i przewagę. Dzięki dostępności dużo większych mocy obliczeniowych można takie analizy teraz przeprowadzać szybko i skutecznie.

Technologie będą się nadal rozwijać, usprawniać i upraszczać zarządzanie, wspomagać biznes. Jak, według Pana, będzie wyglądała analityka za kilka lat?

Zwróciłbym szczególną uwagę właśnie na sztuczną inteligencję. To, co budzi wątpliwości i kontrowersje, to kwestia etyki w zastosowaniach AI. Algorytmy zbliżają się do momentu podejmowania decyzji w sposób automatyczny. Analityka i algorytmy są dziś na tyle skomplikowane i zawansowane, że musimy się zastanowić, w jaki sposób będziemy te decyzje interpretować i nadzorować. Kolejny ważny temat to uzasadnienie podjęcia decyzji. Gdy mówimy dziś o AI, to coraz częściej w kontekście sieci neuronowych. A to nie jest już prosta matematyka. Musimy wiedzieć, dlaczego system podjął taką, a nie inną decyzję.

Autor: Grzegorz Stech