Osiem najważniejszych trendów big data

6. Lepszy NoSQL

Popularność zdobywają ostatnie bazy NoSQL (to skrót od Not Only SQL) – czyli rozwiązania alternatywne dla tradycyjnych, relacyjnych baz danych. „Cieszą się one dużą popularnością, szczególnie w pewnych specyficznych zastosowaniach analitycznych. Myślę, że obecnie rozwijanych jest ok. 15–20 baz NoSQL, z których każda ma swoją specjalizację. Jest np. ArangoDB – z funkcjami bazy grafowej, umożliwiająca szybkie, bezpośrednie analizowanie sieci zależności pomiędzy kontrahentami i klientami. Takie bazy były na rynku od dawna, ale teraz zaczęły szybko zdobywać użytkowników, bo dają dokładnie takie możliwości prowadzenia analiz, jakich oczekują klienci” – wyjaśnia Chris Curran z Pricewaterhouse-Cooper’s.

Curran podaje przykład jednego z klientów PwC, który zamontował w swoich sklepach sensory na półkach – dostarczają one informacji o tym, jakie produkty są kupowane w pierwszej kolejności, jak długo klienci je oglądają i które półki cieszą się największym zainteresowaniem. „Te sensory dostarczają stale ogromnej ilości danych. Bazy NoSQL idealnie nadają się do ich przechowywania i analizowania” – tłumaczy analityk.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • 5 praktycznych powodów, dla których warto wdrożyć Zero Trust

7. Deep learning

Deep learning – czyli zestaw technik uczenia się maszyn oparty na sieciach neuronowych – wciąż jest na etapie rozwoju, ale już teraz wykazuje ogromny potencjał biznesowy. „To rozwiązanie pozwala komputerom na skuteczne identyfikowanie interesujących je informacji w ogromnych zbiorach nieustrukturyzowanych danych, a także na rozpoznawanie połączeń pomiędzy nimi, bez specjalnych modeli i instrukcji programistycznych” – tłumaczy Brian Hopkins.

Przykładem może być wykorzystanie algorytmu deep learning do przeanalizowania informacji o stanach USA znalezionych w Wikipedii – algorytm potrafił niejako na własną rękę ustalić, że zarówno California, jak i Texas są stanami US. „Zbędne było uczenie maszyny koncepcji stanu czy państwa – algorytm potrafił sam, na podstawie dostępnych informacji, zrozumieć znaczenie analizowanych obiektów. To zupełnie coś innego niż w przypadku starych metod uczenia maszyn” – dodaje Hopkins.

Zdaniem specjalisty w obecnym stadium rozwoju tych technologii sami dopiero zaczynamy uświadamiać sobie, jak skuteczne w analizowaniu nieustrukturyzowanych zbiorów danych mogą być rozwiązania oparte na deep learning. W przyszłości będzie je można wykorzystywać m.in. do rozpoznawania tak skomplikowanych i trudnych do analizy automatycznej danych, jak kształty i kolory w materiale wideo.

8. Analityka in memory

Kolejnym „bazdodanowym przebojem” są w ostatnim czasie bazy działające w pamięci (in memory database). Odpowiednio skonfigurowane i wdrożone świetnie sprawdzają się we wszystkich zastosowaniach, w których niezbędna jest wydajność – wiele firm korzysta np. z hybrydowych rozwiązań HTAP (hybrid transaction/analytical processing), w których transakcje i analityka działają w jednej, uruchomionej w pamięci, bazie danych.

Niekiedy pojawiają się jednak problemy – niektóre firmy nadużywają tych rozwiązań, inne z kolei używają baz in memory nieprawidłowo, co zwykle nie przynosi korzyści finansowych ani funkcjonalnych. Bo choć HTAP faktycznie umożliwia szybsze analizowanie danych, to wszystkie transakcje muszą być przechowywane w tej samej bazie danych. Problem w tym, że jak tłumaczy Mark Beyer z Gartnera, dziś w większości przypadków w analityce chodzi o jednoczesne analizowanie danych z wielu źródeł – więc wrzucenie wszystkiego do jednej bazy danych niekoniecznie rozwiązuje problem. Wdrożenie bazy in memory sprawi, że w firmie pojawi się jeszcze jeden produkt, który trzeba zintegrować, zabezpieczyć i którym należy zarządzać.

Dlatego niekiedy rozsądniej jest rozejrzeć się za rozwiązaniami alternatywnymi – w Intuit wykorzystywany jest np. Spark, który pozwala firmie bez sięgania po dodatkowe narzędzia rozwiązać ok. 70% wszystkich potencjalnych problemów analitycznych.

Krok przed innymi

Jak widać, trendów i nowych zjawisk w zakresie big data jest bardzo wiele. Zdaniem specjalistów, aby skutecznie wykorzystać nowości w działalności biznesowej, należy być otwartym na innowacje. „Musisz stworzyć swoim analitykom i naukowcom odpowiednie środowisko do eksperymentowania – powinni mieć warunki do budowania prototypów, oceniania ich i w razie powodzenia skutecznego wdrażania ich w firmie” – mówi Chris Curran.

Wtóruje mu Mark Beyer: „To, że technologia nie jest jeszcze w 100% dojrzała, nie musi być powodem do wstrzymywania się z jej wdrażaniem. Na początku i tak eksperymentują z nią tylko niektórzy, najbardziej doświadczeni analitycy – na podstawie wyników ich prac można ocenić, na ile nowości mogą usprawnić pracę organizacji, i wtedy zdecydować o jej rozszerzeniu na cały personel”.


TOP 200