Osiem najważniejszych trendów big data
- Antoni Steliński,
- 29.10.2014
6. Lepszy NoSQL
Popularność zdobywają ostatnie bazy NoSQL (to skrót od Not Only SQL) – czyli rozwiązania alternatywne dla tradycyjnych, relacyjnych baz danych. „Cieszą się one dużą popularnością, szczególnie w pewnych specyficznych zastosowaniach analitycznych. Myślę, że obecnie rozwijanych jest ok. 15–20 baz NoSQL, z których każda ma swoją specjalizację. Jest np. ArangoDB – z funkcjami bazy grafowej, umożliwiająca szybkie, bezpośrednie analizowanie sieci zależności pomiędzy kontrahentami i klientami. Takie bazy były na rynku od dawna, ale teraz zaczęły szybko zdobywać użytkowników, bo dają dokładnie takie możliwości prowadzenia analiz, jakich oczekują klienci” – wyjaśnia Chris Curran z Pricewaterhouse-Cooper’s.
Curran podaje przykład jednego z klientów PwC, który zamontował w swoich sklepach sensory na półkach – dostarczają one informacji o tym, jakie produkty są kupowane w pierwszej kolejności, jak długo klienci je oglądają i które półki cieszą się największym zainteresowaniem. „Te sensory dostarczają stale ogromnej ilości danych. Bazy NoSQL idealnie nadają się do ich przechowywania i analizowania” – tłumaczy analityk.
Zobacz również:
- IDC CIO Summit – potencjał drzemiący w algorytmach
- 5 praktycznych powodów, dla których warto wdrożyć Zero Trust
7. Deep learning
Deep learning – czyli zestaw technik uczenia się maszyn oparty na sieciach neuronowych – wciąż jest na etapie rozwoju, ale już teraz wykazuje ogromny potencjał biznesowy. „To rozwiązanie pozwala komputerom na skuteczne identyfikowanie interesujących je informacji w ogromnych zbiorach nieustrukturyzowanych danych, a także na rozpoznawanie połączeń pomiędzy nimi, bez specjalnych modeli i instrukcji programistycznych” – tłumaczy Brian Hopkins.
Przykładem może być wykorzystanie algorytmu deep learning do przeanalizowania informacji o stanach USA znalezionych w Wikipedii – algorytm potrafił niejako na własną rękę ustalić, że zarówno California, jak i Texas są stanami US. „Zbędne było uczenie maszyny koncepcji stanu czy państwa – algorytm potrafił sam, na podstawie dostępnych informacji, zrozumieć znaczenie analizowanych obiektów. To zupełnie coś innego niż w przypadku starych metod uczenia maszyn” – dodaje Hopkins.
Zdaniem specjalisty w obecnym stadium rozwoju tych technologii sami dopiero zaczynamy uświadamiać sobie, jak skuteczne w analizowaniu nieustrukturyzowanych zbiorów danych mogą być rozwiązania oparte na deep learning. W przyszłości będzie je można wykorzystywać m.in. do rozpoznawania tak skomplikowanych i trudnych do analizy automatycznej danych, jak kształty i kolory w materiale wideo.
8. Analityka in memory
Kolejnym „bazdodanowym przebojem” są w ostatnim czasie bazy działające w pamięci (in memory database). Odpowiednio skonfigurowane i wdrożone świetnie sprawdzają się we wszystkich zastosowaniach, w których niezbędna jest wydajność – wiele firm korzysta np. z hybrydowych rozwiązań HTAP (hybrid transaction/analytical processing), w których transakcje i analityka działają w jednej, uruchomionej w pamięci, bazie danych.
Niekiedy pojawiają się jednak problemy – niektóre firmy nadużywają tych rozwiązań, inne z kolei używają baz in memory nieprawidłowo, co zwykle nie przynosi korzyści finansowych ani funkcjonalnych. Bo choć HTAP faktycznie umożliwia szybsze analizowanie danych, to wszystkie transakcje muszą być przechowywane w tej samej bazie danych. Problem w tym, że jak tłumaczy Mark Beyer z Gartnera, dziś w większości przypadków w analityce chodzi o jednoczesne analizowanie danych z wielu źródeł – więc wrzucenie wszystkiego do jednej bazy danych niekoniecznie rozwiązuje problem. Wdrożenie bazy in memory sprawi, że w firmie pojawi się jeszcze jeden produkt, który trzeba zintegrować, zabezpieczyć i którym należy zarządzać.
Dlatego niekiedy rozsądniej jest rozejrzeć się za rozwiązaniami alternatywnymi – w Intuit wykorzystywany jest np. Spark, który pozwala firmie bez sięgania po dodatkowe narzędzia rozwiązać ok. 70% wszystkich potencjalnych problemów analitycznych.
Krok przed innymi
Jak widać, trendów i nowych zjawisk w zakresie big data jest bardzo wiele. Zdaniem specjalistów, aby skutecznie wykorzystać nowości w działalności biznesowej, należy być otwartym na innowacje. „Musisz stworzyć swoim analitykom i naukowcom odpowiednie środowisko do eksperymentowania – powinni mieć warunki do budowania prototypów, oceniania ich i w razie powodzenia skutecznego wdrażania ich w firmie” – mówi Chris Curran.
Wtóruje mu Mark Beyer: „To, że technologia nie jest jeszcze w 100% dojrzała, nie musi być powodem do wstrzymywania się z jej wdrażaniem. Na początku i tak eksperymentują z nią tylko niektórzy, najbardziej doświadczeni analitycy – na podstawie wyników ich prac można ocenić, na ile nowości mogą usprawnić pracę organizacji, i wtedy zdecydować o jej rozszerzeniu na cały personel”.