Big Data: 5 prognoz na 2015 rok

Innymi słowy, celem firm nie będzie masowe przechowywanie danych w koncentratorach w celu obsługi większej liczby zapytań i generowania bardziej szczegółowych raportów. Najważniejszym trendem w 2015 roku będzie raczej gwarantowanie stałego dostępu do informacji oraz ciągłego przetwarzania zdarzeń w czasie rzeczywistym, czyli w sposób umożliwiający pozyskiwanie najbardziej aktualnych informacji i podejmowanie natychmiastowych działań.

Upowszechnienie samoobsługowej analizy Big Data

Wszystko wskazuje na to, że rok 2015 może być dla specjalistów ds. IT rokiem ulgi i odciążenia, jeśli chodzi o zakres obowiązków. Dzięki zaawansowanym narzędziom i usługom Big Data działy IT przestaną pełnić funkcję „wąskiego gardła” dla użytkowników biznesowych, a także naukowców, jeśli chodzi o dostęp do baz danych.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Większa wydajność nie oznacza większego TCO

W 2015 roku branża IT będzie skłaniać się ku samoobsługowej analizie Big Data w celu zwiększenia samodzielności użytkowników w powyższym zakresie. Rozwiązania samoobsługowe umożliwią deweloperom, naukowcom ds. danych i analitykom bezpośrednią eksplorację danych.

Dotychczas specjaliści ds. IT musieli budować scentralizowane bazy danych, co było niezwykle czasochłonne i kosztowne. W niektórych przypadkach pojawienie się silnika Hadoop umożliwiło odczyt danych bezpośrednio w strukturze. Aby jeszcze lepiej spełniać bieżące potrzeby, zaawansowane technologicznie firmy będą prawdopodobnie rezygnować ze scentralizowanych baz danych na rzecz bez relacyjnych. Dzięki temu firmy będą mogły szybciej czerpać informacje z nowych źródeł i szybciej reagować na pojawiające się szanse i zagrożenia.

Oddzielanie szumu od danych – zadanie dla architektów korporacyjnych

W maju 2013 roku Intel wywołał sensację, udostępniając własną dystrybucję otwartej platformy Hadoop. Celem tego posunięcia było wyróżnienie się na rynku poprzez oferowanie klientom kompleksowej usługi wdrożenia platformy Hadoop na serwerze wyposażonym w intelowskie procesory. Niecały rok później firma porzuciła jednak ten pomysł i, zamiast tego, postawiła na współpracę z innym dystrybutorem platformy Hadoop – firmą Cloudera.

Intel zauważył, że klienci powstrzymują się od działań i czekają na to, jak ukształtuje się rynek Hadoop. Ogromna ilość możliwości oferowanych w związku z tą platformą zaburzała prawdziwy obraz rynku. Schroeder uważa, że w 2015 roku nadal będziemy świadkami konsolidacji dystrybutorów platformy Hadoop, a to dlatego, że firmy, które wcześniej zdecydowały się na jej własną dystrybucję jako dodatku do stałej oferty, rezygnują z tego rozwiązania i kierują swoją uwagę ku innym obszarom rynku.

Z perspektywy rozwoju rynku, duże korzyści przyniosła adopcja oprogramowania typu open source (OSS), od którego pojawienia się minie niebawem dwadzieścia lat. Duże znaczenie ma przy tym fakt, że technologie rozwijają się etapowo – ich cykl życia zaczyna się od innowacyjnej idei i tworzenia zróżnicowanych produktów, a kończy wraz z całkowitą komercjalizacją. W 1969 roku brytyjski informatyk Edgar F. Codd, stworzył teorię relacyjnych baz danych. Na bazie jego idei w 1986 powstała baza danych Oracle, a sama koncepcja została ostatecznie skomercjalizowana wraz z premierą systemu MySQL w 1995 roku. Wynika z tego, że dojrzewanie systemu do zarządzania bazami danych zajęło aż 26 lat – od momentu powstania innowacyjnej koncepcji, aż po jej powszechną popularyzację.


TOP 200