Efekt szybkości

Liczba danych rośnie błyskawicznie, jednak aby odnosić korzyści z ich zbierania i integracji firmy i organizacje muszą wdrażać rozwiązania, które umożliwią analizowanie ich w czasie rzeczywistym. Nadchodzi czas Big Fast Data.

Ilość danych rośnie każdego dnia. W każdej minucie użytkownicy ładują 48 godz. wideo do serwisu YouTube, w tym samym czasie wysyłanych jest 204 mln e-maili, pojawia się 100 tys. nowych wpisów na Twitterze i powstaje 600 nowych stron internetowych . Prognozy mówią, ze w roku 2020 na świecie będzie zgromadzonych już 40 zettabajtów cyfrowych danych. Według Cisco, już w roku 2015 w obiegu będzie ponad 15 miliardów połączonych ze sobą urządzeń, wytwarzających i wymieniających miedzy sobą informacje. Dane są integralną częścią każdego biznesu i maja wpływ na jego funkcjonowanie . Są też, obok siły roboczej i kapitału, coraz ważniejszym czynnikiem produktywności - oczywiście, gdy z chaosu potrafimy wyciągnąć wartość.

Żeby nie zgubić się w świecie zalewanym potopem informacji firmy muszą przetwarzać wielkie wolumeny dynamicznie, nie tylko te, które powstają wewnątrz własnej sieci, ale także te pochodzące spoza niej. Big Data to dane różnorodne, pochodzące z coraz to bardziej niespodziewanych źródeł (inteligentne budynki, rozmaite czujniki, np. na linii produkcyjnej, smartfony etc. Dane te by tworzyć wartość dla biznesu wymagają integracji wszystkich źródeł z których pochodzą (systemy IT, społeczności, urządzenia mobilne etc.) oraz bardzo szybkiej analizy. Nic dziwnego, że zwiększają sie inwestycje w rozwiązania związane z Big Data.

Zobacz również:

Jak wynika z raportu „Digital Trends 2013”przygotowanego przez Deloitte oraz Allegro, globalny rynek Big Data w 2015 r. będzie wart 48 mld dolarów, czyli prawie pięć razy więcej niż w roku 2012. Korzyści z Big Data są niewątpliwe. Pozwalają rozwijać na przykład efektywne systemy rekomendacyjne proponujące klientom produkty i towary, którymi mogliby być potencjalnie zainteresowani. Korzyściom wypływającym z Big Data nie oparł się nawet show-biznes. Decyzja firmy Netflix o inwestycji w produkcję serialu „House of Cards”, który przyniósł jej ogromny międzynarodowy sukces i wiele nagród, częściowo była oparta o analizę dużych baz danych. Wszystkie branże i sektory gospodarki oczekują dostępu do analizy otaczających ich zjawisk w czasie rzeczywistym. Coraz wyraźniejszy jest trend odejścia od statycznych informacji na rzecz elastycznych i konstruowanych ad hoc odpowiedzi na zadane biznesowe

Fast Data czyli 3V zamienia się w 5V

Big Data może rodzić pewne rozczarowania, czy też powiedzmy trudność w ocenie sytuacji, ponieważ, jak wyjaśnia dla CMS Wired Lori Wright - CMO w Tibco., trudno jest znaleźć wartość w ogromnej, stale rosnącej masie informacji o wszystkim od pogody do opinii w sieciach społecznościowych. Dlatego w tym nasyconym informacyjnie świecie przyszedł czas na Fast Data. Fast data filtruje i dostarcza we właściwe miejsce informacje tak szybko jak tylko się one pojawiają i rozwiązuje problemy związane z Big Data. Często definiując Big Data przytacza się regułę 3V , czyli volume (ilość), velocity (zmienność), variety (różnorodność). Lori Wright uważa, że można do niej dodać dwa kolejne "V" - veracity i value (wiarygodność i wartość). Aby wydobyć prawdziwą wartość z Big Data firmy muszą więc zrobić coś więcej niż tylko gromadzić dane - muszą w sposób ciągły i nieprzerwany analizować je w czasie rzeczywistym. Tylko w ten sposób mogą wykorzystać ich potencjał.

Rozwój rozwiązań Fast Data jest priorytetem dla wielu firm technologicznych, włączając Oracle i IBM. Forester definiuje je jako " business intelligence i inne dane operacyjne, które są aktualizowane w sposób ciągły, lub bardzo szybki - w ciągu najwyżej kilku minut". Już dwa lata temu analitycy Ovum uznali Fast Data za jeden z głównym nurtów rozwoju analityki.

Big musi być Fast - czyli czas na Big Fast Data

Wielkie zbiory danych przynoszą duże korzyści zwłaszcza w przypadku szybko zmieniających się procesów biznesowych. Jednak większość informacji traci swoją wartość operacyjną w krótkim czasie. Aby wyciągnąć maksimum wiedzy z bardzo dynamicznie zmieniających się danych trzeba analizować je niezwykle szybko i stosować narzędzia informatyczne, które to umożliwiają. Można powiedzieć, że właściwe dane we właściwym czasie to Big Data w czasie rzeczywistym, czyli Fast Data.

Jak stwierdza Olivier Rafal konsultant w firmie Pierre Audoin Consultants technologie i usługi Fast Data będą stanowiły główną cześć prognozowanych globalnie na 20 mld. euro wydatków na Big Data w 2016 roku. Beneficjentów tych rozwiązań jest i będzie dużo. Na przykład ubezpieczenia czy sektor publiczny może ustrzec się przed oszustwami poprzez analizowanie transakcji i powiązań osobistych w czasie rzeczywistym. W handlu detalicznym Fast Data pomoże personalizować doświadczenia konsumenta i wpłynąć na jego lojalność poprzez analizowanie jego zachowań i zamówień i przedstawiać indywidualna ofertę w momencie gdy konsument jeszcze przebywa w sklepie lub na stronie internetowej. Z kolei firmy PR potrzebują wiedzieć w jaki sposób ludzie mówią o markach ich klientów i reagować natychmiast gdy pojawiają się złe wiadomości by zdusić je w zarodku Kilka minut później virale mogą się już swobodnie rozpanoszyć. Pracownicy publicznej służby zdrowia muszą wychwycić moment wybuchu epidemii w momencie kiedy mogą podjąć jeszcze akcję kontrolującą jej rozprzestrzenianie się. Banki powinny na bieżąco wiedzieć o wydarzeniach i sytuacji geopolitycznej aby podejmować jak najlepsze decyzje strategiczne. Firmy logistyczne potrzebują wiedzieć o tym jaki wpływ na infrastrukturę transportową mają wypadki lub zmiany kierunków ruchu mają.

Listę te można wydłużać, ale jedno jest jasne: Fast Data jest decydująca dla nowoczesnych przedsiębiorstw i biznes może obecnie uchwycić w locie możliwości jakie stwarza szybka analiza danych Oczywiście analiza trendów z przeszłości także przynosi korzyści - jednak w innym obszarze.. Analizy historyczne wykonywane na wielkich zbiorach danych, połączone z drążeniem danych (data mining) będą nadal przynosić bardzo ciekawe rezultaty. Dane historyczne są konieczne do budowania kierunków rozwoju i długofalowej strategii, jednak jest bardzo wiele przypadków w których natychmiastowa analiza jest bardziej użyteczna.

Polskie firmy także widzą potencjał wielkich zbiorów i czerpią korzyści płynące z ich analizy. Jak pokazało niedawne badanie przeprowadzone przez EMC (EMC Forum 2013: Transforming I.T. Study) 36 proc. respondentów z Polski jest zdania, że proces podejmowania decyzji w ich firmach można by usprawnić dzięki lepszemu wykorzystaniu danych. Taki sam odsetek respondentów stwierdził, że zespoły specjalistów w ich firmach stosują rozwiązania do analizy wielkich zbiorów danych w celu podejmowania kluczowych decyzji biznesowych. Nie należy zapominać, że aby w pełni korzystać z dobrodziejstw Fast Data potrzeba nie tylko zaawansowanych aplikacji analitycznych, odpowiedniej infrastruktury fizycznej gwarantującej przepływ dużej ilości danych, ale i rozwiązań middleware do przesyłu informacji i ich dystrybucji w czasie rzeczywistym. Fast data nie jest monolityczną technologią czy konkretnym rozwiązaniem. Składa się z całego spektrum różnych technologii.

Efekt szybkości

Maurizio Canton, CTO na region EMEA w TIBCO Software

Maurizio Canton: w Big Data kluczowa jest szybkość reagowania

Oprócz samych danych równie istotne jest to, w jaki sposób je zbieramy i interpretujemy oraz co w danej chwili możemy dzięki nim zrobić. Wykorzystywanie potencjału Big Data do działania w czasie rzeczywistym wymaga czegoś więcej niż tylko narzędzi, które wyszukują i analizują gromadzone informacje. Potrzeba rozbudowanej i skalowalnej infrastruktury komunikacyjnej, zdolnej do agregowania, interpretowania i działania – tak szybko jak tylko możliwe – w oparciu o ogromne ilości nieuporządkowanych informacji. Nazywamy to Fast Data. Wyjaśnię potencjał i znaczenie Fast Data na przykładzie Szwajcarskich Kolei Federalnych (SBB). Wykorzystują one Fast Data do poprawy zadowolenia klientów i ciągłego budowania nowej oferty w już i tak efektywnej sieci kolejowej.

SBB rocznie transportują 350 mln pasażerów i blisko 50 mln ton frachtu. Z uwagi na topografię terenu Szwajcarii i wysokie koszty inwestycji, najlepszym sposobem na zwiększenie możliwości transportowych kolei jest ciągłe podnoszenie efektywności. To jednak oznacza, że każdego dnia na torach kursuje coraz więcej składów w coraz mniejszych odległościach od siebie.

Koleje SBB postanowiły podnosić efektywność poprzez lepsze wykorzystywanie ogromnych ilości danych. Wybrały TIBCO Rendezvous – wiodące rozwiązanie do dystrybucji dużych ilości komunikatów z zachowaniem minimalnych opóźnień. Współpraca z TIBCO zaowocowała wydajnym systemem informowania, który w czasie rzeczywistym przekazuje dane do Systemu Kontroli Ruchu Kolejowego (Rail Control System – RCS). Każdego dnia jest to 1,7 terabajtów płynących ze stacji kolejowych, pociągów oraz informacji o pasażerach i danych z sieci. Informacje te pozwalają SBB dosłownie w ciągu sekund optymalizować rozkład jazdy i ruch pociągów na wszystkich trasach.

Dzięki Fast Data, SBB odnosi ewidentne korzyści. Systematycznie rośnie liczba pasażerów i ilość przewożonych ładunków. Wzrasta również zadowolenie pasażerów z jakości usług. Z pomocą rozwiązania TIBCO operatorzy Systemu Kontroli mogą błyskawicznie identyfikować ryzyko kolizji i znacznie szybciej kierować pociągi na alternatywne trasy. Jednocześnie udało się poprawić precyzję prognoz rozkładu jazdy. Koleje obniżyły także koszty. W obszarze płac roczne oszczędności wynoszą 3 - 4 mln dolarów. Dzięki pomiarom prowadzenia składów oraz szkoleniom dla maszynistów, udało się dodatkowo zredukować koszt zużycia energii o 10 mln dolarów. Przykład SBB pokazuje, że w kontekście danych znaczenie ma nie tylko ilość, ale możliwość działania w konkretnej chwili. Fast Data to potencjał do podejmowania decyzji dzięki utrzymywaniu ciągłej świadomości opartej na strumieniu informacji. W XXI w. wiele innych biznesów także potrzebuje Fast Data, aby skutecznie działać, tak szybko jak to tylko możliwe.


TOP 200