Od danych do raportów

Od danych do raportów

Podczas konferencji DATA+ przedstawiliśmy całą drogę od źródeł danych, aż po gotowy raport, bo od podejmowania istotnych decyzji biznesowych, przez planowanie działań, aż po pracę specjalizowanych aplikacji – wszędzie przetwarzamy duże ilości danych.

Zachęcamy do skorzystania z bezpłatnej prenumeraty
elektronicznej magazynu Computerworld!
Analityka Big Data – czemu szybkość przetwarzania danych jest tak ważna?

Analityka Big Data – czemu szybkość przetwarzania danych jest tak ważna?

Nawet najbardziej zaawansowane systemy analityczne na świecie nie sprawdzą się w Twojej firmie, jeśli na wyniki będziesz czekał "całą wieczność". Kluczem do optymalnego wykorzastania tego typu aplikacji jest infrastruktura tak wydajna, by możliwe stało się przeprowadzanie procesów...

Analiza danych w czasie rzeczywistym dzięki eliminacji opóźnień

Analiza danych w czasie rzeczywistym dzięki eliminacji opóźnień

Nikt nie lubi opóźnień. Wystarczy wyeliminować opóźnienia dostępu do danych analitycznych, a firma może działać znacznie szybciej, wykorzystując informacje, które pozwalają na podejmowanie decyzji w czasie rzeczywistym. Pozostaje pytanie: jak usprawnić i przyspieszyć wdrażanie...

System x Solutions dla Big Data

System x Solutions dla Big Data

Szybka i poprawna analiza danych to klucz do sukcesu w każdym biznesie. By móc trafniej podejmować dezycje w oparciu o dane musisz móc nimi swobodnie zarządzać oraz porządkować. Z pomocą przychodzi narzędzie System x Solutions dla Big Data.

Istotą dzisiejszych systemów klasy Big Data jest korzystanie z różnych źródeł informacji, z których powstają szczegółowe analizy. Zazwyczaj pewna część tych informacji znajduje się w dobrze znanych bazach relacyjnych RDBMS, ale aby uzyskać komplet informacji, niezbędne jest wprowadzenie także danych, które pochodzą z innych źródeł – takich jak pliki, zapisy w logach lub informacje pochodzące z komunikacji maszyna-maszyna. Pierwszym krokiem zazwyczaj jest inwentaryzacja zasobów, obejmująca opisanie dostępnych baz danych, zasobów plikowych, typów danych oraz sposobów dotarcia do zawartej w nich informacji. Razem z nowymi źródłami danych pojawia się jednak pytanie o sposób tworzenia modelu danych.

Mark Barringer menedżer działu Data Architecture Tools w firmie Embarcadero mówi : „podejście polegające na modelowaniu, projektowaniu, zasilaniu danych, a następnie analizy sprawdza się dobrze przy wykrywaniu powtórzeń – ogólnie przy zjawiskach określanych jako «znane nieznane». Jeśli celem jest eksploracja i wykrywanie zjawisk zupełnie nieznanych, dla których nie ma jeszcze modelu, o wiele lepsze będzie podejście, w którym dane w zasobach NoSQL będzie można przeszukiwać przy pomocy zapytań, a następnie szybko i sprawnie utworzyć model”.

Rozwój technologii przynosi radykalne zmiany

Jeszcze dziesięć lat temu nowością było pełnotekstowe przeszukiwanie, które w późniejszych etapach uwzględniało lokalny kontekst, a także uwarunkowania geograficzne. Technologia ta ewoluowała dalej, tworząc dziś komputerowe przetwarzanie naturalnego języka, obejmujące wyszukiwanie semantyczne, rozpoznawanie określeń obiektów (ang. named entity recognition) oraz N-gramy przy rozpoznawaniu mowy. Podobne zmiany można zaobserwować także w innych dziedzinach.

Jeżeli chcesz uzyskać dostęp do dalszej części artykułu podaj adres e-mail

Dołącz do dyskusji
Bądź pierwszy i zostaw komentarz.