Rejestracja Uczestników. Poranny poczęstunek.
Data-Driven Storytelling.
Analysts can use data visualization in the form of maps, charts, and other visual displays to discover important patterns in their data. These patterns can then be used to optimize business practices in areas such as staffing levels, customer service, and marketing engagement. We will examine time and geography based data that will illustrate how to build visualizations that are rich with information while also being highly flexible and responsive.
Next Step in Big Data: State-of-the-art Open Source Data Science Platform.
CASE STUDY: PETROL SECTOR
Przerwa na kawę. Networking.
Why Data Modeling is essential in a Big Data environment.
Learn the tips and tricks how to handle Data Modeling in your Big Data environment. Mark will show how modeling will add value to the business and how to make your Big Data landscape transparent across the organization. You will see the latest modeling techniques for Big Data and different types of modeling notations. Also you will learn how to integrate Data Modeling into your BI environment.
Big Data w Polsce i za granicą.
W trakcie prezentacji pokazane zostaną wyniki badania ankietowego, przeprowadzonego w polskich i zagranicznych przedsiębiorstwach w okresie kwiecień-maj 2015. Miało ono miało na celu zgromadzenie informacji na temat używanych obecnie narzędzi Big Data do analizy danych rozproszonych o konsumencie, sprawdzeniu, jakie dane są obecnie poddawane analizie oraz jakie analizy firmy zamierzają przeprowadzić w tym obszarze w najbliższym czasie.
Współpraca europejskich badawczych centrów danych z biznesem.
Lunch
Data Scientist - wyzwania i rola w organizacji.
Jaka powinna być rola analityka – Data Scientist w organizacji i jakie zadnia oraz problemy wiążą się z jego pracą? Czy posiadanie zespołu BIG DATA stanowi wartość dodaną dla organizacji? Podczas prezentacji rozważymy kompetencje członków zespołu analitycznego oraz jego położenie w strukturze firmy, a także korzyści płynące z pracy zespołu dedykowanego pracy nad big data. Dzięki prelekcji znajdą Państwo odpowiedź na pytania:
Zasady wizualizacji danych, które powinieneś znać Ty i Twój dostawca BI.
Na rynku Business Intelligence trwa wyścig technologiczny. Choć większa część jego uczestników skupia się na przetwarzaniu danych, warto zwrócić uwagę na ostatni element służący do podejmowania decyzji - ich wizualizację. Choć zasady rządzące wizualizacją danych są stałe, niewielu analityków jest ich świadoma. Podobnie jest zresztą u dostawców oprogramowania. Na jakie 3 elementy warto zwrócić uwagę, projektując dashboard i co odróżnia dobry software od wybitnego w aspekcie prezentacji danych?
Data Science w środowisku korporacyjnym.
Klastry obliczeniowe wykorzystujące technologię Apache Hadoop na dobre zadomowiły się w ostatnim czasie w zestawie narzędzi analityków danych. Ze względu na niewielkie doświadczenia w stosowaniu narzędzi takich jak Spark i Impala w naturalnym środowisku (nie eksperymentalnym) należy je traktować z ostrożnością. Wdrożenie ich w środowisku korporacyjnym może wiązać się z pewnymi trudnościami. Bezpieczeństwo i integralność danych, integracja z istniejącymi systemami hurtowni danych czy narzędziami BI - nietrywialna w środowiskach korporacyjnych, wreszcie szczególnie istotna w przypadku instytucji finansowych ochrona danych osobowych i wymogi narzucane przez KNF, to kwestie które mogą istotnie utrudnić wdrożenie inicjatyw „big data” i prowadzenie analiz danych. Nie bez znaczenia jest tu także kultura organizacyjna, zwykle zorientowana na „wsadowe” przetwarzanie informacji i sztywne procesy biznesowe. Dlatego tak ważne jest stworzenie odpowiednich mechanizmów pozwalających na bezpieczne wykorzystywanie tego typu narzędzi. Nie może być tu mowy o pośpiechu czy bezkrytycznej implementacji gotowych rozwiązań.
Przetwarzanie danych – nowe metody i procesy
Mnogość źródeł informacji jakie posiadamy dzięki rozwojowi Internetu, technologii mobilnych, urządzeń typu wearables etc. otwiera przed nami ogromne możliwości. Jednocześnie stanowi jednak wyzwanie, w jaki sposób mamy przetworzyć i wykorzystać te dane aby miały realny wpływ na nasz biznes. W dzisiejszym świecie e-commerce, gdzie konieczna jest reakcja w czasie rzeczywistym na zachowania użytkowników i pojawiające się na rynku trendy, jest to wyraźnie widoczne. W trakcie prezentacji pokazane zostaną doświadczenia z nowoczesnymi metodami przetwarzania wielkich zbiorów danych pochodzących z różnorodnych źródeł.
Przerwa na kawę. Networking.
CX w służbie poprawy konwersji, retencji użytkowników i budowaniu spójnego doświadczenia.
Na przykładzie działań marketingowych w Audiotece oraz nowej odsłony strony internetowej Audioteka 2.0 pokażę jak CX wpływa na sprzedaż i konwersję. Następnie zastanowimy się czy i jak budować spójne CX w środowisku wielokanałowym/wieloplatformowym.
Nowa era Social Business Intelligence - jakie tajemnice pozwoli Ci odkryć analiza społecznościowa.
Podczas prelekcji poruszone zostaną zagadnienia:
Dlaczego Spark? Co wnosi nowy silnik przetwarzania danych w Hadoop?
Podczas prelekcji poruszone zostaną zagadnienia:
Analityka predykcyjna - skuteczne narzędzie, czy wróżenie z fusów?
Narzędzia predykcyjne obiecują możliwość przewidzenia przyszłych zachowań klienta na podstawie historycznych danych. Kto nie chciałby wiedzieć z wyprzedzeniem jaki produkt najlepiej spełni oczekiwania odbiorcy, a może jaka jest maksymalna cena jaką będzie skłonny za niego zapłacić. Z roku na rok rośnie zainteresowanie tego typu narzędziami, jednak metody te mają również gorących przeciwników, którzy uważają, że pokładane w nich nadzieje nie mogą być spełnione. Przedstawimy próbę i efekty zastosowania analityki predykcyjnej do automatyzacji procesów marketingu i sprzedaży w kanale online największego biura podróży w Polsce.
Zakończenie 1. dnia konferencji. Zebranie ankiet od Uczestników i losowanie upominków.
Rejestracja Uczestników. Poranny poczęstunek i networking.
Warsztat I - Failing >> fast forward. How data drives lean innovation (UX, Agile, Tools)
Profil: business
Abstract:
“If we have data, let’s look at data. If all we have are opinions, let’s go with mine.”
Jim Barksdale, former CEO of Netscape
As a manager or executive you are most probably aware of this imperative of change, many of the attempts to start new digital products or improve existing ones fail. In most cases because companies try to tackle new problems with the same old tools (organizational structures, methods, processes) that created the problems in the first place. How to avoid such and other traps and provide valuable experiences? In order to build a product that stands even a chance for survival or even success, quick steps, permanent analysis of relevant data and constant iterative feedback loops are needed.
During our more than a decade-long experience with digital projects in corporate and start-up contexts, we have identified a toolset that we consider essential for product innovation. It is based on the principles of Lean UX and Agile methodologies, data-driven, pragmatic and straight-forward. half-day-day workshop, entertaining, playful, hands-on, tangible results, learning by doing, less theory, more practice.
Programme:
Warsztat III - Data Science - praktyczne warsztaty z analizy danych.
UWAGA: Brak wolnych miejsc.
Profil warsztatów: biznesowy
Każdego dnia w firmie gromadzone są terabajty danych. Jak wyciągnąć z nich wiedzę i wykorzystać ją do podejmowania decyzji biznesowych?
Na warsztatach:
W programie warsztatów:
Mile widziane:
Lunch
Warsztat II - Budowa modeli predykcyjnych w praktyce.
Profil warsztatów: technologiczny
Modele predykcyjne wykorzystuje się w optymalizacji działań firm od lat. Najbardziej powszechne zastosowania to modele prognozujące zachowanie klientów (application scoring, behavioral scoring, churn). Jest wiele mniej standardowych zastosowań, choćby przewidywanie na podstawie scenariusza, ile zarobi nakręcony na jego podstawie film.
Niezależnie od przewidywanego zjawiska, sposób budowy modeli jest podobny. Próbując prognozować zjawiska z wykorzystaniem modeli predykcyjnych, spotykamy się jednak z wieloma trudnościami. Uczestnicy dowiedzą się, jakie to trudności, jak je pokonać oraz co jest ważne w modelowaniu predykcyjnym.
Przynajmniej od dekady darmowe oprogramowanie wykorzystywane jest coraz chętniej w biznesie. Często wypiera też drogie rozwiązania komercyjne. Użyjemy właśnie darmowego oprogramowania KNIME. Zdobyte wiedza i umiejętności będą wartościowe, niezależnie od wykorzystywanego w firmie oprogramowania.
Warsztaty będą przeprowadzone w sposób interaktywny, a uczestnicy dzięki pracy na własnych komputerach będą mogli wypróbować różne możliwości. Skorzystamy z ciekawych rzeczywistych danych.
Uczestnicy dowiedzą się:
W programie warsztatów
Wymagania
Jakiekolwiek doświadczenie w pracy z danymi, w dowolnym narzędziu. Warsztaty będą interaktywne, dlatego zapraszamy do zabrania ze sobą laptopa z zainstalowaną najnowszą wersją KNIME (KNIME + all free extensions) - https://www.knime.org/downloads/overview?quicktabs_knimed=1#quicktabs-knimed (do ściągnięcia bezpłatnie).
Warsztat IV - Interaktywna eksploracja i wizualizacja danych przy użyciu Apache Spark.
Profil warsztatów: technologiczny
Spotkanie dla osób, które chciałby zacząć przetwarzać dane przechowywane na klastrze Hadoop w interaktywny i produktywny sposób.
Hadoop wciąż kojarzy się głównie z offline’owym przetwarzaniem olbrzymich zbiorów danych za pomocą Map-Reduce. Implementujemy naszą aplikację, zgłaszamy ją do wykonania i… idziemy na kawę albo lunch, gdyż obliczenia trwają zbyt długo. Na szczęście coraz większą popularność zdobywa narzędzie, które pozwala nam efektywniej wykorzystać cenny czas! Spark wprowadził istną rewolucję w modelu pracy z dużymi danymi. Odejście od sztywnego paradygmatu Map-Reduce i wprowadzenie interaktywnego shell’a otworzyło zupełnie nowe możliwości przed każdym kto chce szybko i wydajnie pracować z danymi na klastrze.
Na potrzeby warsztatu przygotowaliśmy starannie dobry miks teorii, ćwiczeń, demonstracji, Q&A oraz zabawy. Po szybkim omówieniu architektury Sparka, przejdziemy do praktycznej części. Każdy uczestnik wcieli się w rolę analityka, którego zadaniem będzie eksploracja zbiorów danych przechowywanych na HDFS przy użyciu Sparka i wizualizacja wyników.
Uczestnicy
O ile szkolenie jest techniczne, wcześniejsze doświadczenie z Hadoop-em czy Sparkiem nie jest wymagane. Rekomendowana jest znajomość w stopniu przynajmniej podstawowym jednego z języków programowania: Java, Scala, Python. Każdy uczestnik powinien przyjść z własnym laptopem, z którego będzie używał podczas wykonywania ćwiczeń. Będziemy korzystać z wielowęzłowego klastra Hadoop zainstalowanego w publicznej chmurze. Laptop nie musi posiadać żadnego dedykowanego oprogramowania – wystarczy przeglądarka internetowa i terminal.
© Copyright 2024 International Data Group Poland S.A.
00-131 Warszawa, ul. Grzybowska 2/44
tel. +48 22 3217800