Odgadywanie przyszłości

Informatyka jest w stanie pomóc w dziele "zabezpieczania się na wszelką ewentualność", ale jej znaczenie na razie nie wychodzi poza prognozy krótkoterminowe. Co duża polska firma wie o swojej przyszłości i czego może się dowiedzieć dzięki IT?

Informatyka jest w stanie pomóc w dziele "zabezpieczania się na wszelką ewentualność", ale jej znaczenie na razie nie wychodzi poza prognozy krótkoterminowe. Co duża polska firma wie o swojej przyszłości i czego może się dowiedzieć dzięki IT?

Odpowiedź na zadane w ten sposób pytanie wcale nie jest oczywista, gdyż przewidywanie przyszłości - przy użyciu komputerów czy też bez nich - jest po prostu bardzo trudne, a im dłuższy okres prognozowania, tym większe ryzyko błędu. Gdyby przewidywanie przyszłości było jedynie kwestią posiadania odpowiedniej ilości danych z przeszłości odzwierciedlających zachowanie odpowiednio dużej liczby uczestników rynku, monopoliści i prawie monopoliści, tacy jak Telekomunikacja Polska, nie powinni mieć żadnych problemów z rozpoznawaniem nowych trendów i idealnym dopasowywaniem do nich swojej oferty. Tymczasem i małych, i dużych nieoczekiwanie rozkwitające nowe technologie i gwałtowne posunięcia konkurencji zaskakują co jakiś czas w jednakowym stopniu. Nie sposób wyciągnąć z hurtowni danych informacji o nadchodzącej wojnie w Iraku, wygranej PiS w wyborach czy przejęciu JD Edwards przez Oracle'a. Nie sposób przewidzieć na podstawie analizy danych z przeszłości, że nowe przepisy związane z VAT-em napędzą popyt na pickupy. To nie wynika jednoznacznie z żadnej analizy trendów. Po fakcie można oczywiście znaleźć wytłumaczenie, ale nie chodzi o tłumaczenie - chodzi o przewidywanie.

Pomijając przewidywanie, nawet z tłumaczeniem trendów nie jest najlepiej. Zdarza się, wcale nie tak rzadko, że uzbrojeni w odpowiednie raporty sprzedaży menedżerowie widzą nowe trendy jak na dłoni, ale ich wyjaśnienie pozostaje dla nich zagadką. Dobrym przykładem jest narastająca ostatnio popularność cieniutkich, "kobiecych" papierosów typu super slim. Jeszcze dwa lata temu ten segment miał niewielkie, zgoła folklorystyczne znaczenie. Dziś popularność cieniutkich papierosów lawinowo rośnie, a ich producenci w gruncie rzeczy nie mają pojęcia, dlaczego tak się dzieje. Podejrzewają tzw. trend setterów, czyli wpływowych użytkowników, których zachowanie naśladowane jest przez innych, ale hipoteza ta jest trudna do zweryfikowania. Menedżerów w gruncie rzeczy interesuje nie tyle odpowiedź na pytania "O ile rośnie?" i "O ile jeszcze wzrośnie?", ale "Dlaczego rośnie?", a przede wszystkim "Czy te czynniki, które powodują, że rośnie, będą działać nadal z tym samym natężeniem i czy to będą te same czynniki i czy w związku z tym możemy z dużym prawdopodobieństwem założyć, że będzie rosnąć nadal?".

Menedżerowie IT wielkich korporacji mniej lub bardziej świadomie czują, że przewidywanie przyszłości w okresach wykraczających poza jeden kwartał to śliska sprawa. Nie zebrali jeszcze wystarczająco dużo doświadczeń z analizy przeszłości, nie wybrnęli jeszcze zazwyczaj z kwestii budżetowania, raportowania, porównywania realizacji budżetu z planem, śledzenia kluczowych wskaźników efektywności, by odważnie zacząć eksperymenty z zaglądaniem w kryształową kulę.

Kręta droga ku przyszłości

Tak naprawdę bowiem droga do przewidywania przyszłości jest długa i prowadzi przez liczne zastosowania hurtowni danych i narzędzi business intelligence oraz towarzyszące im przygody z dużymi zbiorami danych, statystyką i ekonometrią.

W zasadzie wdrożenie hurtowni danych jest warunkiem koniecznym do zastosowania narzędzi business intelligence - a wśród nich rozwiązań data mining i predictive analysis. Częściowo wynika to z ograniczeń wydajnościowych systemów ERP i innych systemów transakcyjnych, będących źródłem danych, częściowo z konieczności ujednolicenia danych pochodzących z różnych źródeł. Teoretycznie systemy zintegrowane posługują się ujednoliconymi danymi we wszystkich modułach systemu. W praktyce nazewnictwo w poszczególnych modułach jest często niespójne. Do momentu próby wyciągnięcia syntetycznych informacji przekrojowych nikomu to w zasadzie nie przeszkadza. Z chwilą wprowadzenia narzędzi analitycznych niejednorodność danych zaczyna być problemem. Problem ten staje się znacznie bardziej widoczny w przypadku uzyskiwania informacji z kilku systemów ERP, obsługujących np. krajowe oddziały międzynarodowej korporacji. Tu już standardy nazewnictwa prawie na pewno będą się różnić i wdrożenie hurtowni danych jest nieodzowne, aby skonstruować np. raport dotyczący sprzedaży w całym regionie.

Posiadaną już hurtownię można eksploatować na wiele sposobów, próbując na początku nie tyle przewidzieć przyszłość, ile uporządkować i poddać analizie przeszłość i teraźniejszość, posługując się dostępnymi, ustrukturalizowanymi danymi. Użytkowników zwykle najbardziej interesuje analiza zachowań klientów pozwalająca precyzyjniej sterować kampaniami marketingowymi, rentowność poszczególnych grup klientów, ich lojalność, wiarygodność finansowa, zdolność kredytowa, rentowność poszczególnych połączeń transportowych, efektywności sieci sprzedaży, identyfikacja - na podstawie analizy zachowań - klientów, którzy mogą odejść do firmy konkurencyjnej. Problem w tym, że informacje na temat zrealizowanych transakcji - przez bank lub operatora telekomunikacyjnego posiadane aż w nadmiarze - są dopiero punktem wyjścia do analizy, której efektem będzie np. nowa segmentacja klientów. Dane wymagają zawsze ujednolicenia, wyczyszczenia i zagregowania, odrzucenia lub uzupełnienia niepełnych rekordów, a przede wszystkim określenia poszukiwanych zjawisk i relacji oraz ich wpływu na przyporządkowanie klientów, połączeń, punktów sprzedaży czy dowolnych innych przedmiotów analizy do określonych grup, w stosunku do których można zastosować jakieś reguły postępowania. O to bowiem ostatecznie chodzi - o stworzenie narzędzia, które umożliwi podjęcie menedżerom czy sprzedawcom trafniejszych decyzji w, na razie bliskiej, przyszłości.

Firmy z wielu branż po prostu nie posiadają tak szczegółowych danych o przeprowadzanych przez swoich klientów transakcjach. Z ich punktu widzenia najistotniejsze jest nie tyle oszacowanie przyszłych zachowań pojedynczego klienta, ile przewidzenie "chłonności" rynku w najbliższych okresach, a więc takie zaplanowanie produkcji i sprzedaży na podstawie danych historycznych, które pozwoli zmaksymalizować wykorzystanie ludzi i maszyn oraz zminimalizować zapasy. Wdrożenie systemu planowania produkcji i sprzedaży opartego na hurtowni danych i narzędziach business intelligence może zamknąć się w kilku miesiącach, jeśli firma ma już gotowy, zdefiniowany proces planowania. Jeśli zaś po rozpoczęciu projektu okaże się, że nie wiadomo, jak - krok po kroku - ma wyglądać proces planowania, kto jest odpowiedzialny za realizację kolejnych etapów, jak mają wyglądać arkusze planistyczne, z których firma będzie korzystać w tym i kolejnych okresach planistycznych - wdrożenie będzie trwać znacznie dłużej. A często okazuje się, że dopiero w ramach projektu wdrożenia systemu informatycznego trzeba wypracowywać model planowania, który nie ma nic wspólnego z informatyką. Każde przedsiębiorstwo planuje nieco inaczej i wiedzę na temat tego unikalnego planowania trzeba zaszyć w systemie. Po wdrożeniu systemu planowania opartego na BI to planowanie powinno stać się bardziej trafne, ale wszystko zależy od użytkowników, dokładności danych wejściowych i trafności modelu planowania. Jeśli organizacyjnie planowanie nie działa, to informatyka nic tu nie naprawi. Podstawową zaletą takiego systemu planowania jest spięcie całego procesu planowania w całość organizacyjną, kontrola nad historią planowania i łatwość porównania planów z faktyczną realizacją. Istotną kwestią jest też zapewnienie powtarzalności całego procesu planowania w kolejnych okresach. Innymi słowy, przechodzimy od intuicyjnego wpisywania przewidywanych wielkości sprzedaży w Excela do opisanego, powtarzalnego, "kontrolowalnego" procesu, który poddaje się udoskonalaniu na bazie kolejnych doświadczeń. To jest już jakiś krok ku lepszemu przewidywaniu przyszłości.

Zanim więc firma zacznie przewidywać daleką przyszłość, musi przejść przez etap zaspokajania bardzo podstawowych potrzeb informacyjnych i porządkowania swojego spojrzenia na przeszłość i teraźniejszość. Związane z tym projekty nie są ani łatwe, ani tanie, ani krótkotrwałe, ale przynajmniej dają menedżerom konkretną wiedzę. Długoterminowe prognozowanie nie wygląda już tak różowo.

Człowiek czy maszyna?

Zawsze powstaje pytanie, czy to się opłaca? Czy zwrócą się zaangażowane w projekt siły i środki? Czy zaangażowanie potężnej machiny informatycznej będzie bardziej efektywne niż zatrudnienie kilku bystrych analityków rynkowych? Światowy rynek oprogramowania business intelligence według danych IDC rośnie w tempie kilkunastu procent rocznie. Firmy analityczne oceniają, że narzędzia umożliwiające analizy prognostyczne będą głównym czynnikiem wzrostu segmentu oprogramowania do drążenia danych (data mining), ale z drugiej strony według IDC średnioroczna stopa wzrostu dla oprogramowania DM w ciągu następnych pięciu lat wyniesie niespełna 8%. Będzie więc niższa niż stopa wzrostu całego rynku BI. Dlaczego tak jest? Jedna z odpowiedzi brzmi: ponieważ data mining i analizy prognostyczne to trudne zagadnienie, a otrzymane wyniki nigdy nie dają jednoznacznej odpowiedzi. Mimo fascynacji narzędziem zdają sobie z tego sprawę producenci systemów BI, którzy w tej chwili koncentrują wysiłki na przybliżeniu systemów analitycznych większej liczbie użytkowników. Uproszczenie interfejsów, różne poziomy dostępu do danych i raportów dla użytkowników o różnym poziomie przygotowania statystycznego, prace nad udoskonalaniem wizualizacji danych, kokpit menedżera, obserwacja zachowania organizacji w czasie rzeczywistym.

Rynek zaawansowanej analizy tak naprawdę dopiero się rodzi, a zrealizowane wdrożenia to odosobnione przypadki. Wdrożenia są bardzo pracochłonne, wymagają długotrwałych prac nad budową właściwych modeli i eksperymentowania z danymi, nie mówiąc o przełamaniu naturalnej nieufności końcowych użytkowników. Menedżer nie musi rozumieć struktury zbudowanego modelu data mining, ale żeby chciał z niego korzystać i opierać na nim swoje decyzje, musi mieć zaufanie do analityka, który taki model zbudował.

W Polsce mamy już za sobą pierwsze eksperymenty z tworzeniem modeli umożliwiających symulowanie efektów zmian organizacyjnych w samej firmie. Prognozowanie tak okrojonej - do wewnętrznego organizmu przedsiębiorstwa - przyszłości może być obarczone stosunkowo niewielkim błędem, a stworzony model zrozumiały dla decydentów, co uzasadnia sensowność całego projektu. Tak naprawdę prognozowanie przyszłości całego rynku i otoczenia biznesowego jest o tyle trudne, że wykrywanie trendów to tylko jeden z etapów analizy. Zanim do niego dojdziemy, trzeba odpowiedzieć na pytanie, jaki tak naprawdę problem chcemy analizować, jakie dane musimy zebrać i przygotować, jak ma wyglądać model prognostyczny i zasady interpretacji jego wyników i wreszcie w jaki sposób będziemy monitorować zmianę sytuacji i jej zgodność z modelem, co pozwoli udoskonalić model, tak by pozwalał z czasem coraz lepiej przewidywać przyszłość. Żaden komputer, żadna hurtownia danych nie podpowiedzą nam, że właśnie teraz powinniśmy sformułować takie właśnie pytanie. A wiadomo, że odpowiednio sformułowane pytanie zawiera w sobie połowę odpowiedzi i bynajmniej nie jest to pusty frazes.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200