Analiza w trybie ciągłym

Narzędzia wspomagające podejmowanie decyzji w czasie rzeczywistym są tworzone z myślą o menedżerach średniego szczebla, a nawet kierownikach funkcyjnych. W ich przypadku tempo zdarzeń usprawiedliwia potrzebę natychmiastowej synchronizacji i analizy danych.

Narzędzia wspomagające podejmowanie decyzji w czasie rzeczywistym są tworzone z myślą o menedżerach średniego szczebla, a nawet kierownikach funkcyjnych. W ich przypadku tempo zdarzeń usprawiedliwia potrzebę natychmiastowej synchronizacji i analizy danych.

Jedną z najważniejszych obietnic pierwszych systemów ERP była możliwość ustalenia pod koniec każdego dnia aktualnej sytuacji finansowej firmy. Dziś przedsiębiorstwa potrzebują systemów, które pozwalają ustalić sytuację firmy natychmiast - w dowolnym momencie. O ile jednak niegdysiejsza potrzeba była potrzebą zarządów firm, o tyle współczesne wymaganie natychmiastowej dostępności informacji płynie głównie z potrzeb menedżerów średniego szczebla, a nawet kierowników funkcyjnych.

Zmiana adresata

Ustalenie sytuacji firmy na koniec dnia było marzeniem firm, które nie dysponowały zintegrowanymi systemami wspomagającymi zarządzanie. Nawet przy wykorzystaniu narzędzi informatycznych, lecz niepołączonych lub integrowanych "ręcznie", w ostatecznym efekcie rzeczywista sytuacja finansowa firmy znana była z opóźnieniem tygodniowym, a często zdarzało się wręcz, że dopiero kilka dni po zakończeniu miesiąca.

Firmy, które zdecydowały się na wdrożenie systemu zintegrowanego, szybko przyzwyczaiły się do komfortu wynikającego z szybkiego dostępu do danych pochodzących z natychmiast wprowadzanych dokumentów. Na koniec dnia można było wygenerować raport, z którego wynikało czarno na białym, co dzieje się z zapasami, jak wygląda sytuacja w należnościach i zobowiązaniach itd. Wraz z pojawieniem się systemów analitycznych można było dowiedzieć się więcej i bardziej szczegółowo, ale wciąż raz dziennie - zwykle następnego dnia rano.

Internet znacznie przyspieszył tempo handlu. W pierwszym rzędzie miało to wpływ na wymagania wobec dystrybucji, później - także produkcji. W tym czasie musiał się dostosować również rynek usług, choć tutaj sytuacja nawet w tych samych branżach i segmentach wygląda nadal bardzo różnie. Zmiana tempa dotknęła przede wszystkim działalności operacyjnej, a nie strategicznej, co z perspektywy czasu nie jest niczym dziwnym, jednak nie od razu było oczywiste.

Wzrost tempa biznesu sprawił, że znacząco wzrosła liczba decyzji do podjęcia w tym samym przedziale czasu. Próba zmuszenia członków zarządu do podejmowania kilkakrotnie większej liczby decyzji w ciągu dnia nie spotkała się z ich aprobatą. Dostawcy rozwiązań informatycznych szybko zrozumieli, że zarządy potrzebują jedynie wskaźników syntetycznych na potrzeby decyzji strategicznych. Z raportami szczegółowymi, zwłaszcza uaktualnianymi na bieżąco, trzeba pukać do innych drzwi.

Poczekajcie na technologię

Niezależnie od barier organizacyjnych, na drodze do przyspieszenia przepływu danych i podejmowania szybszych i bardziej trafnych decyzji stanęły bariery technologiczne. Początkowo wydawało się, że przyspieszenie będzie możliwe dzięki usprawnieniu istniejących mechanizmów integracyjnych. Takie myślenie było uprawnione, ponieważ to właśnie platformy integracyjne nadawały tempo konsolidowaniu informacji z całej firmy. O ile jednak tempo dobowe było dla tych środowisk do zniesienia, o tyle wizja natychmiastowej synchronizacji, uwalniania powiadomień po wystąpieniu określonych zdarzeń itp., okazała się zbyt ambitna.

Realizacja takiego scenariusza była możliwa co do zasady, jednak wymagania w dziedzinie wydajności całej infrastruktury aplikacyjnej były na tyle duże, że w praktyce wymagały jej wymiany. Nie chodziło nawet o wydajność serwerów czy sieci. Problemem była zdolność aplikacji sprzęgniętych z bazami danych do wydajnego i bezpiecznego śledzenia zdarzeń oraz uruchamiania procedur synchronizacji najnowszych danych z systemami wspomagania decyzji. Raz zaprojektowanych i wdrożonych aplikacji nie zmienia się ot tak, bez naprawdę poważnych powodów.

Tylko niektóre firmy doszły do wniosku, że ich model biznesowy wymaga aż takiej inwestycji. Reszta postanowiła po prostu zredukować swój apetyt do czasu wystąpienia naturalnych zmian technologicznych. Proces wykształcania się technologii zdolnych do wydajnego obsłużenia takich scenariuszy rzeczywiście się rozpoczął. Zamiast budować wielkie środowiska integracyjne, dostawcy proponują klientom integrację serwerów baz danych z serwerami analitycznymi i serwerami raportowymi (patrz ramka).

Kierunek jest słuszny, choć w sumie zarysował się stosunkowo niedawno i istniejące rozwiązania nie są jeszcze na takim poziomie doskonałości, spójności i funkcjonalności, który gwarantowałby klientom spokojny sen przez najbliższe kilka lat. Z drugiej strony, spokojny sen w dziedzinie IT to niedościgniony miraż - zmiany następują ciągle, a ich kierunki bywają niekiedy nieprzewidywalne. Firmy, które dostrzegają korzyści z możliwości śledzenia pewnych procesów w czasie rzeczywistym i poprawienia dzięki niej jakości decyzji, mogą już obecnie myśleć o wdrożeniach.

Automat na samym dole

Jeśli współczesne technologie uznać za dostatecznie dojrzałe do tego, by je wdrażać, wypada się zastanowić, dla kogo i w jakim konkretnie celu? Wiadomo, że nie skorzystają z nich menedżerowie najwyższego szczebla (w każdym razie ich większość), ponieważ ich praca nie polega na reagowaniu na zdarzenia biznesowe w czasie rzeczywistym. Kto więc miałby skorzystać z tego nowego dobrodziejstwa i w imię czego?

Najwięcej zmienia się tam, gdzie najwięcej się dzieje, a więc na poziomie transakcyjnym, operacyjnym. Nie chodzi wcale o to, żeby np. pracownik bezpośrednio obsługujący klienta podejmował poważne decyzje jeszcze w trakcie rozmowy z nim, ani też o to, by frezer przy maszynie prowadził jakieś zaawansowane rozważania, czy dokonywał jakichś optymalizacji procesów. Chodzi raczej o to, by na tym poziomie więcej "działo się dobrze dla firmy" dzięki niewidocznej logice automatycznie podpowiadającej kolejne kroki.

Takie optymalizacje w mało spektakularny, ale jednak istotny biznesowo sposób, mają od dłuższego czasu miejsce w telecentrach. Rozmowy są automatycznie kierowane do najkrótszych kolejek, a konsultant, który w trakcie rozmowy z klientem zaznacza wybierane przez niego opcje w odpowiednim programie, otrzymuje podpowiedzi zgodne ze scenariuszem zaprojektowanym wcześniej na podstawie analizy danych. Oczywiście, scenariusz zmienia się wraz z uzyskiwaniem odpowiedzi na kolejne pytania. Na razie jeszcze ów scenariusz nie ulega automatycznym dostosowaniom na podstawie zmieniających się wyliczeń dziennej sprzedaży, ale to już bliska perspektywa.

W systemach MRP II/ERP to już się dzieje. W dziedzinie planowania zleceń produkcyjnych mamy do czynienia z podpowiedziami harmonogramów po wstępnych przeliczeniach z uwzględnieniem najnowszych zleceń. W przypadku logistyki bieżącej optymalizacji podlegają wielkości zamówień materiałów produkcyjnych, uwzględniające bieżące stany magazynowe, prognozy wygenerowane na podstawie historii sprzedaży, analizy bieżącego tempa sprzedaży (handel detaliczny), rozpoznane trendy sezonowe itd.

Narzędzia dla kierownika

Bieżąca analiza i aktualizacja informacji wydaje się mieć sens na poziomie kierowników odpowiedzialnych za konkretne obszary biznesowe, np. dział asortymentowy w sieci detalicznej, halę produkcyjną lub cały wydział produkcyjny, telecentrum, system sprzedaży online czy sieć partnerów. Zapewnienie kierownikom funkcyjnym narzędzi wspomagających podejmowanie decyzji wydaje się celowe - na tym szczeblu podejmuje się codziennie wiele decyzji przekładających się koniec końców na wynik firmy.

W sieci detalicznej spływające na bieżąco dane z kas mogą automatycznie lub półautomatycznie (za aprobatą kierownika magazynu zaopatrzeniowego) generować zamówienia uzupełniające do magazynu centralnego. Kierownik magazynu wysokiego składowania może na bieżąco śledzić w systemie liczbę spływających zleceń magazynowych i odpowiednio optymalizować pracę zmian pracowniczych. Osoba odpowiedzialna za dystrybucję w magazynie centralnym może otrzymywać automatycznie powiadomienia, że w sieci X poziom zapasu towaru Y zbliża się do poziomu minimalnego i że trzeba złożyć zamówienie do producenta.

Szef wydziału produkcyjnego może analizować w czasie rzeczywistym problemy z jakością i reagować na nie od razu, a nie po miesiącu, gdy wiadomo, że jedyne, co można zrobić, to czekać na reklamacje od klientów. Dzięki analizie na bieżąco aktualizowanych danych z automatyki przemysłowej dyrektor odlewni czy walcowni może szybko zmienić priorytety produkcji, by najlepiej (najbardziej zyskownie dla firmy) wykorzystać możliwości aktualnie dostępnego gorącego surowca.

Wielkie pożytki z natychmiastowego powiadamiania i nieustającej analizy danych znacznie łatwiej wskazać w branżach w istotnej mierze opartych na systemach informatycznych, a więc w bankowości i telekomunikacji. W branżach tych takie systemy działają od lat. Wykorzystywane są m.in. przy wykrywaniu oszustw bankowych lub telekomunikacyjnych, w analizie ruchu środków na rachunkach pod kątem prania brudnych pieniędzy, analizie działań departamentu skarbu pod kątem zgodności z prawem bankowym (pokrycie inwestycji wkładami itd.) albo też analizie ryzyka operacyjnego.

Byle nie przedobrzyć

Są oczywiście obszary, w których - z natury rzeczy - korzyść z natychmiastowej wiedzy o zdarzeniach nie przyniesie wielkiego pożytku. Cóż bowiem z tego, że w dziale kadrowym ktoś dowie się, że przysłowiowy Kowalski jest dziś chory? Nie będzie z tego powodu tragedii, a problem będzie dotyczyć bardziej kierownika działu, w którym ów Kowalski pracuje, niż działu kadr. W dziale finansowym również nie będzie to sprawa istotna w czasie rzeczywistym, choć w obu działach w skali miesiąca nieobecność Kowalskiego będzie uwzględniona.

Takich przypadków można oczywiście znaleźć więcej. Nie znaczy to, że ich istnienie przeczy słuszności wdrażania analizy i synchronizacji danych w czasie rzeczywistym w innych obszarach. Ostatecznie, miejmy nadzieję, zwycięży zdrowy rozsądek i firmy uwierzą w opowieści dostawców tylko w takim zakresie, w jakim będzie to odpowiadać ich rzeczywistym potrzebom. W przeciwnym razie zwrot z inwestycji w takie rozwiązanie, bez względu na sztuczki wykorzystane do jej usprawiedliwienia, będzie natychmiastowy - tyle że ze znakiem minus.

Błyskawiczne technologie

Dotychczasowe architektury integracyjne nie były w stanie poradzić sobie z wyzwaniem natychmiastowej aktualizacji informacji we wszystkich ważnych systemach, ponieważ były projektowane z myślą o wysoce heterogenicznych środowiskach aplikacyjnych. Tu jeden system z własną bazą, tam inny, i jeszcze jeden, do tego system interfejsów, broker komunikatów, a obecnie jeszcze koncepcja SOA. W świecie natychmiastowości nie ma miejsca na takie "wodotryski".

Realizacja wizji natychmiastowej aktualizacji informacji, jej natychmiastowej analizy i natychmiastowej dystrybucji do właściwych osób i systemów wymaga zniesienia wszystkich możliwych barier. To dlatego wszyscy liczący się dostawcy serwerów baz danych łączą obecnie w jednym rozwiązaniu motor do przetwarzania transakcyjnego, system integracyjny oraz motor analityczny, ewentualnie serwer raportowy.

Microsoft poszedł tą ścieżką najszybciej i najdalej. Wraz z publikacją serwera DB2 v9 IBM zrobił w tej dziedzinie spory postęp, zaś środowisko integracyjne zapewnia platforma WebSphere. Oracle od dawna dąży do połączenia bazy transakcyjnej i analitycznej oraz środowiska integracyjnego. Prawdopodobnie najwcześniej za 2 lata ujrzymy rzeczywisty efekt tych wysiłków (platforma middleware o nazwie Fusion). Także SAP pracuje nad środowiskiem tego rodzaju (wokół platformy NetWeaver), choć nie dysponuje własnym serwerem baz danych.

Wielopoziomowa integracja oprogramowania warstwy pośredniej jest remedium na to, by aktualna informacja była dostępna dla wszystkich aplikacji, które jej potrzebują. Z punktu widzenia dostawców infrastruktury, ale także klientów, znacznie rozsądniejsze jest skalowanie jednego środowiska, z jednym zestawem mechanizmów zarządzania, jednym zestawem interfejsów API dla producentów aplikacji, niż optymalizowanie komunikacji między oddzielnymi środowiskami technologicznymi.


TOP 200