Analityczne podejście

W efekcie mamy do czynienia z sytuacją, gdzie z jednej strony podejmuje się żmudne i kosztowne zabiegi korekty błędnych danych, z drugiej zaś do ich repozytoriów trafiają ciągle nowe dane, których jakość budzi zastrzeżenia. Oznacza to, że utrzymanie założonego poziomu jakości danych jest stałym procesem a nie czymś, co można osiągnąć jednorazowym, akcyjnym działaniem.

Problemem jeszcze trudniejszym od utrzymania dobrej jakości danych jest sprawa tzw. danych o nieokreślonej strukturze. Dane te mają najróżniejszą postać - od odręcznych notatek, poprzez wiadomości poczty elektronicznej czy dokumenty sporządzone komputerowo, aż do odwzorowanych elektronicznie obrazów i dźwięków. Do danych takich zalicza się też często wpisy i komentarze umieszczane w zasobach sieci Internet, a w szczególności w jej serwisach społecznościowych, określanych łącznie niezbyt precyzyjnym terminem Web 2.0. Dane tego rodzaju nie poddają się żadnym, dotychczas stosowanym metodom analitycznym i nie wypracowano, jak dotąd, zadowalających metod takiego umieszczania ich w repozytoriach, które pozwalałyby na ich automatyczne albo chociażby zautomatyzowane indeksowanie. W bardzo nielicznych przypadkach, gdzie systematyczne i usystematyzowane gromadzenie takich danych jest w ogóle przedmiotem zainteresowania, sięga się po ręczne, zależne od uznania wykonujących to osób, metody oznaczania indeksami opisowymi. Oznacza to, że już na samym początku, pojawiają się poważne kwestie jakości tych działań, wynikłe z różnego poziomu przygotowania ich wykonawców oraz ich staranności.

Niełatwe zadanie

Tendencje rozwojowe w zakresie gromadzenia i analizy danych, co pokazują również liczne opracowania specjalistyczne, z jednej strony wskazują na niewątpliwie rosnące znaczenie tej dziedziny, z drugiej zaś obejmują praktyki komplikujące związane z tym działania i utrudniające uzyskiwanie oczekiwanych efektów. Należy do nich np. tendencja do niekontrolowanego zbierania danych z wszelkich źródeł, bez jakiejkolwiek wizji ich wykorzystania. Często towarzyszy temu założenie, że najbardziej przydatnym narzędziem analitycznym jest pakiet MS Excel a przeciętny pracownik poradzi sobie bez odpowiedniego przeszkolenia, nie tylko z nim, ale nawet z bardziej zaawansowanymi narzędziami specjalistycznymi. Częstym błędem jest przyjmowanie, że rozwiązaniem problemów jest już samo posiadanie repozytorium w rodzaju hurtowni danych, czemu towarzyszy jeszcze przekonanie o takiej uniwersalności gotowych narzędzi analitycznych, że zwalnia ona z konieczności kojarzenia potrzeb biznesowych z ich możliwościami.

Powyższe bynajmniej nie oznacza, że wymienione tu błędy są charakterystyczne dla działań pretendentów do tytułów Lidera Informatyki. Jest to raczej forma łagodnego ostrzeżenia dla tych, którzy chcieliby z dobrym efektem pójść w ich ślady. Sami liderzy, jeszcze zanim nimi zostali, mieli dobrą okazję do przekonania się, że zebranie posiadanych już przecież danych i ich analiza, wbrew pozorom, nie należy do zadań prostych.


TOP 200