Organizacja gromadzenia informacji

Współczesne systemy informatyczne, obejmujące coraz większe obszary geograficzne, działając w różnych strukturach organizacyjnych i integrując informacje na różnych poziomach, często nastawione są na bardzo - wydawałoby się na pierwszy rzut oka - prozaiczne zmagania z jakością dostarczanych danych. System wdrożony i eksploatowany musi podołać ogromnym przeszkodom, z których jedną, czasami niezmiernie dokuczliwą, jest treść informacji stanowiących podstawę do funkcjonowania oprogramowania.

Współczesne systemy informatyczne, obejmujące coraz większe obszary geograficzne, działając w różnych strukturach organizacyjnych i integrując informacje na różnych poziomach, często nastawione są na bardzo - wydawałoby się na pierwszy rzut oka - prozaiczne zmagania z jakością dostarczanych danych. System wdrożony i eksploatowany musi podołać ogromnym przeszkodom, z których jedną, czasami niezmiernie dokuczliwą, jest treść informacji stanowiących podstawę do funkcjonowania oprogramowania.

Istota powiedzenia, że to, co wprowadzimy do bazy danych, zadecyduje o osiągniętych efektach używania systemu, najlepiej sprawdza się w warunkach roboczych. Jakość danych jest jednym z newralgicznych punktów, którego lekceważenie doprowadza najczęściej do osiągnięcia błędnych wyników, czego skutki bywają nieraz głębokie i zależą od złożoności systemu, sfery przez niego obsługiwanej i wreszcie firmy, w jakiej znalazł zastosowanie.

Hierarchiczny system przekazywania informacji

Proces pozyskiwania danych oraz kontrola jakości informacji, zaliczane do żmudnej codzienności eksploatacyjnej, często nie znajdują uznania w fazie projektowej, co jest oczywistym błędem, bowiem jakość tego procesu będzie świadectwem jakości systemu na identycznym poziomie, jak świadczą o nim zastosowane środki techniczne i funkcjonalność oprogramowania. Często też pomija się milczeniem zjawiska wtórne, zakłócające cykl wprowadzania danych, a wynikające z konieczności prostowania błędów, wykrytych na pewnym etapie procedury weryfikacyjnej. Im wyjaśnienie sytuacji spornych nastąpi wcześniej, tym mniejsze prawdopodobieństwo powikłań wynikających z użycia niewłaściwych informacji w procesach potomnych.

Mówiąc o zjawisku jakości danych, należałoby skoncentrować się na systemach dedykowanych masowej obsłudze, gdzie liczba informacji i sposób jej przetwarzania stanowi główny czynnik powodzenia eksploatacji systemu. W organizacjach bardzo rozbudowanych, służących obsłudze masowej klientów, istnieje jeszcze ciągle niedosyt środków technicznych, umożliwiających pracę online z bazą danych, stąd przeważnie procedury pozyskiwania danych i ich ujmowania w systemie komputerowym ulegają rozwarstwieniu.

Rozpatrzmy jako przykład (rys. 1) system gromadzenia informacji pracujący w klasycznym układzie rozproszonym-trójstopniowym, gdzie pierwszy stopień obejmuje pozyskiwanie danych źródłowych w oddziałach lokalnych, drugi to ujmowanie danych przesłanych z oddziałów lokalnych do centrów regionalnych oraz ich weryfikacja i odsyłanie do nadawcy danych wadliwych, trzeci stopień obejmuje przesyłanie zakwalifikowanych na drodze weryfikacji danych z centrów regionalnych do centrum krajowego.

W rozpatrywanym przykładzie obniżono próg weryfikacji danych do poziomu pośredniego, jakim ustanowiono region. Oznacza to, że liczba informacji na poziomie regionalnym nie powinna przekraczać jego możliwości reagowania w przewidzianym czasie na zaistniałe uchybienia. Wadliwa część danych zostaje na tym poziomie zatrzymana i zwrócona nadawcy, nie absorbując organów centralnych. O szybkości gromadzenia informacji w tak pojętej strukturze będą decydować czynniki, takie jak:

  • jakość mechanizmów korekty w punktach ujmowania danych

  • liczba błędnych informacji podlegających zwrotowi

  • operatywność punktu przeprowadzania weryfikacji.

    Gdyby środek ciężkości przeniesiono o szczebel wyżej - na poziom centralny - wówczas dopiero tutaj rozstrzygałaby się batalia o weryfikację danych. Wymagałoby to przeprowadzenia wielu zmian organizacyjnych, mających na celu udrożnienie "wąskiego gardła", w którym zatrzymywałyby się wszystkie nadesłane dane z poziomów niższych. Po pierwsze, poziom centralny musiałby zostać wzbogacony kadrowo, aby zachować parametry płynności operacji identyczne z obniżonym progiem decyzyjnym. Kumulacja zadań na poziomie centralnym zmniejsza automatycznie obciążenie na poziomie regionalnym, pozwalając na zminimalizowanie tych agend. Z powyższego wynika, że możemy stosować zarządzanie centralne z odpowiednio wydajną i rozbudowaną centralą lub, minimalizując znaczenie centrali, rozproszyć odpowiedzialność na oddziały regionalne, oddając do ich dyspozycji stosowne środki techniczno-kadrowe.

    O tym, który wzorzec przyjąć, decydują czynniki, takie jak:

  • istniejąca struktura organizacyjna

  • wymagana szybkość reakcji

  • metody komunikacji.

  • W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

    TOP 200