Dostęp nie wystarczy

Czy zatem narzędzia były zbyt niedoskonałe (inna sprawa, czy da się stworzyć doskonałe), czy lawina danych i przetworzonych informacji zamuliła systemy, czyli pojawił się syndrom GIGO ("śmieć na wejściu - śmieć na wyjściu"). Może mamy do czynienia z luką ludzką (narzędzie przerasta już użytkownika)? A może wreszcie - ale to byłaby już spiskowa teoria - prawda jest jeszcze inna: taka, że analityczne maszyny zostały po prostu użyte do generowania masy "produktów bankowych", których nie da się zrobić bez narzędzi informatycznych. Czyli, mówiąc brutalnie, nikomu nie zależało na ostrzeganiu.

Mamy już coraz sprawniejsze algorytmy, ale komputer zatrzymuje się w swej inteligencji między danymi a informacją. Sam nie tworzy wiedzy. Wiedzę tworzy się w systemach, które wymagają wartościowania i interpretacji, semantyki. Należałoby zbadać (albo takie badanie już istnieje, ale o nim nie wiem), czy zaawansowana analityka nie grozi algorytmizowaniem ludzi, czy nie zdają się oni na mądrość systemu eksperckiego. Wtedy nie ma co marzyć o efektywnym SWO.

Tu pojawia się problem współsprawstwa: kto będzie odpowiedzialny, jeśli SWO zawiedzie. Strona inżynieryjna, konstrukcyjna czy software’owa będzie doskonalona. O wiele trudniejsze do rozwiązania będą kwestie społeczne, prawne i etyczne. Na razie jeszcze trudno mówić o ludzkich relacjach z systemami informatycznymi, ale już znaleźliśmy się na tym szlaku. Jak wtedy etycznie i prawnie ocenić włączenie maszyn do procesu podejmowania decyzji? Czy komputery mogą decydować za nas? Czy jesteśmy gotowi zaakceptować taką funkcję maszyn? Można tu pokusić się o hipotezę, że dialektyczny związek konfliktu i kooperacji między jednostką a grupą staje się już konfliktem między jednostką a sieciami komputerowymi. Dokładna kwantyfikacja jest możliwa oczywiście tylko w odniesieniu do cech ilościowych, ale już nie jakościowych. Stopień dokładności będzie tu w prostej linii uzależniony od stopnia mierzalności cechy. Tu w grę wchodzi już subiektywna sfera decyzji, którą poprzedza ewaluacja danych.

Zabójczy nadmiar

Przykładem supersystemu informacyjnego jest baza danych prowadzona przez firmę Axiom Corp. z Conway, Arkansas, która gromadzi dane o klientach obejmujące 95% gospodarstw domowych. Pozostałe 5% to gospodarstwa bez dostępu do Internetu. Przed nietrasparentnością takich systemów przestrzegał Jurgen Habermas twierdząc, że o ile na początku dostęp do informacji był pożądanym atrybutem społeczeństwa demokratycznego i ochrony przed totalitaryzmem, o tyle dziś nadmiar bitów dławi społeczeństwo. Prawo do informacji ustępuje miejsca prawu do ochrony przed jej zalewem, nachalnością w bombardowaniu nimi. Umberto Eco wyrażał przekonanie, że obfitość informacji może je zniszczyć. Między dysponowaniem milionami megabajtów informacji na jakiś temat a niedysponowaniem nimi nie ma wielkiej różnicy.


TOP 200