Nadmiar czy bezmiar?

Kiedy konstatujemy, że działa prawo Sturgeona (90% wszystkiego to shit). Jak zrzucić z siebie te 90% i dotrzeć do reszty? Rośnie koszt dotarcia do tych 10 lepszych procent. Potrzeba coraz lepszych "silników czyszczących" infomasę - "rudę informacyjną". Im więcej infodanych, tym większa potrzeba filtrów.

Rośnie ilość automatycznie generowanych informacji, w tym śmieci (spam). Grzęźniemy w wysypisku danych, odpadach informacyjnych, z którymi nie wiadomo co robić. Akumuluje się niepotrzebne dane w hurtowniach w nadziei na recykling, że się kiedyś przydadzą, że dzięki nowej wiedzy można je będzie na nowo zinterpretować (za każdym razem w nowych kontekstach coś innego z nich wynika). Ale rezultat jest taki, że jesteśmy coraz bardziej zaśmieceni jako jednostki, organizacje, państwo i społeczeństwo w końcu. W którymś momencie bowiem mamy do czynienia już nie z nadmiarem, który jeszcze jakoś da się mierzyć, a z bezmiarem, którego mierzyć już nie sposób. Wtedy włącza się negatywne sprzężenie zwrotne, następuje przekroczenie możliwości percepcji i analizy, ucieczka od nadmiaru: im więcej danych, tym mniejsza korzyść z ich analizowania.

Silny jest trend do przechowywania wszystkiego i coraz głębszego wyszukiwania informacji. Mózg w toku ewolucji nauczył się zapominać, to co nie jest istotne dla przetrwania. Sztuczne systemy informacyjne tego nie potrafią. Cały wysiłek ich twórców szedł na "pamiętanie", a nie selektywne "zapominanie", bo do tego potrzeba refleksyjności, a ta wymaga inteligencji.

Klucz do powściągnięcia żywiołów redundancji leży w semantyce. Prace trwają od wielu lat, ale ciągle z miernym skutkiem, ponieważ mamy do czynienia z próbami powtórzenia cudu ewolucji, jakim jest inteligencja. Inwestuje się w wyszukiwarki semantyczne, ale jest to wszystko nadal w powijakach. Od 25 lat firma internetowa Cycorp w benedyktyńskim trudzie napełnia bazę milionami faktów, zdań orzekających z zakresu potocznej wiedzy (oczywistych dla ludzi, ale nie dla komputera czy robota). Na końcu tej żmudnej drogi jest stworzenie systemów wyposażonych w reguły implikacji i inferencji, które będą rozumieć konteksty. Brak rozumienia kontekstu jest bodaj głównym sprawcą multiplikacji informacji (wypluwanie zbędnych informacji przez wyszukiwarki). Oczywiście, odczytywanie kontekstów wymaga załadowania w systemy olbrzymiej wiedzy potocznej. Zabraknie jeszcze, bagatela, emocji, ale zaprogramowanie maszyn emocjami to na razie science fiction.


TOP 200