Ilość i jakość

Wzrastający dostęp do informacji niewątpliwie wywiera wielki wpływ na życie obyczajowe. Nie tak dawno pewien młody człowiek (nazwijmy go Franek), którego rzuciła dziewczyna (powiedzmy, Mańka), powodowany rozpaczą i chęcią zemsty, zeskanował zdjęcie nagiej Mańki w sytuacji zwanej wówczas kompromitującą. Następnie stworzył serwis !www.golamanka (by nie narazić się Naczelnemu, sprawdziłem, że pod tym adresem nie ukrywa się żadna pornografia). Tym sposobem poprawił on w istotnej mierze poziom wiedzy społeczeństwa na temat anatomii byłej narzeczonej, nie mówiąc już o tym, że popełniony przez niego akt może przyczynić się w przyszłości do zwiększenia trwałości związków przedmałżeńskich. Sprawa zakończy się w sądzie.

Wzrastający dostęp do informacji niewątpliwie wywiera wielki wpływ na życie obyczajowe. Nie tak dawno pewien młody człowiek (nazwijmy go Franek), którego rzuciła dziewczyna (powiedzmy, Mańka), powodowany rozpaczą i chęcią zemsty, zeskanował zdjęcie nagiej Mańki w sytuacji zwanej wówczas kompromitującą. Następnie stworzył serwis !www.golamanka (by nie narazić się Naczelnemu, sprawdziłem, że pod tym adresem nie ukrywa się żadna pornografia). Tym sposobem poprawił on w istotnej mierze poziom wiedzy społeczeństwa na temat anatomii byłej narzeczonej, nie mówiąc już o tym, że popełniony przez niego akt może przyczynić się w przyszłości do zwiększenia trwałości związków przedmałżeńskich. Sprawa zakończy się w sądzie.

Anegdota ta przypomniała mi się, kiedy na początku lipca przeczytałem alarmujące doniesienia prasowe, bolejące nad tym, że jakkolwiek liczba stron dostępnych na pajęczynie za pośrednictwem AltaVisty, Lycos, HotBota czy innych "maszyn przeszukujących" wynosi ok. 400 milionów, jest to zaledwie połowa umieszczonych w sieci (zdjęcie Mańki, może należeć do tych trudnych do odszukania).

Do takiej niepokojącej konkluzji doszedł Steve Lawrence, który w tygodniku Nature ogłosił wyniki badań swego, związanego z firmą komputerową NEC, Instytutu Badawczego w Princeton. Jak twierdzi, sytuacja pogarsza się z roku na rok, bowiem jeszcze w 1997 r. sześć głównych wyszukiwarek było w stanie pokryć kolektywnie 60% sieci, natomiast w lutym tego roku te same narzędzia poszukiwawcze mogły dotrzeć tylko do 42% wszystkich stron, przy czym żaden nie miał "osiągu" przekraczającego 16%.

Artykuł w Nature musiał poważnie zaniepokoić Franka, który nie tylko zadał sobie - w dużej mierze daremny - trud, by doinformować społeczeństwo, a jeszcze w dodatku grozi mu za to grzywna lub areszt. Nie tylko zresztą Franka. Reakcja na publikację Lawrence'a była szybka i energiczna. Już 3 sierpnia można było przeczytać w Los Angeles Times i innych czołowych gazetach, że "firmy, które zajmują się przeszukiwaniem Internetu, użądlone krytyką, podjęły się herkulesowego zadania dokonania przeglądu bezkresnej cyberprzestrzeni". Życzę im powodzenia w tym zbożnym dziele, choć sam nie przykładam do jego sukcesu zbyt wielkiej wagi.

Należę bowiem do tych nielicznych szczęśliwców, którzy nie muszą korzystać z darmowej internetowej informacji. Większość mojej wiedzy pochodzi ze źródeł kosztownych, takich jak Lexis/Nexis czy Dialog, które - jak to mówią w Ameryce - nie zaoferują za darmo swych usług, zanim piekło nie wystygnie. Inne, natomiast, miejscowe powiedzenie brzmi: "Dostajesz to, za co zapłaciłeś". Jak powiedziałem, ja sam jestem w tym szczęśliwym położeniu, że za mój dostęp do owych kosztownych źródeł płaci firma, czyli uczelnia.

Z faktu, że Internet jest wielkim wysypiskiem (nie chcę użyć słowa śmietnik) darmowych informacji o trudnej do sprecyzowania wartości, zdają sobie oczywiście sprawę wszyscy jego użytkownicy i menedżerowie. Mówiąc bardzo delikatnie, sieć jest bardzo niejednorodna i chaotyczna i znalezienie istotnej informacji jest trudne. Tym bardziej że miliony "autorów" prezentujących w niej produkty swej twórczości robi, co może, by nas zmylić i przekonać, że - na przykład - strony z gołymi Mańkami zawierają jakieś cenne i unikalne informacje.

Być może nowa wyszukiwarka o nazwie Google (www.google.com), którą przed rokiem wprowadził do sieci Uniwersytet Stanforda, będzie tu pewną pomocą. Przy indeksowaniu stron internetowych uwzględnia ona nie tylko ich treść, lecz także jakość, starając się ją automatycznie ocenić na podstawie tego, gdzie i przez kogo strony te były wyprodukowane, oraz liczby i jakości odnośników. Nie wiem, niestety, jaki procent z 800 mln przechodzi "weryfikację" Google'a. Buszując po sieci, można jednak albo skupić się na jakości, albo na ilości. W parze to one nie chodzą. Całkiem jak z żoną - albo może być piękna, albo wierna...

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200