Wiarygodność w sieci

Internet staje się coraz ważniejszym medium pozyskiwania informacji, a z uwagi na jego multimedialność oraz integracyjną rolę z czasem będzie najważniejszym. Bardzo istotne staje się więc pytanie o jakość zawartych w nim danych.

Internet staje się coraz ważniejszym medium pozyskiwania informacji, a z uwagi na jego multimedialność oraz integracyjną rolę z czasem będzie najważniejszym. Bardzo istotne staje się więc pytanie o jakość zawartych w nim danych.

Czy można powiedzieć, że Internet kłamie? Z pewnością nie, w każdym razie nie bardziej niż rzeczywistość, której sieć jest odbiciem. Ciągle jednak stawiamy sobie zasadne pytanie: czy WWW to Wszechnica Wartościowej Wiedzy, czy raczej Worek Wszelakich Wiadomości?

Przyjrzyjmy się następującemu mechanizmowi. Dzięki Internetowi świat błyskawicznie obiega wiadomość o potwierdzeniu przez wysłaną tam ekipę geologiczną występowania złóż złota w Indonezji. Jedną z naturalnych konsekwencji tego faktu jest gwałtowny wzrost notowań pewnej spółki giełdowej w USA, mającej prawa eksploatacji badanych zasobów naturalnych. Wkrótce jednak informacje okazują się nieprawdziwe, a cała operacja była sfingowana jedynie po to, aby dać nieuczciwy zarobek kilku właścicielom niesławnych akcji.

Kto zawinił? W końcu wiadomość była powtarzana przez poważne agencje prasowe i renomowane stacje telewizyjne. Owszem, ale któraś z nich była pierwszą "złapaną na haczyk" fałszywej informacji z niewiarygodnego źródła. Reszta potoczyła się na zasadzie samonapędzającej się, informacyjnej kuli śnieżnej. Potem już tylko "wszyscy cytowali wszystkich“.

Z podobnymi sytuacjami, w mniej ekstremalnych wersjach, mamy do czynienia niemal codziennie. A przecież do kanonu dziennikarskiego wykształcenia należy zasada: jeżeli dwa źródła podają taką samą informację, to przynajmniej jedna z nich jest prawdziwa. Oznacza to, mówiąc mniej dowcipnie, że jedno źródło informacji to za mało, a jeśli i drugie budzi wątpliwości, to trzeba sięgnąć do kolejnych. Mimo wszystko podstawowy problem pozostaje otwarty: jak oceniać wiarygodność internetowej informacji i jakie stosować przy tym kryteria?

Rzeczywista wirtualność

Pewnym zaskoczeniem może być twierdzenie, że kryteria oceny wiarygodności treści internetowych mogą być podobne do stosowanych w świecie bardziej klasycznych mediów, np. papierowych. Skąd wiemy, co sądzić o wiarygodności jakiejś książki? Wiele osób, spontanicznie i słusznie, odpowie, że "w realu jest to łatwiejsze", że z każdą książką skojarzony jest numer ISBN, nazwa wydawnictwa posiadającego "fizyczny adres", a więc jednoznacznie zdefiniowane parametry materialne. Tymczasem każda (wirtualna) treść internetowa ma także konkretne parametry materialne, skojarzone z nią, zupełnie zwyczajne, pocztowe adresy i nazwiska rzeczywistych osób. Nie istnieje bowiem informacja "jako taka", bez jej materialnego nośnika, który gdzieś się przecież znajduje i ktoś ponosi za niego odpowiedzialność. Wirtualność ma zatem także swój, jak najbardziej rzeczywisty, wymiar.

Cóż jednak wynika z tak ogólnego twierdzenia? Powiedzmy, że trafiamy na stronę budzącą wątpliwości. Do kogo mamy skierować nasze zastrzeżenia i pytania? Gdzie pracuje Szanowny Pan Prezes Internetu? Nigdzie i... wszędzie - tam gdzie dociera sieć, którą współtworzą jej instytucjonalni i prywatni użytkownicy, zarówno komercyjni, jak i publiczni na całym świecie. Adres "Prezesa Internetu" jest adresem rozproszonym.

Tyle teoria. W praktyce bowiem, wśród niemal miliarda internautów, są równi i równiejsi. Nie musi w tym być zresztą nic zdrożnego. Tak było od początku - rzekoma anarchiczność Internetu to tylko kolejny mit tworzony przez tych, którzy słabo znając się na technice z zapałem poświęcają się jej krytykowaniu. Internet nie mógłby istnieć bez rozbudowanych hierarchii i precyzyjnych ustaleń co do reguł jego funkcjonowania.

Inna sprawa, że owe hierarchie często mają charakter sieciowy, a regulacje bywają bardzo elastyczne, nie w sferze standardów technicznych, ale użytkowej czy prawnej. Internet to fenomen prawdziwie globalny, niewiele robiący sobie z barier celnych czy granic i nawet jeśli 190 krajów ONZ godzi się na jakieś ustalenia w tej mierze, to zawsze może znaleźć się ktoś, kto je absolutnie zignoruje, instalując swój serwer gdzieś na wyspach Hula-Gula. Jeśli zatem ktoś jest zwolennikiem modnych teorii deterministycznego chaosu, to w paradygmacie funkcjonowania Internetu znajdzie do nich wdzięczny punkt odniesienia.

Prezydent Internet

Ów samoregulacyjny paradygmat tworzony był, rzecz jasna, w początkach Internetu, w niewielkiej grupie naukowców i praktyków, którym niepotrzebny był świat polityki i prawa. Wystarczyło przekonanie, że "kod jest prawem". Każdy, kto tej metareguły nie przestrzegał, sam automatycznie wykluczał się z "plemiennej" cyberspołeczności, która obywała się bez "internetowego państwa".

W początkowej fazie rozwoju Internetu nie zastanawiano się np. nad tym, że ktoś może wysyłać pocztę, sygnując ją nie swoim adresem. Z całą pewnością nie zastanawiał się nad tym Leonard Kleinrock, kiedy 2 września 1969 r., z pomocą dźwigu (!), instalował na Uniwersytecie Kalifornijskim (UCLA) "szafę" o wymownej nazwie Interface Message Processor (IMP). IMP stał się pierwszym węzłem pierwszej komputerowej sieci na świecie - ARPANET. W końcu 1969 r. węzłów było cztery, a dwa lata później - piętnaście, co pozwoliło na połączenie najważniejszych ośrodków badawczych USA.

Czy dzisiejsza miliardowa cyberspołeczność może funkcjonować w oparciu o reguły z tamtych pionierskich czasów? Z pewnością nie. Panuje nawet dość powszechne przyzwolenie na stworzenie czegoś w rodzaju cyberpaństwa, które pozwoli na efektywniejsze rozwiązywanie problemów Internetu. Różnice zaczynają się dopiero, gdy dochodzi do dyskusji na temat struktury i kompetencji takiej organizacji.

Kluczową kwestią jest model zarządzania domenami internetowymi, który dziś strategicznie uzależniony jest od korporacji ICANN (Internet Corporation for Assigned Names and Numbers). Ta firma non-profit została powołana do życia przez rząd Stanów Zjednoczonych w 1998 r. w przekonaniu, że prywatne przedsiębiorstwo lepiej potrafi zarządzać Internetem niż państwowa administracja. Nadal jednak poważne wpływy w tym obszarze zachowało amerykańskie Ministerstwo Handlu DoC (Department of Commerce). To właśnie jest solą w oku wielu rządów, głównie z krajów rozwijających się, które chętniej widziałyby kompetencje ICANN usytuowane w ramach Międzynarodowej Unii Telekomunikacyjnej ITU, która z powodzeniem, od półtora wieku, na arenie międzynarodowej koordynuje przydziały częstotliwości czy regulacje będące podstawą działania operatorów telefonicznych (numery kierunkowe). ITU jest obecnie wyspecjalizowaną agendą ONZ i wywodzi się z Międzynarodowego Związku Telegraficznego założonego w roku 1865.

Domenowe Who Is Who

W Internecie kwestia przyporządkowania nazw i "numerów", czyli adresów IP, ma fundamentalne znaczenie. Ten, kto kontroluje ten mechanizm, kontroluje w znacznej mierze jeden z ważnych wymiarów całej sieci. Wystarczy wskazać na kwestie nazw domen tzw. pierwszego poziomu (TLD). Ile ma ich być i w jakiej postaci? Niebagatelne znaczenie polityczne mają też skróty domen krajowych (ccTLD). Niektórzy nawet stawiają urzędnikom ICANN zarzut posiadania zbyt wielkiej władzy w tym zakresie wynikającej np. z możliwości "wyłączenia" określonego kraju z internetowej wspólnoty. W rzeczywistości na tym tle nie zanotowano żadnych istotnych konfliktów, a sensacyjne doniesienia dotyczące "znikania" określonych domen okazywały się zwykłymi, krótkotrwałymi problemami technicznymi.

Jednocześnie władza ICANN kończy się tam, gdzie zaczynają się kompetencje wyspecjalizowanych instytucji i firm lokalnych, np. tzw. zarządców krajowych. W Polsce kluczową rolę odgrywa tu NASK, czyli Naukowa i Akademicka Sieć Komputerowa. Wystarczy zapoznać się z regulaminem na stroniehttp://www.dns.pl , aby zobaczyć, jakim zasadom podlega rejestracja naszych krajowych domen, tj. kończących się literkami "pl", zarówno funkcjonalnych (np. info.pl), jak i regionalnych (np. bydgoszcz.pl). Możemy także skorzystać z internetowego serwisu WHOIS i dowiedzieć się, że właścicielem przykładowej domeny gda.pl jest Politechnika Gdańska, a szereg dalszych informacji oferowanych przez serwis pomoże nam w formalnej weryfikacji wiarygodności stron internetowych.

Inne proste serwisy sieciowe można sprawdzić przeglądając indeksy stron (o ile możliwe) zapytaniem z Google'a typu "index of +site:" czy przez zapoznanie się z zawartością HTML-Header, np. za pomocą Live HTTP Headers. Możemy także próbować dowiedzieć się więcej o poszczególnych plikach oferowanych na danej stronie. Na przykład dla plików JPEG freeware'owe przeglądarki typu IrfanView pozwolą na dotarcie do metadanych (teksty opisujące plik, standardowo niewidoczne), a dokumenty przygotowane edytorem mają (pożądane lub "zdradliwe") opcje rejestracji zmian.

Web 3.0

Przykładem strony ze szczególnymi mechanizmami sprzyjającymi weryfikacji wiarygodności jest Wikipedia. Mamy tu do czynienia nie tylko z oficjalną treścią haseł (artykułów), ale także z dyskusjami ich dotyczącymi. Jednocześnie istnieje możliwość sprawdzania zmian treściowych artykułu w czasie, tzn. dotarcia do postaci tekstu, który był gdzieś cytowany. Jest bowiem jasne, że cytowanie źródła internetowego bez podania precyzyjnej daty (także godziny) niewiele daje wobec dynamiki treści elektronicznych. Odrębną kwestią jest dopuszczalność cytowań internetowych w pracach naukowych - są profesorowie, którzy tego wręcz zabraniają, ale w ten sposób nie da się powstrzymać rozwoju nowych mediów. Ważne jest raczej, czy cytowana strona może być uznana za wiarygodną.

Ten problem ciągle czeka na rozwiązanie, także od strony czysto formalnej. Oto w początkach Internetu, Web 1.0, istniały nawet specjalne wydawnictwa w postaci książek teleadresowych, będących pierwowzorami współczesnych wyszukiwarek (Web 2.0), które imponują parametrami szybkościowo-ilościowymi, ale niewiele mówią o jakości dostarczanych treści. Kolejna faza rozwoju Internetu, Web 3.0, powinna w najbliższych kilku, kilkunastu latach usunąć tę barierę dostępu do informacji, wykorzystując powstające już sieci semantyczne i ontologiczne bazy danych.

Być może w nowych wersjach wyszukiwarek warto byłoby także przyjąć standard systemu referencyjnego stron, oceniający ich wiarygodność, co pozwoliłoby na ich łatwiejszą selekcję. Oczywiście nie chodzi przy tym o punktową ocenę zawartości strony, bo jest to w ogólności niemożliwe i subiektywne, ale o swego rodzaju certyfikat spełnienia pewnych wymogów formalnych i założonych kryteriów, np. zawartość "stopki redakcyjnej", względnie znaczniki i certyfikaty dobrowolnej przynależności strony do różnych systemów jej oceny, przyznawane przez wyspecjalizowane organizacje.


TOP 200