Wybór należy do ciebie

W tradycyjnym modelu za prawidłowością klasyfikacji i skutecznością dostępu do właściwej informacji stał autorytet instytucji - biblioteki. Jak zapewnić wiarygodność wyników wyszukiwania informacji pochodzących z elektronicznych zasobów sieciowych?

Wiarygodność informacji jest rzeczywiście problemem, ale jest to problem występujący w każdym zasobie informacyjnym w mniejszej czy większej skali. Trudno jest np. stwierdzić, czy jakaś informacja zawarta w dokumencie tradycyjnym (np. książce) nie jest już zdezaktualizowana - być może została zastąpiona nowszą. Problem polega również na tym, że jeżeli już dotrzemy do jakiegoś interesującego dokumentu, to opisuje on tylko stan do momentu jego opublikowania. A co było potem? Odpowiedzią na te pytanie są indeksy cytowań, takie jak Science Citation Index oraz internetowy Citeseer, dzięki którym można dowiedzieć się nie tylko, kogo cytował dany autor, ale także przez kogo był cytowany, a więc ten łańcuch powiązań działa w obie strony skali czasu.

Często twierdzi się, że biblioteki w stosunku do dokumentów tradycyjnych pełniły funkcję uwiarygodniającą - zasób biblioteczny był wiarygodny, bo odpowiednio wyselekcjonowany przez bibliotekarzy. Biblioteki oczywiście nie kupowały publikacji w oczywisty sposób nonsensownych, ale one nie stanowią aż takiego problemu w Internecie. Natomiast ani w tradycyjnej bibliotece, ani w Internecie nikt nie zapewni, że np. teorie naukowe głoszone w czyimś dziele nie zostały już dawno odrzucone i zastąpione innymi.

Przy korzystaniu z Internetu trzeba zdawać sobie sprawę, że choć jest to wielki i bardzo łatwo dostępny zasób informacji, to zarazem tylko tyle. Jak tę informację wykorzystać, jest już problemem użytkownika. Nikt mu nie powie, jak żyć ani w co wierzyć. Nie ma potrzeby tworzenia jakichkolwiek instytucji uwiarygodniających informacje w sieci. Do centralizacji informacji o zasobach może dojść w takim sensie, że w wyniku konkurencji pomiędzy wieloma narzędziami wyszukiwawczymi na rynku pozostanie kilka największych i najlepszych (np. AltaVista i Google, żeby wspomnieć o znanych antagonistach). Jest to o tyle niebezpieczne, że wtedy ktoś mógłby się pokusić o selekcjonowanie informacji ze względów pozamerytorycznych, np. komercyjnych. Pozostaje nadzieja w tym, że Internet będzie w miarę niekontrolowanym środowiskiem i zawsze będą mogły pojawić się narzędzia alternatywne.

Jaką rolę widzi Pan dla nowych technologii typu P2P? Czy pomogą one dotrzeć do indywidualnych, niedostępnych dotychczas zasobów, np. danych na moim notebooku klasyfikowanych wg mojego schematu?

Dobrze by było, gdyby istniało narzędzie, które przetłumaczy pana klasyfikację na inną, powszechnie znaną, która będzie pełniła rolę pośrednika, albo po prostu wprost na moją. Może w tworzeniu takich narzędzi pomocne okaże się stworzenie ontologii ogólnych? Obecnie powstające ontologie dotyczą zazwyczaj tylko pojedynczych zastosowań (na ogół bardzo wąskich, opisujących np. pojedyncze zastosowania biznesowe czy e-handlu).

Trudno mi wyobrazić sobie współpracę między nimi, o ile nie będą one w warstwie semantycznej zgodne z jakąś strukturą wyższego rzędu (być może np. ontologią typu CYC, tj. wielką bazą wiedzy, liczącą ponad 120 tys. terminów i 1,6 mln faktów oraz powiązań występujących pomiędzy tymi terminami). Obawiałbym się jednak takiej twórczości (typu tworzenia lokalnie wykorzystywanych klasyfikacji itp.), bo wbrew pozorom to także trzeba umieć zrobić.

Możliwy jest jeszcze inny model zachowań informacyjnych. Być może użytkownicy będą starali się ograniczyć swój dostęp do informacji do zestawu wybranych, dobrze znanych i dostarczających przydatnych usług serwisów. Tak było przecież z tradycyjnymi bibliotekami: nikt nie zapisywał się do wszystkich bibliotek, jakie spotykał po drodze, lecz wybierał jedną czy dwie. Podobnie jest z kablówkami - nikt nie ogląda wszystkich kanałów, zazwyczaj wybiera się kilka najbardziej przydatnych, resztę odwiedzając sporadycznie.

Sieci peer-to-peer kojarzą mi się z globalną wioską. Są jakby odpowiednikiem odwiedzania sąsiadki w celu pożyczenia soli (cukru, chleba...). Chodzi bardziej o sam bezpośredni kontakt z inną osobą i jej zasobami (a więc też i z nim samym, w myśl zasady: jestem taki, jakie są moje informacje, które gromadzę i przetwarzam). Tu bym widział przyszłość sieci peer-to-peer, a nie w ułatwianiu dostępu do informacji, bo jeżeli będę chciał coś konkretnego udostępnić, to nie ma problemu z umieszczeniem tego na serwerze.

Na czym polegają nowe standardy klasyfikacji informacji, takie jak semantyczny Web, ontologie, metadane, Dublin Core? Czym różnią się one od tradycyjnych schematów klasyfikacyjnych, jakie nowe możliwości otwierają?

Bibliotekarze są przyzwyczajeni do tego, że mają ścisłą kontrolę nad zasobami. Każda biblioteka musi być zarządzana zgodnie ze ściśle określonymi zasadami. W przeciwnym razie natychmiast zamienia się w bałagan, z którego nie ma żadnego pożytku. Dlatego bibliotekarze żywią do Internetu uczucia dwuznaczne: z jednej strony zafascynowani są niezwykłą łatwością dostępu do niewyobrażalnej liczby dokumentów, z drugiej strony, niepokoją się niemożnością zarządzania tymi zasobami. W dodatku podświadomy niepokój budzą obawy o zastąpienie bibliotek (i bibliotekarzy) Internetem, bez względu na to, co by to miało znaczyć.

Zarządzanie zasobami w bibliotekach zawsze polegało na tworzeniu surogatów gromadzonych dokumentów, na których można było operować bez potrzeby dostępu do samych zbiorów. Do tego służą katalogi, bibliografie, inwentarze, indeksy i inne spisy. Pozwalały one na lokalizację dokumentu w magazynach. Na podobnej zasadzie opiera się pomysł tworzenia i wykorzystywania metadanych, czyli surogatów dokumentów elektronicznych, dołączanych do dokumentów internetowych lub funkcjonujących poza nimi (ale także w sieci). Takie metadane powinny być tworzone przez autorów obiektów w Internecie lub wyspecjalizowane instytucje.

Można założyć, że jeżeli komuś będzie zależeć na rozpowszechnieniu informacji o istnieniu i zawartości dokumentu, to będzie tworzył dla niego metadane. W efekcie cenne dokumenty będą metadane posiadały. Mam na myśli przede wszystkim zastosowania, do których Internet tak naprawdę pierwotnie został stworzony, tzn. komunikację naukową.


TOP 200