Szukajcie, może znajdziecie

Przejście ze świata dokumentów papierowych do elektronicznych baz i repozytoriów było procesem gwałtownym. Patrząc z perspektywy czasu trwania ery papierowych archiwów, stało się to właściwie nagle. Tak szybko zachodzące zjawiska mogą powodować zerwanie pewnej ciągłości - powstania czegoś nowego, co nie jest kontynuacją starego. Archiwum elektroniczne nie jest kolejną zmianą formy gromadzenia informacji - to zmiana paradygmatu.

Przejście ze świata dokumentów papierowych do elektronicznych baz i repozytoriów było procesem gwałtownym. Patrząc z perspektywy czasu trwania ery papierowych archiwów, stało się to właściwie nagle. Tak szybko zachodzące zjawiska mogą powodować zerwanie pewnej ciągłości - powstania czegoś nowego, co nie jest kontynuacją starego. Archiwum elektroniczne nie jest kolejną zmianą formy gromadzenia informacji - to zmiana paradygmatu.

Przechowywanie dokumentów w postaci elektronicznej jest prostsze i znacznie tańsze niż w przypadku archiwów papierowych. Gdy coś jest elektronicznie, łatwo to mnożyć, dokładając nowe elementy i wiążąc je ze starą strukturą, czego najlepszym przykładem jest eksplozja Internetu. Tymczasem archiwa papierowe mogły wzrastać jedynie liniowo. Z dokumentami papierowymi była związana wiedza o organizacji informacji, dzięki której łatwo było ogarnąć całość zawartości archiwów.

Teoretycznie repozytoria elektroniczne łatwo jest przeszukiwać, np. wystarczy kilka chwil, by znaleźć wszystkie wystąpienia danego słowa w dokumencie, a to samo zadanie wymagałoby wielu minut czy godzin w przypadku analizy dokumentu drukowanego, a i tak brakowałoby pewności, czy któregoś nie przeoczono. Jednak ta łatwość wyszukiwania jest tylko pozorna. To tylko blichtr elektronicznego archiwum. Jego rzeczywista wartość zależy od tego, w jaki sposób zorganizowano zgromadzoną informację. Najlepszym przykładem jest oczywiście Internet.

Sfrustrowany użytkownik, głupia wyszukiwarka i morze informacji

Współcześni twórcy elektronicznych repozytoriów wyrzucili do kosza cały dorobek specjalistów z zakresu organizacji informacji, zastępując go małym okienkiem formularza . Do konieczności umieszczenia tego okienka sprowadza się cała wiedza o organizacji informacji twórców wirtualnych serwisów i zasobów informacyjnych. Co więcej, w przypadku ponad 99% internetowych serwisów ich twórcy poszli po linii najmniejszego oporu - zastosowali narzędzia wyszukiwania, które standardowo były dołączone do wykorzystywanych przez nich serwerów WWW czy baz danych.

Zaś twórcy większości wyszukiwarek zdają się zakładać, że użytkownicy są ekspertami w przeszukiwaniu komputerowych zbiorów danych. Niestety jest to całkowicie błędne założenie. Najłatwiej jednak winą za niepowodzenia obarczyć użytkownika. Bo głupi i niedouczony, nie umie więc sobie poradzić. A przecież niedorzeczne jest wymaganie, by użytkownik przechodził specjalnie szkolenie w celu zdobycia umiejętności przeszukania zawartości serwisu WWW czy też dokonania zakupów w internetowym serwisie (a powinni to wiedzieć twórcy serwisów handlu elektronicznego, bo jeśli użytkownik nie potrafi czegoś odnaleźć, to z całą pewnością tego nie kupi).

Języki (składnie) zapytań powielają wprost budowę języków programowania i konstrukcję zapytań bazodanowych, które przecież były opracowywane tak, by je łatwo interpretował komputer. W efekcie trudno użytkownikom formułować zapytania i nie można się dziwić opinii, że oceniają system jako nieprzyjazny.

Okienka "Wyszukiwanie", stanowiące dzisiaj obowiązkowy element każdego serwisu, na ogół więc nie spełniają oczekiwań użytkownika. Zamiast radykalnie skrócić drogę poszukiwań, wzmacniają poczucie zagubienia podając zbyt wiele odpowiedzi, do tego zbyt mało związanych z tym, czego użytkownik rzeczywiście szuka. W poszukiwaniu wg słów kluczowych współczynnik poziomu sygnału do szumu jest dalece nie satysfakcjonujący.

Z tymi samymi problemami, choć oczywiście na nieco inną skalę, ma do czynienia każde przedsiębiorstwo, które dysponuje rozbudowanymi zasobami informacyjnymi. Podobne problemy może mieć każdy użytkownik, który gromadzi dane w bazach na własnym komputerze. To problemy odszukania i dostępu do informacji zgromadzonej w systemie. Użytkownik często wie, że daną ma informację. Nie wie jedynie, jak do niej trafić. Częściej szuka informacji, które potencjalnie mogą w nim być. Dysponowanie dużymi bazami informacji nie oznacza, że użytkownik będzie w stanie z nich skorzystać, iż w ogóle będzie miał świadomość, że określone dane istnieją. W efekcie często zaprzepaszcza się to, co już zostało zrobione. Użytkownicy często wolą na nowo "wyprodukować" dane informacje niż ich szukać, nie mając pewności, że rzeczywiście je znajdą, bądź tylko sądząc, że szu-kanie zajmie więcej energii i czasu niż ponowne odtworzenie szukanych informacji. Sytuacja taka niesie poważne zagrożenia. Nie tylko nie wykorzystuje się posiadanego potencjału do podniesienia produktywności, lecz również działa się po omacku, często dla znalezienia rozwiązań, które już dawno zostały opracowane.

Pewność i zaufanie

Jednym z możliwych rozwiązań problemów jest wykonanie "kroku wstecz", czyli powrót do manualnego organizowania informacji przez człowieka. To on buduje katalogi, indeksuje oraz "trenuje" wyszukiwarkę i bazę danych. W przyszłości być może tę rolę będzie mogło pełnić oprogramowanie zawierające algorytmy sztucznej inteligencji. Dzisiaj jednak człowiek nadal jest niezastąpiony w sensownym segregowaniu zbiorów.

Gwarantowanie wiarygodności zasobów internetowych przez zespół specjalistów leży u podstaw tworzenia tzw. portali jakościowych. Przykładem portalu jakościowego jest angielski SOSIG. Prawdopodobnie w najbliższym czasie ich liczba znacznie się zwiększy. Będą coraz bardziej potrzebne ludziom poszukującym pewnych, sprawdzonych informacji.

"Trzeba dokonać jakościowej kwalifikacji zasobów internetowych" - uważa Jadwiga Woźniak z Instytutu Informacji Naukowej i Studiów Bibliologicznych Uniwersytetu Warszawskiego. - "Nie chodzi tutaj o jakąkolwiek cenzurę, lecz ocenę wartości merytorycznej poszczególnych źródeł informacji. Nie dotyczy to wszystkich stron WWW, ale na pewno musi być zrobione w odniesieniu do tych, które mają charakter naukowy lub popularnonaukowy".

W Internecie, w przeciwieństwie do tradycyjnych wydawnictw, brakuje pewnych i niezawodnych, wypracowanych przez lata i sprawdzonych, metod wartościowania. Za publikacje w czasopismach biorą odpowiedzialność ludzie, którzy są gwarantami rzetelności prezentowanych informacji - redaktorzy, wydawcy, autorzy, recenzenci, konsultanci itp. "Jeżeli w renomowanym czasopiśmie przeczytam coś, co brzmi nawet najbardziej nieprawdopodobnie i niewiarygodnie, to wiem, że to zostało sprawdzone i że mogę na tej informacji polegać. Internet nie dopracował się jeszcze takich mechanizmów tworzenia gwarancji wobec swoich zasobów" - dodaje Jadwiga Woźniak.

Niestety, okazuje się, że nie nadążamy za rozwojem elektronicznych zasobów. Najobszerniejszy obecnie w Internecie katalog zasobów Yahoo! obejmuje jedynie ułamek procenta wszystkich stron WWW! Problem w tym, że Internetu nie da się do końca dobrze skatalogować i poindeksować post factum, czyli na podstawie analizy istniejących stron. Brakuje wstępnego katalogowania stron przez ich twórców, tak aby te rozproszone informacje można było później zebrać w większych katalogach.

Naczelną zasadą, jaka powinna przyświecać tworzeniu każdego repozytorium informacyjnego, jest wstępne przygotowanie wprowadzanych danych w taki sposób, aby później było można łatwo je przeszukiwać. Przede wszystkim informacje powinny być obudowywane znacznikami. Powinny być także tworzone in- teligentne indeksy na podstawie rzeczywistej zawartości i wagi rekordu z informacją. Dokumenty trzeba dostosowywać do szablonów, czyli wstępnie klasyfikować ich rodzaj i strukturę. Chodzi tutaj przede wszystkim o uwzględnienie kontekstu i tzw. zdrowego rozsądku (common sense) - czynników, z którymi automatyczne analizatory mają największe trudności. Wymagają one bowiem przede wszystkim myślenia.

Tworzenie wartościowych zbiorów wydatnie ułatwia stosowanie specjalizowanego oprogramowania. Niestety, nie jest ono tanie. Licencja na profesjonalne oprogramowanie do wyszukiwania informacji (takich firm, jak Cypress, Excalibur Technologies czy Invention Machine) kosztuje 100-200 tys. USD (podobne kwoty trzeba wyłożyć w przypadku najbardziej znanych internetowych szperaczy). Drugie tyle należy przeznaczyć na integrację tego oprogramowania z posiadanymi bazami danych. W przypadku zaawansowanych systemów zarządzania dokumentami koszt wdrożenia może wynieść nawet kilka milionów dolarów.

Dezinformacyjny wyścig zbrojeń

Jedną z przyczyn chaosu informacyjnego w sieci jest obecnie walka o klienta. Twórcom serwisów internetowych zależy przede wszystkim na jak największej liczbie odwiedzin. W celach reklamowych prowadzą niejednokrotnie do zamierzonej dezorientacji użytkowników. W opisie dokumentu HTML świadomie wpisują słowa kluczowe, zapewniające umieszczenie ich w jak największej liczbie wyników wyszukiwań. Użyte słowa często nie mają nic wspólnego z zawartością serwisów. Najważniejsze, aby gwarantowały jak największą liczbę trafień na ich strony.

W niektórych poradnikach dla webmasterów podawane są nawet specjal- ne porady, co zrobić, aby np. po wpisaniu jakiegokolwiek zapytania w wyszukiwarce, w odpowiedzi pojawiało się dowiązanie do naszej strony. Jednym ze sposobów może być dobre poznanie zasad funkcjonowania danej wyszukiwarki i dopasowanie się do jej metody "obrabiania" sieciowych zasobów. Nie jest to proste, bowiem wyszukiwarka wyszukiwarce nierówna. Każda ma swoją specyfikę i własny profil.

Więcej połączeń, więcej odpowiedzialności

Troskę o rzetelność informacji zawartych w Internecie może wymusić wzrost liczby osób poszukujących wiarygodnych informacji za jego pośrednictwem. "Będzie rosło znaczenie portali specjalistycznych" - uważa Piotr Bierczyński z Wojewódzkiej i Miejskiej Biblioteki Publicznej w Łodzi, przewodniczący Komisji Opracowania Rzeczowego Zbiorów przy Zarządzie Głównym Stowarzyszenia Bibliotekarzy Polskich. "Ich twórcy będą musieli je tak konstruować, by dać użytkownikowi gwarancję dotarcia do informacji kwalifikowanej, do informacji najwyższej jakości z punktu widzenia danej dziedziny wiedzy, szczegółowego zagadnienia, tematu. To będzie wymagało przede wszystkim specjalistycznej wiedzy selekcjonerów zasobów internetowych" - dodaje. Podział wiedzy w Internecie musi być, jego zdaniem, inny niż w przypadku zawartości księgozbiorów. Należy jednak wykorzystywać dotychczasowy dorobek klasyfikacji piśmiennictwa wypracowany i stosowany w bibliotekarstwie i informacji naukowej. Nie ma jeszcze gotowych ogólnych wzorców klasyfikacyjnych przydatnych do tworzenia portali. To dopiero powstaje i to oddolnie, indywidualnie.

Wydawcy portali niechętnie mówią o zasadach tworzenia struktury swoich katalogów WWW. Dobry, spełniający oczekiwania internautów, pomysł na prezentację poszczególnych dziedzin wiedzy ma w tym przypadku także wymiar sukcesu handlowego. Im lepiej, bardziej przejrzyście opracowany, tym większe szanse na pozyskanie większej liczby użytkowników.

Monika Niemirowska z Instytutu Bibliotekoznawstwa i Informacji Naukowej Uniwersytetu Jagiellońskiego, zatrudniona do układania katalogu stron WWW dla portalu Onet.pl, napisała w Elektronicznym Biuletynie Informacyjnym Bibliotekarzy (EBIB), że praca redaktora katalogu internetowego ma zupełnie inny charakter niż praca bibliotekarza, ale cel jest ten sam: dostarczenie użytkownikowi potrzebnej mu informacji. Podstawowe różnice widzi w tym, że w portalu trzeba znaleźć taką formułę kategoryzacji, która będzie przede wszystkim uwzględniała potrzeby adresata katalogu. W przypadku Onetu jest to w zasadzie każdy korzystający z Internetu. Innym problemem jest duża płynność zawartości sieci, co zmusza do nieustannego aktualizowania opisów i odsyłaczy. Trzeba poradzić sobie też z nierówną wagą materiałów informacyjnych.

Monika Niemirowska sądzi, że wiarygodność informacji w postaci elektronicznej będzie pochodną wiarygodności instytucji odpowiedzialnej za jej wydawanie - podobnie jak w przypadku publikacji tradycyjnych. Od sposobu działania poszczególnych firm - dostawców treści internetowych - będzie zależało, czy staną się dla internautów godne zaufania.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200