Przeglądarka off-line

Web Retriever przekształca ściągane strony WWW w lokalną bazę danych.

Web Retriever przekształca ściągane strony WWW w lokalną bazę danych.

Wobec istnienia sporej liczby serwerów katalogujących zasoby Internetu oraz wielu narzędzi służących do przeszukiwania sieci, nie jest zbyt trudno odnaleźć w pajęczynie WWW pożądaną informację. Problemem staje się natomiast optymalne wykorzystanie ściągniętych dokumentów. Jednym z rozwiązań są przeglądarki pracujące w trybie off-line. Ściągają one automatycznie strony WWW wg zadanego kryterium, a następnie umożliwiają ich przeszukiwanie (w czasie dogodnym dla użytkownika) na lokalnym dysku (bez konieczności pozostawania podłączonym do Internetu).

Web Retriever w wersji 3.0, autorstwa firmy Folio, wyróżnia się spośród przeglądarek off-line kilkoma właściwościami. Po pierwsze, dokonuje konwersji ściągniętych stron z języka HTML do bazy danych tworzonej na lokalnym dysku. Pozwala to na stosowanie złożonych zapytań służących do przeszukiwania pozyskanych zasobów zapisanych w formacie Folio Views. Po drugie, Web Retriever umożliwia dodawanie przypisów i edycję zapisanych w bazie rekordów. Jest to unikatowa właściwość prezentowanej aplikacji.

Ściąganie zasobów

Rozpocząłem sesję wybierając kilka internetowych i intranetowych serwerów. Poleciłem ściągnąć ich zasoby wczesnym rankiem, gdy ruch w sieci był mniejszy. Aplikacja wykonała zadanie, umieszczając ściągnięte strony wraz z grafiką w pojedynczej bazie danych. Program rozpoznał wszystkie elementy składowe stron (wliczając w to mapy

bitowe) i dokonał kompresji zgromadzonych danych (uzyskując ok. 50% oszczędności miejsca na dysku). Okazał się w tym zakresie zdecydowanie lepszy od produktów konkurencyjnych, które zapamiętywały strony w odrębnych plikach HTML (co wymagało każdorazowego ręcznego ich otwierania podczas przeszukiwania).

Narzędzie do wyszukiwania potrzebnej informacji działa wręcz doskonale. Pełna indeksacja bazy zapewnia wyjątkową szybkość działania programu - nawet przy stosowaniu skomplikowanych zapytań. W wyniku otrzymujemy nie tylko wskazówkę, gdzie znaleźć poszukiwaną informację - ale także wyniki analizy częstotliwości pojawiania się słów kluczowych w dokumentach. Następnie można dokonać przejrzenia zawartości wybranych stron. Występujące w nich słowa kluczowe, według których dokonywano przeszukania bazy, zostają wyróżnione.

Tworzenie dowiązania

Web Retriever obsługuje wewnętrzne dowiązania w ściągniętych stronach WWW także po ich konwersji na lokalną bazę danych. Ułatwia to korzystanie z zaimportowanych zasobów. Jeśli dowiązanie dotyczy serwera zewnętrznego, jego wybór powoduje automatyczne połączenie się przeglądarki. Dowiązania wewnętrzne i zewnętrzne są wyróżnione kolorami.

Najbardziej należy docenić łatwość, z jaką dokonuje się edycji bazy, zwłaszcza w połączeniu z możliwością usuwania lub wyróżniania jej fragmentów poprzez jedynie zakreślenie interesującego nas obszaru myszką. Do stron można dodawać swoje komentarze w postaci rozwijalnych okienek. Web Retriever pozwala także na tworzenie własnych dowiązań (opartych na języku zapytań) w obrębie bazy, dzięki którym pojedyncze kliknięcie myszą wywołuje ponowne przeszukiwanie. Przykładowo: stworzyłem połączenie służące automatycznemu przenoszeniu się z początku dokumentu do obszarów poświęconych interesującej mnie tematyce. Dzięki temu użytkownik korzystający z zasobów bazy za pośrednictwem lokalnej sieci nie musi tracić czasu na zaznajamianie się z nieistotnymi dla siebie informacjami lub konstruowanie własnych zapytań do bazy. Sposobem na zawężenie pola przeszukiwań jest także korzystanie z opcji, w których brane są pod uwagę wprowadzone przez użytkownika komentarze oraz wyróżnienia.

Użytkownicy zbiorowi

Web Retriever może udostępnić zasoby tworzonej przez siebie bazy aż 125 użytkownikom. Wszyscy oni mogą dokonywać równoczesnej jej edycji. Aplikacja udostępnia klientom poszczególne rekordy (obejmujące pojedyncze akapity), dzięki czemu użytkownikom nie grozi zbyt częste blokowanie dostępu przez system.

Web Retriever pozwala na zmniejszenie obciążenia sieci poprzez ściąganie stron w czasie najmniejszego ruchu. Istotną cechą aplikacji jest też kompresja danych. Najbardziej jednak docenić trzeba wyrafinowane narzędzia służące do przeszukiwania zasobów, zwalniające użytkownika z konieczności ciągłego łączenia się z Internetem bądź intranetem.