Internet - lokalny czy globalny

Czy jest możliwe rozwiązanie konfliktu między szybko rosnącymi wymaganiami użytkowników a ograniczonymi prędkościami transmisji danych w sieciach rozległych? Jak zapewnić dostęp do dużych banków danych tysiącom osób jednocześnie? Czy infostrady dotrą do przeciętnego użytkownika?

Czy jest możliwe rozwiązanie konfliktu między szybko rosnącymi wymaganiami użytkowników a ograniczonymi prędkościami transmisji danych w sieciach rozległych? Jak zapewnić dostęp do dużych banków danych tysiącom osób jednocześnie? Czy infostrady dotrą do przeciętnego użytkownika?

Te i podobne pytania można znaleźć w większości publikacji poświęconych Internetowi i innym sieciom rozległym. Znalezienie właściwej, satysfakcjonującej użytkowników odpowiedzi jest warunkiem przetrwania i dalszego rozwoju sieci. Graficzny, łatwy w użyciu interfejs użytkownika staje się niezbędnym elementem oprogramowania, a najczęściej wykorzystywany eterminal VT-100 sprawia wrażenie eksponatu muzealnego. Powstają nowe programy - zazwyczaj pracujące pod MS-Windows - ale zasadniczą sprawą pozostaje efektywny transport samych danych. O ile przesłanie kilkuset stron tekstowej bazy danych nie obciąża sieci nadmiernie, to już te same kilkaset stron wypełnionych ilustracjami, grafiką czy też zawierających animacje i fragmenty wideo stanowi poważne zagrożenie dla wydajności najszybszych nawet łączy. Konieczne staje się wypracowanie nowych, efektywniejszych technik przesyłania informacji.

Kompresja danych

Kompresja danych wydaje się naturalnym rozwiązaniem problemu - istnieją już algorytmy pozwalające "zagęszczać" grafikę czy cyfrowy sygnał wideo w stosunku nawet 1:100. Należy jednak pamiętać, że aby mogły one pracować z zadowalającą prędkością, potrzebne są naprawdę silne komputery - zwykły PC sobie z tym nie poradzi. Na szczęście, odbiorca skompresowanej transmisji może korzystać ze zwykłych, popularnych komputerów. Produkowane są także specjalne układy scalone, realizujące kompresję i dekompresję sprzętowo - jak do tej pory jednak największym ich odbiorcą jest wojsko, a ceny powodują, że nie jest to rozwiązanie dla każdego. Oczywiście, jak zawsze należy liczyć na rozwój technologii, a zwiększone zapotrzebowanie i wiążąca się z nim masowa produkcja powinna doprowadzić do zmniejszenia kosztów.

Rozproszenie zasobów i replikacja danych

Rozmieszczenie zasobów i replikacja danychoraz umieszczenie danych jak najbliżej końcowego użytkownika jest jednym z najprostszych i najbardziej efektywnych sposobów poprawiania przepustowości sieci. Jeśli przyjrzymy się rozkładowi zapytań skierowanych do jakiejś bazy danych (centralnego serwera dostępnego z całej sieci), to zauważymy, że użytkownicy mają skłonność do zadawania bardzo podobnych pytań dotyczących podobnych fragmentów bazy. Najprostszy przykład - baza danych zawierająca informacje o firmach z całego świata, zlokalizowana, powiedzmy w USA. Kto najczęściej korzysta z danych o firmach polskich? - inne firmy polskie. Jeśli teraz wydzielimy ten fragment bazy i umieścimy go na serwerze "bliżej klienta", czyli w Polsce, to automatycznie poprawi się cały system - odpowiedzi na pytania będzie można otrzymać szybciej, mniej się zapłaci za połączenia długodystansowe, zwolni się miejsce dla innych klientów i innych zapytań.

Bazy danych na dyskach CD-ROM

Podobnym pomysłem jest umieszczenie rzadko aktualizowanych baz danych na dyskach CD-ROM - informację mamy pod ręką, łatwą do przeszukania, tanią (w biznesowych serwisach informacyjnych on-line płaci się za czas pracy oraz za ilość "ściągniętych danych").

Oczywiście, do tego wszystkiego potrzebne jest jeszcze oprogramowanie "synchronizujące" zasoby bazy głównej, baz rozproszonych i stałych zasobów CD-ROM. Zapewnia ono aktualność i precyzję podawanych informacji, przy jednoczesnej redukcji kosztów dostępu do danych. Najpierw sprawdzamy zawartość CD-ROM-u, jeśli tam nic nie ma lub są informacje przestarzałe to przeglądamy lokalną (krajową) bazę danych, jeśli i tam nie znajdziemy, potrzebnych informacji, to dopiero wtedy sięgamy do centralnego serwera.

Myślę, że dobrym przykładem efektywności replikacji zasobów może być biblioteka programów typu shareware gromadzona od wielu lat na serwerach simtel.army.mil i cica.indiana.edu (oba w USA). Około 30% transferu danych realizowanego przez moich klientów (Internet Komercyjny w Polsce) dotyczy właśnie tych bibliotek - zawierają one naprawdę setki pożytecznych programów i narzędzi. W Europie istnieje kilka mirror-sites tych serwerów (na przykład nic.funet.fi w Finlandii), można je znaleźć również w Polsce (Kraków). Jednak bez względu na to, z którego z nich klient korzysta - zajmuje połączenie naszego serwera ze światem, blokuje również innym użytkownikom połączenie modemowe. Kopie zasobów serwerów SIMTEL i CICA (na dyskach CD-ROM) umieściliśmy na pomocniczym serwerze (dostępnym przez FTP). Bardzo szybko klienci przekonali się, że lokalny dostęp jest znacznie szybszy (14,4 Kbps zamiast najczęściej spotykanych 1-2 Kbps) i, co się z tym wiąże - tańszy. Oczywiście w dalszym ciągu mogą oni korzystać z "oryginalnych" serwerów i mieć dostęp do najnowszych, gromadzonych tam programów.

Podobne problemy występują również na wyższym poziomie - np. administracja państwowa musi rozstrzygnąć gdzie i w jakiej formie przechowywać dane z systemów informacji przestrzennej GIS (najkrócej mówiąc - mapy cyfrowe). Są to ogromne zbiory danych, dość często aktualizowane. Jeśli zostaną umieszczone na centralnym serwerze, to należy się liczyć z tym, że wydobycie z niego informacji i przesłanie go siecią komputerową do miejsca przeznaczenia może trwać bardzo długo - nawet kilka dni. Wystarczy bowiem, by do bazy danych napłynęło jednocześnie kilkanaście czy kilkadziesiąt zapytań o zbiory danych liczące wiele megabajtów - proszę sobie policzyć, ile czasu zajmie przesłanie ich w "teren" po liniach 9,6 Kbps... Jeśli natomiast dane zostaną rozmieszczone w ośrodkach lokalnych, a te, które zmieniają się rzadko - na dyskach CD-ROM, to czas odpowiedzi systemu powinien znacznie się zmniejszyć - poza przypadkami, gdy urząd w Szczecinie pyta o dane z Rzeszowa, ale na to już nie ma rady.

World Wide Web

Doskonałym narzędziem do budowania prostych w obsłudze serwisów informacyjnych jest World Wide Web - program łączący "okienkowy" styl pracy, hipertekstowe wyszukiwanie danych i powiązań między nimi oraz dostęp do całego świata poprzez Internet. Szczególnie cenną cechą WWW jest jego skalowalność - potrafi pracować zarówno w trybie graficznym (tekst, ilustracje, dźwięk, nawet animacje), jak i w trybie tekstowym. Dzięki temu możemy, jeśli mamy szybki dostęp do serwera WWW (sieć lokalna, ISDN, bezpośrednie połączenie z Internetem) korzystać ze wszystkich udogodnień programu, zachowując możliwość pracy w warunkach niekorzystnych (wolne łącza, transmisje międzynarodowe). WWW zaczyna być wykorzystywane przez różne organizacje i firmy do budowania

multimedialnych baz danych (agencje rządowe, biblioteki, muzea, uniwersytety).

Miejmy nadzieję, że i w Polsce powstające bazy danych i serwisy informacyjne zdołają zdobyć sobie dostateczną liczbę użytkowników, by móc się rozwijać. Być może na infostrady, super szybkie sieci miejskie, wideokonferencje i multimedia przyjdzie nam jeszcze nieco poczekać, ale powinniśmy się starać, by jeśli te wspaniałości już powstaną - miały się czym karmić. Lokalne i krajowe serwisy informacyjne mogą stać się podstawową siłą napędową w rozwoju rozległych sieci komputerowych, ważne jest zatem, by powstały jak najszybciej.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200