Co może inteligentny agent

Funkcjonowanie inteligentnych agentów, przeszukującychzasoby Internetu, stawia pytanie o granice ingerencji prawa w zautomatyzowane mechanizmy wyszukiwawcze.

Funkcjonowanie inteligentnych agentów, przeszukującychzasoby Internetu, stawia pytanie o granice ingerencji prawa w zautomatyzowane mechanizmy wyszukiwawcze.

Dużo uwagi poświęca się temu, jak ważne dla handlu elektronicznego jest precyzyjne wyszukiwanie, interpretowanie i prezentowanie informacji. Choć wiele ze wspomnianych czynności może być realizowanych manualnie, to w zestawieniu z gąszczem zapisów elektronicznych pośrednictwo wyspecjalizowanego oprogramowania jawi się jako naturalny zabieg. Uwagę przykuwają zwłaszcza tzw. elektroniczne (inteligentne) agenty, realizujące rolę autonomicznego pośrednika pomiędzy prezentującymi informacje a odbiorcami tychże informacji. Ich funkcjonowanie, analizowane głównie pod kątem informatyki gospodarczej, niesie pytanie o granice ingerencji prawa w zautomatyzowane mechanizmy wyszukiwawcze.

Autonomia w granicach zleconego zadania

Nie wdając się w aspekty stricte techniczne, elektroniczne agenty służą swoistemu "oddelegowaniu" do zadań stawianych przez użytkowników. Charakteryzując owe rozwiązania informatyczne, szczególną rolę zwraca się na ukierunkowanie agentów na konkretny cel (proaktywność), z czym wiąże się elastyczność w wykonywaniu zleconych zadań. Inicjujący działanie agentów nie sprawuje pełnej kontroli nad procesami gromadzenia i przetwarzania informacji, jakie mają doprowadzić do założonego z góry celu.

W handlu elektronicznym rola agentów jest uwypuklana przede wszystkim na etapie gromadzenia informacji istotnych z perspektywy konsumentów (serwisy porównujące ceny sklepowe, oferty aukcji internetowych). W odróżnieniu od tradycyjnych wyszukiwarek mamy tu do czynienia z o wiele bardziej precyzyjnym dostosowywaniem się do potrzeb użytkowników. Ponadto rozwiązania agenckie nie muszą poprzestawać na etapie gromadzenia informacji, doprowadzając do zawarcia kontraktu na rzecz internauty.

Rozpatrywanie problemu elektronicznych agentów, z perspektywy przepisów prawnych, może być wieloaspektowe. Już na wstępie, skoro technologia ta jest w istocie rodzajem oprogramowania komputerowego, zaś jej "sprawność" łączy się z umiejętnym tworzeniem algorytmów przeszukujących, może powstać pytanie o granicę pomiędzy wzorowaniem się na istniejących rozwiązaniach a plagiatem. Trzeba jednak zaznaczyć, że z perspektywy przepisów okoliczności, takie jak efektywność wyszukiwania informacji, funkcje spełniane przez agenta, kompatybilność ze standardami technicznymi, nie mogą świadczyć o naruszeniu prawa autorskiego.

Problem kontroli dostępu do systemu

Nie każdy akceptuje "szperanie" w systemie komputerowym przez agenty. W odróżnieniu od robotów-wyszukiwarek, akceptowanych z reguły ze względu na chęć zaistnienia w komercyjnej części Internetu, roboty-agenty są niekiedy postrzegane jako zagrożenie. Generalnie można wyróżnić dwa rodzaje obaw. Pierwszy to implementacja agentów przez bezpośrednią konkurencję w ramach swoich usług, a w konsekwencji możliwość "pasożytniczego" korzystania z materiałów udostępnionych online (przede wszystkim baz danych). Drugi to niemożność uwzględniania przez roboty dynamicznych zmian w prezentowaniu informacji.

Archiwizowanie danych z przenoszeniem ich do innych lokalizacji, czasowo ograniczone oferty cenowe, promocje, to tylko niektóre z przykładów, w których informacje przekazywane przez agenty użytkownikom mogą nie być aktualne. Głównie w przypadku działanie agentów rodzi obawy o przedstawianie przedsiębiorców w złym świetle.

Istotne jest także to, w jaki sposób elektroniczne agenty będą "współpracować" z przeszukiwanymi lokalizacjami. Rozbieżności natury technicznej mogą w skrajnych wypadkach doprowadzać do przeciążeń systemów, znajdujących się w obrębie zainteresowania agentów. Ze względu na to operatorzy stron WWW starają się o ograniczanie aktywności usług opierających się na inteligentnych agentach. Można uczynić to przez odpowiednie uzupełnienie pliku robots.txt bądź kodu HTML strony. Problem w tym, że niektóre agenty w istocie mogą ignorować owe zapisy. Z perspektywy operatorów stron WWW atrakcyjne byłoby przyjęcie, iż omijanie takich ograniczeń jest w istocie naruszaniem zabezpieczeń technicznych, które chronią utwory. Nic bardziej mylnego. Informacja o zakazie indeksowania zasobów nie jest zabezpieczeniem o naturze technicznej. Można porównać ją jedynie ze zwykłym ostrzeżeniem, a samo jej obejście nie rodzi automatycznie żadnych konsekwencji prawnych.

Klauzule wyłączające stosowanie agentów

Uzupełnieniem zastrzeżeń w kodzie HTML w wielu przypadkach jest wprowadzenie do zasad korzystania z serwisu zakazu wkraczania do niego agentów. Status takich klauzul nie jest jednoznaczny. Chodzi przede wszystkim o to, czy systemy agenckie mogą rozpoznać tego typu zastrzeżenia. Jednocześnie brak jest zgodności co do tego, kiedy możemy mówić o zawarciu kontraktu w ramach odwiedzin strony WWW. Wątpliwe, czy samo dotarcie do witryny automatycznie prowadzi do wyrażenia zgody na wszelkie klauzule tamże zawarte. W końcu także zapisy limitujące korzystanie z agentów w wielu przypadkach nie grzeszą precyzyjnością.

Zakaz odnoszący się do wyszukiwarki nie musi rozciągać się na działanie agentów. W jaki sposób można więc eliminować niepożądaną aktywność inteligentnych agentów? A. Looder i M. Boonk z Instytutu Prawa Komputerowego w Amsterdamie wskazują chociażby na możliwość opierania stron WWW na technologii Flash. Dzięki temu zasoby nie będą mogły być analizowane przez inteligentne agenty. Inną przytaczaną przez wspomnianych autorów metodą byłoby upowszechnienie się stosowania plików agents.txt, na wzór robots.txt, zawierających wskazania i ograniczenia dla nich.


TOP 200