Jak robot z człowiekiem

W jaki sposób tworzy się taki system?

By uzyskać wiarygodną informację na temat konkretnych rozwiązań prawnych, trzeba zapewnić możliwość uwzględnienia szerokiego kontekstu możliwych zdarzeń. Musimy stworzyć wirtualne światy, w których będzie można badać wpływ jednych sytuacji na drugie. Robimy to, posługując się metodą modelowania świata ontologii, której podstawy zostały opracowane przez Stanisława Leśniewskiego, polskiego filozofa i logika z okresu międzywojennego. Najogólniej rzecz ujmując, polega to na szczegółowym opisaniu klasy obiektów istniejących w danym świecie - to np. akty prawne, ludzie, możliwe akcje - oraz relacji między nimi, np. gdy ludzie odwołują się do przepisów prawa w swoich działaniach. Dzięki takiemu podejściu można operować na dowolnym poziomie abstrakcji. Gdy istnieje model danego środowiska, można badać, jak będą funkcjonować w nim konkretne rozwiązania prawne.

Do poprawnego działania systemu potrzebne jest zawarcie w nim informacji o wszelkich istniejących rozwiązaniach prawnych w każdej dziedzinie życia. Planujemy, że w bazie danych będą znajdować się nie tylko akty prawne o randze państwowej, takie jak ustawy czy rozporządzenia, ale także przepisy wewnętrzne firm, przedsiębiorstw i korporacji. W zasobach systemu znajdzie się także wiedza o innych mechanizmach regulujących stosunki społeczne, np. o obyczajach i niepisanych umowach. W ten sposób możemy odtworzyć cały system powiązań międzyludzkich, tzw. social network. Prowadzone są też prace nad informatycznym odwzorowaniem czynników regulujących zachowania zwierząt.

Dlaczego do prac nad tym systemem został wybrany Instytut Poznania Ludzkiego i Maszynowego? Jakimi doświadczeniami w tej dziedzinie może się pochwalić zespół, którego jest Pan członkiem? TIA jest systemem bardzo rozbudowanym. Rząd amerykański poszukuje różnych możliwości realizacji jego poszczególnych elementów. W projekcie uczestniczą zarówno placówki naukowe, jak i firmy komercyjne. Co ciekawe, jedna z nich dostarczała wcześniej narzędzia do wykrywania obecności radzieckich łodzi podwodnych u wybrzeży USA. Odbywało się to na zasadzie rejestracji zmian w polu magnetycznym. Aby metoda była skuteczna, trzeba było znaleźć sposób oddzielenia sygnałów pochodzących ze statków od naturalnych zakłóceń. Te doświadczenia są dzisiaj wykorzystywane do stworzenia mechanizmów wykrywania w szumie informacyjnym rzeczywiście ważnych danych.

Nasz Instytut ma duże doświadczenia w pracach nad systemami do zarządzania zachowaniami sztucznych agentów, jak również w analizie ludzkich aspektów komputeryzacji. Pierwsze projekty z tego zakresu pojawiły się przy okazji planowania misji na Marsa. Ponieważ można tam było wysłać tylko sondy kosmiczne, powstał problem, w jaki sposób ludzie mogą współpracować z robotami. Na przykład roboty badające geologiczną zawartość planety będą zbierały olbrzymie ilości informacji. Nie mogą ich wszystkich wysyłać na Ziemię, bowiem ze względu na duże odległości informacja może dotrzeć na Ziemię dopiero wtedy, gdy robot będzie już w zupełnie innym miejscu. Muszą więc umieć na miejscu rozpoznawać znane już elementy. Sprawa komplikuje się jeszcze bardziej, gdy trzeba będzie skoordynować pracę kilku robotów.

Czy tego typu systemy są już gdzieś wykorzystywane?

Tak, wiele rozwiązań zostało już wdrożonych w testowanym obecnie nowym systemie zarządzania logistyką w armii amerykańskiej. Ma on bardzo duże wymagania pod względem bezpieczeństwa. Musi być bardzo odporny na awarie, musi dalej działać nawet po utracie 30-40% zasobów bądź przechwyceniu przez wroga części węzłów komunikacyjnych. Musi to być system, który będzie się adaptował do bardzo zmiennej sytuacji przyszłych wojen.

Również armia amerykańska testuje obecnie możliwości zastosowania takich systemów do walk w mieście. Żołnierze amerykańscy nie są przygotowani do tego typu działań. Społeczeństwo amerykańskie nie akceptuje tego typu akcji ze względu na ryzyko dużych strat w ludziach. Myśli się więc o wykorzystaniu w takich sytuacjach specjalnych robotów. Żeby jednak takie rozwiązanie było skuteczne, trzeba wypracować mechanizmy komunikowania się i współdziałania żołnierzy z maszynami. Zadaniem robota nie jest całkowite zastąpienie człowieka, ale efektywna z nim współpraca. Jedną i drugą stronę trzeba tego nauczyć. Roboty mogą np. zabezpieczać zajęte obiekty, ale zarządzający nimi żołnierz musi wiedzieć, jakiego rodzaju napływające od nich informacje mogą świadczyć o rzeczywistym zagrożeniu ze strony wroga. Tymczasem zarówno zbyt mała liczba otrzymywanych informacji, jak i ich nadmiar utrudniają podejmowanie właściwych decyzji.

Jak widzi Pan perspektywy zastosowania cyfrowych mechanizmów analizy prawa?

System stworzony w naszym Instytucie może być wykorzystywany do regulacji zachowań w cyberprzestrzeni. Problemy z tym związane mogą się pojawić np. po upowszechnieniu się rozległych sieci kratowych, umożliwiających wykonywanie obliczeń na dowolnym komputerze w takiej sieci. Serwis prawny mógłby wtedy badać, czy na danym komputerze mogą być wykonane określone zadania, powiedzmy, czy przeciwnik palenia tytoniu zgodzi się udostępnić swój sprzęt do obliczeń związanych z produkcją nowego typu papierosów. Najpierw inteligentny agent będzie sprawdzał warunki skorzystania z dostępnej mocy obliczeniowej, aby od razu nie nastąpiło zniszczenie zadań niezgodnych z określonymi założeniami, by program mógł się wycofać i szukać następnej maszyny skłonnej przyjąć dane zadanie.

W przyszłości z pewnością będą potrzebne regulacje prawne dla działań w cyberprzestrzeni, w ich ustaleniu i egzekwowaniu mogą pomóc tworzone już dzisiaj rozwiązania z zakresu zarządzania wiedzą prawniczą.

Dr inż. Andrzej Uszok był gościem III Kongresu Informatyki Polskiej.


TOP 200