Wiedza rozmyta, ale prawdziwa

Jakość danych jest uznawana za jeden z podstawowych warunków efektywnego korzystania z technik informacyjnych. Dane powinny być precyzyjne, jednoznaczne, aktualne i spójne. Co zrobić, gdy możemy dysponować jedynie danymi przybliżonymi? To jedna z podstawowych kwestii poruszanych w Płocku na niedawnych Międzynarodowych Warsztatach ''Techniki Monitoringu, Bezpieczeństwa i Ratownictwa w Systemach Wieloagentowych'' MSRAS 2004.

Jakość danych jest uznawana za jeden z podstawowych warunków efektywnego korzystania z technik informacyjnych. Dane powinny być precyzyjne, jednoznaczne, aktualne i spójne. Co zrobić, gdy możemy dysponować jedynie danymi przybliżonymi? To jedna z podstawowych kwestii poruszanych w Płocku na niedawnych Międzynarodowych Warsztatach 'Techniki Monitoringu, Bezpieczeństwa i Ratownictwa w Systemach Wieloagentowych' MSRAS 2004.

Rosnącą popularnością w środowiskach biznesowych cieszą się ostatnio techniki data mining (eksploracja danych). Pozwalają na dostęp do informacji mających niejednokrotnie kluczowe znaczenie dla powodzenia podejmowanych działań rynkowych czy utrzymania przewagi konkurencyjnej. Eksploracja danych jest procesem, w którym przekłada się wiedzę z postaci surowych, nieobrobionych danych na format zrozumiały dla człowieka, np. w postaci prostych reguł decyzyjnych.

Jak można sobie z tym zadaniem poradzić? W rozwiązywaniu problemów związanych z obróbką niedokładnych, niekompletnych informacji pomagają najnowsze prace z dziedziny matematyki, filozofii, logiki, informatyki czy lingwistyki. Uczeni zajmujący się tymi zagadnieniami nie mówią już niejednokrotnie o przetwarzaniu danych, lecz o przetwarzaniu pojęć czy też o obliczeniach za pomocą pojęć-słów. Powstają nowe dziedziny badań, takie jak: soft computing, neurocomputing, obliczenia ewolucyjne, uczenie maszynowe itp.

Stany pośrednie

Sztandarowym przykładem osiągnięć naukowych w tym zakresie jest logika rozmyta. Stanowi ona dzisiaj jedno z podstawowych narzędzi do budowy algorytmów wspomagających "procesy decyzyjne" w wielu przedmiotach powszechnego użytku, np. w samochodowych układach ABS. Podstawowym pojęciem tej teorii są zbiory rozmyte. Zjawisko braku precyzji informacji jest określone przez częściowe należenie do zbioru, w odróżnieniu od ścisłej definicji należenia w przypadku klasycznej teorii zbiorów. "Niedokładność informacji opartych na percepcji jest główną przeszkodą w poradzeniu sobie z wiedzą świata - wiedzą, którą ludzie zdobywają poprzez doświadczenie i wykształcenie - za pomocą metod opierających się na dwuwartościowej logice i wywodzącej się z niej teorii prawdopodobieństwa. Do tego celu potrzebne są zestawy narzędzi wywodzących się z logiki rozmytej, w której wszystko jest, albo może być, kwestią gradacji" - twierdzi Lotfi A. Zadeh.

Uznaniem w środowiskach naukowych na całym świecie cieszy się także teoria zbiorów przybliżonych, autorstwa prof. Zdzisława Pawlaka z Instytutu Informatyki Teoretycznej i Stosowanej PAN w Gliwicach. Podkreśla się jej duże znaczenie dla rozwoju badań w zakresie sztucznej inteligencji, szczególnie w obszarze zagadnień związanych z uczeniem się maszyn, wspomaganiem decyzji, systemów ekspertowych, technologii pozyskiwania wiedzy i rozpoznawania wzorców. Główną zaletą tego podejścia jest brak wymagań względem wstępnej czy też dodatkowej wiedzy o danych poddawanych analizie.

"W matematyce wymagamy, aby wszystkie wprowadzane pojęcia, w tym podstawowe pojęcia zbioru, były precyzyjnie określone. W ostatnich jednak czasach wśród filozofów, a potem także informatyków, zaczęło się pojawiać rosnące zainteresowanie pojęciami niedokładnymi. Na przykład, w odróżnieniu od ścisłego pojęcia, jakim są liczby parzyste, nie możemy stworzyć dokładnej definicji pojęcia takiego jak piękny obraz. (...) Większość pojęć wykorzystywanych przez nas w języku naturalnym charakteryzuje się brakiem precyzji. Dlatego zdroworozsądkowe wnioskowanie, jakim posługujemy się w rozważaniach opartych na języku naturalnym, musi być nieprecyzyjne, przybliżone, a nie oparte na sztywnych regułach klasycznej logiki. To właśnie czyni takie wnioskowanie szczególnie interesującym dla filozofów i informatyków" - uważa prof. Zdzisław Pawlak.

Logistyka wiedzy

Wysiłki naukowców nie idą na marne. Efekty ich teoretycznych rozważań już dzisiaj znajdują wiele zastosowań w wykorzystywanych na co dzień technologiach przetwarzania wiedzy. Coraz większą popularnością cieszą się m.in. technologie automatycznego przetwarzania wiedzy w systemach wieloagentowych. Tym zagadnieniom były powięcone odbywające się w Płocku na początku czerwca br. Międzynarodowe Warsztaty MSRAS 2004.

Przez system wieloagentowy jest rozumiany układ współpracujących ze sobą tzw. agentów, którymi mogą być zarówno ludzie, jak i urządzenia automatyczne, np. roboty, procesory, czujniki, programy komputerowe, urządzenia sterujące itp. Jednym z ważnych problemów związanych ze sprawnym funkcjonowaniem takich systemów jest zapewnienie możliwości niezakłóconej komunikacji między ludźmi a maszynami. Przykładem systemu wieloagentowego może być mecz piłki nożnej rozgrywany przez dwa zespoły złożone z robotów czy robotów i ludzi. Zadaniem każdego zespołu jest wygrać mecz. W tym celu każdy agent przetwarza dostępną mu wiedzę dotyczącą sytuacji na boisku i na tej podstawie steruje swoim zachowaniem dla osiągnięcia sukcesu zespołowego. W Instytucie Informatyki Uniwersytetu Humboldta w Berlinie symulacje takie są wykorzystywane do badań nad zachowaniami racjonalnymi.

Współpraca agentów w systemach wieloagentowych ma służyć przede wszystkim realizacji celów, do których osiągnięcia takie systemy zostały stworzone. Chociaż często o tym nie wiemy, w coraz szerszym zakresie są one stosowane w wielu dziedzinach naszego codziennego życia. Poczynając od prostych urządzeń domowych typu kuchenka mikrofalowa, pralka automatyczna czy klimatyzacja, przez systemy monitorowania bezpieczeństwa, po zaawansowane systemy monitorowania środowiska naturalnego za pośrednictwem satelitów. Znajdują także coraz więcej zastosowań w bankowości, ekologii, rolnictwie, służbie zdrowia, przemyśle, meteorologii, energetyce, badaniach kosmosu, lotnictwie i telekomunikacji czy też ostatnio przy konstruowaniu narzędzi wyszukiwawczych do Internetu.

Dużych korzyści można się spodziewać po zastosowaniu systemów wieloagentowych w działaniach ratowniczych, kryzysowych, związanych z likwidacją następstw katastrof, kataklizmów, ewakuacji ludności, zabezpieczania infrastruktury życiowej mieszkańców itp. Możliwości stałego dostępu do informacji o zmieniających się nieustannie warunkach oraz ich efektywnego przetwarzania i dostarczania właściwej wiedzy w odpowiednim czasie do odpowiednich odbiorców ma w takich sytuacjach znaczenie pierwszorzędne. Ratownicy muszą szybko podejmować decyzje w warunkach stresu, często przy narażeniu własnego życia. Muszą przy tym z sobą współpracować. Muszą mieć więc zapewniony stały ogląd całej sytuacji. Zdaniem Nikolaia Chilova z Instytutu Informatyki i Automatyki Rosyjskiej Akademii Nauk w Sankt Petersburgu potrzebna jest w takich sytuacjach swoista, przemyślana, dobrze zorganizowana logistyka wiedzy. Systemy wspomagania tego typu operacji muszą mieć zapewnioną możliwość współdzielenia wiedzy, rozproszoną architekturę umożliwiającą współpracę, zagwarantowaną interoperacyjność z innymi systemami informacyjnymi. Powinny mieć umiejętność dynamicznego ("w locie") rozwiązywania problemów, pracować także przy niepełnej informacji oraz być odporne na ograniczenia związane z opisem rzeczywistości w języku naturalnym.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200