Rozumna sieć

Kontekstowość jest podstawową cechą informacji. Dopiero znajomość znaczeniowych struktur połączeń między informacjami pozwoli na ich maszynową interpretację. Sieci semantyczne są środkiem prowadzącym do tego celu.

Kontekstowość jest podstawową cechą informacji. Dopiero znajomość znaczeniowych struktur połączeń między informacjami pozwoli na ich maszynową interpretację. Sieci semantyczne są środkiem prowadzącym do tego celu.

W początkach rozwoju technologii informatycznych informacja była reprezentowana maszynowo przez niskozagregowane dane w postaci prostych obiektów typu liczby czy ciągi znakowe. Klasyczną stała się reguła: program = dane + algorytm. To właśnie algorytm był odpowiedzialny ze wszelkie transformacje informacji i tworzenie połączeń między nimi. Stopniowo te połączenia zyskiwały na elastyczności, przy przechodzeniu od liniowych baz danych do ich kolejnych generacji: hierarchicznych, sieciowych i relacyjnych. Jednocześnie na znaczeniu zyskiwał paradygmat obiektowości, łączący dane z logiką ich przetwarzania, a pojawienie się Internetu wzbogaciło powstające w ten sposób obiekty o wymiar mobilności poprzez ich agentyzację.

Opisywany proces można zatem postrzegać jako wzrost maszynowej kontekstowości informacji; informacja staje się coraz bardziej samodzielna, odciążając człowieka w sferze jej interpretacji, w istocie zmierzając do ideału samointerpretacji, a nawet magnetyzmu informacyjnego. W takim idealnym przypadku człowiek nie musiałby nawet stawiać maszynie pytania, poszukując na nie odpowiedzi - to odpowiedzi samodzielnie odnajdywałyby człowieka, posiadając wiedzę o naszej kontekstowości środowiskowej, tj. potrzebach, zainteresowaniach, rytmie pracy czy spędzania wolnego czasu. Nie ulega wątpliwości, że tak ambitne cele wymagają nowego rodzaju technologii - jedną z nich są sieci semantyczne (semantic web).

Właściwy Wymiar Wiedzy

Wpisują się one w szerokie spektrum zjawisk określanych jako Internet nowej generacji (Web 2.0). W wymiarze fizycznym jego podstawą jest Internet szerokopasmowy, umożliwiający bardziej efektywne samoorganizowanie się sieci. Istnieje wiele przejawów takiej samoorganizacji, która dotyczy porządkowania (agregowania) zasobów WWW - od Worka Wszelakich Wiadomości do Właściwego Wymiaru Wiedzy: przetwarzanie kratowe (grid), społeczności gronowe (cluster), coraz inteligentniejsze maszyny szukające i związane z nimi aplikacje (Google AdSense, Froogle) czy portale encyklopedyczne (Wikipedia). Ambitny cel streszczenia wszelkich tekstów, jakie stworzyła ludzkość w obszarze literatury czy nauki, postawił sobie portalhttp://www.shvoong.com . W odróżnieniu od Wikipedii, Shvoong gotowy jest płacić autorom streszczeń w 36 językach (w tym po polsku) za teksty o standaryzowanej długości: do 300, 600 lub 900 słów, bilansując honoraria wpływami z reklam.

Celem tego portalu nie jest zastąpienie oryginałów ich streszczeniami, ale stworzenie na tej bazie efektywnej maszyny szukającej o bezpłatnym dostępie dla każdego. Już z tego przykładu widać, że w obszarze agregacji tekstów jesteśmy w fazie rozwiązań hybrydowych, skoro nadal jest wśród nich miejsce na streszczenia (tłumaczenia) wykonywane przez człowieka. Alternatywnie można korzystać z lepszych ilościowo, ale gorszych jakościowo programów wykonujących te czynności automatycznie. Takim przykładem jest TextAnalyst firmy Megaputer, tworzący z tekstu źródłowego zwarty rodzaj inteligentnego hipertekstu, tj. model znaczeniowy (semantyczny) na podstawie technologii sieci neuronowych. Trzeba pamiętać, że taki model, choć statystycznie często poprawny, jest tylko tyle wart, ile wiedzy zaimplementowano w algorytmie jego tworzenia. Ta zaś koncentruje się głównie na próbie wnioskowania o ważności poszczególnych składowych tekstu (słowa, frazy), wg częstości ich występowania czy innych parametrów formalnych (przynależność do określonej kategorii gramatycznej, np. na podstawie końcówki bądź z definicji w przypadku pospolitych słów, jak np. spójniki) uwzględniających także ścieżki połączeń między składnikami.

Opisywane przykłady są charakterystyczne dla aktualnego stanu praktycznych zastosowań (ograniczeń) sztucznej inteligencji w sferze przetwarzania języka naturalnego. Dlatego twórcy sieci semantycznych, skupieni w konsorcjum standaryzującym W3C oraz wokół "wynalazcy" WWW - Timothy J. Berners-Lee (CERN, Szwajcaria, 1989 r.) - zaproponowali podejście realistyczne: skoro komputery nie rozumieją jakie dane przetwarzają, należy opisać je metadanymi (informacje o informacjach) i w ten sposób umożliwić ich maszynowe przetwarzanie.

Maszynowe gusty

Istniejące struktury WWW nie mają zostać zastąpione nowymi, ale rozszerzyć je o warstwę semantyczną, tak aby, korzystając ze zdefiniowanych reguł, kategoryzować wiedzę. Dla tego celu zdefiniowano wiele narzędzi, m.in. na podstawie XML, język RDF (Resource Description Framework), który opisuje zasoby za pomocą trójek <podmiot, predykat, obiekt>, przykładowo: <adres internetowy, autor, temat>, tzn. podmiot, jakim jest adres internetowy ma pewne własności (np. autora), które wiążą się z określonymi obiektami (temat). Tak opisane zasoby mogą być przeszukiwane za pomocą różnych języków zapytań, np. RDFQL (RDF Query Language), przypominających swoimi mechanizmami relacyjne standardy SQL.

Z kolei dialektem RDF przeznaczonym do opisu sprzętu jest CCPP (Composite Capability Preference Profiles). W ten sposób można specyfikować własności takich urządzeń, jak telefony komórkowe czy organizery i gwarantować, że będą do nich trafiać jedynie treści możliwe do prezentacji (np. parametry wyświetlaczy). Jednocześnie semantyczne sieci mają radzić sobie nie tylko z wiedzą tekstową, ale z całym bogactwem internetowych treści multimedialnych. Już dziś twórcy psychoakustyki i formatu MP3 pracują nad nowym standardem MPEG-7, który ma m.in. umożliwić automatyczne kategoryzowanie utworów muzycznych. I nie chodzi tu bynajmniej o arbitralne przypisywanie wykonawców do określonych kategorii muzycznych, np. Pink Floyd = rock progresywny czy Budka Suflera = pop. Na podstawie rozkładu częstotliwości, spektrum instrumentów, rytmu czy dynamiki utworu będą specyfikowane jego maszynowe charakterystyki, które da się kojarzyć z profilami gustów słuchaczy. W ten sposób możliwe będzie znajdowanie "swojej" muzyki, także w wykonaniu wcześniej nieznanych grup. Podobne zastosowania można sobie wyobrazić w odniesieniu do obrazów (filmów) czy treści prasowych (indywidualne gazety).

Semantyczne sformatowanie na nowo już istniejących zasobów Internetu stworzy przestrzeń, w której zacznie działać inteligentne oprogramowanie "drążące wiedzę" (data mining) i zdolne do rozwiązywania problemów formułowanych przez człowieka w języku naturalnym. Agent, który będzie w stanie odpowiedzieć na każde pytanie, będzie również mógł postawić - sam sobie - trudne pytanie i znaleźć na nie odpowiedź. Będzie mógł zatem znajdować odpowiedzi na pytania, na które odpowiedzi jeszcze nie istnieją! W momencie przekroczenia tej bariery inteligentny agent będzie nie tylko reagował odpowiedziami na pytania dotyczące istniejącej już wiedzy, ale sam, w sposób aktywny, będzie nową wiedzę tworzył. W takiej chwili wkroczymy w sferę o niezwykłych i dzisiaj jeszcze trudno wyobrażalnych możliwościach.

Trzeci wielki krok

Po raz pierwszy w historii maszyna zacznie tworzyć wiedzę. Będzie to trzeci wielki krok na drodze rozwoju cywilizacji technicznej. Pierwszym był proces zastępowania siły biologicznych mięśni (ludzi i zwierząt) mocą maszyn (od wiatraków do maszyny parowej i silników spalinowych), automatów i robotów. Drugim krokiem było zastąpienie przetwarzania danych czy informacji w ludzkim mózgu przetwarzaniem maszynowym, co wiąże się głównie z wynalazkiem komputera. Kolejnym przełomem będzie kreatywne wytwarzanie wiedzy w sposób maszynowy. I jak dotąd bywało, konsekwencje tej zmiany przerosną ilością i jakością wszystko co znamy przed nią. Oczywiście i tutaj mamy do czynienia z długotrwałym procesem, a nie jednorazowym aktem. Ten proces korzeniami tkwi w poprzedniej fazie (powstanie klasycznej informatyki) i na naszych oczach zmierza - przez doświadczenia sztucznej inteligencji, coraz bardziej antropomorficzne multimedia i kolejne generacje internetowych aplikacji - ku coraz wyższym poziomom, według schematu agregacji:

  • przetwarzanie danych
  • przetwarzanie informacji
  • przetwarzanie wiedzy
  • przetwarzanie inteligencji.

Przy czym obok wymiaru agregacyjnego mamy także do czynienia z procesem wzrostu możliwości samego przetwarzania - od prostych operacji typu kasowanie, zapamiętywanie, kopiowanie, przesyłanie czy łączenie danych, do coraz bardziej złożonych, z ich generowaniem (kreowaniem) włącznie.

Kontekstowa sieć, na zasadzie globalnego wzmacniacza (grid) przychodzi tu, z poziomu "makro", w sukurs "kwantowym" osiągnięciom w obszarze przetwarzania języka naturalnego (szczegółowe algorytmy). Ponieważ ów nowy rodzaj sztucznej inteligencji tworzony jest przez zbiorowość (ludzi, baz danych, sieci, programów agentowych), będziemy mieli w konsekwencji do czynienia ze zbiorową sztuczną inteligencją, w odróżnieniu od dotychczasowej sztucznej inteligencji, która koncentrowała się na wyspowych rozwiązaniach lokalnych, traktując jako ideał ludzki mózg, w postaci wyizolowanego (bezkontekstowego) obiektu.

Tymczasem dopiero kosmos internetowych, dynamicznych połączeń nowego rodzaju kontekstowej sieci jest w stanie nawiązać do kontekstowości ludzkiej inteligencji. A więc do faktu, że nasz mózg nie funkcjonuje samotnie (mimo że neurofizjologicznie większość czasu zajmuje się sam sobą), ale jest mobilny (przemieszcza się w otoczeniu) i komunikuje się z innymi mózgami. Ludzka inteligencja nie jest inteligencją samotniczego organizmu, ale inteligencją zbiorowości, przez zbiorowość tworzoną, choć odbijającą się w każdym z nas indywidualnie, na zasadzie sprzężenia między jednostką a społeczeństwem. Jest zatem zupełnie naturalne, że taka kontekstowa inteligencja wymaga kontekstowych sieci.


TOP 200