Ludzie i maszyny

Serwisy internetowe coraz częściej wychodzą dzisiaj w poszukiwaniu wiedzy poza swój obszar, korzystają z zasobów i dorobku innych. To jest powrót do pierwszych wizji, do pierwszych idei Internetu, gdzie linki miały mieć konkretne znaczenie, a nie być tworzone w zupełnie dowolny sposób. Wystarczy sięgnąć do pierwszego szkicu sieci sir Tima Bernersa-Lee sprzed 20 lat - tam Internet to nie tylko strony i hyperlinki; jest to graf zasobów, usług i "nazwanych" połączeń pomiędzy nimi. Teraz też chodzi o to, aby te połączenia nabierały znaczenia.

Do sprawowania semantycznej kontroli nad zasobami sieciowymi potrzebne są ontologie, czyli logiczne, sformalizowane odzwierciedlenie rzeczywistości - przedmiotów, ich klas, relacji między nimi. Stworzenie takiej ontologii jest bardzo trudnym zadaniem. Jak sobie z tym radzą twórcy serwisów?

Nie staramy się tworzyć ontologii wyższego rzędu, czy wręcz ontologii uniwersalnej. To by do niczego sensownego nie prowadziło. Rzeczywistość jest zbyt złożona i skomplikowana, by można ją było zawrzeć w jednym modelu. Zaczynamy od tworzenia ontologii prostszych, ale bardziej użytecznych, mogących być zrozumianymi przez zwykłych użytkowników sieci. Wnioskowania są też uproszczone, sprowadzone do podstawowych rzeczy, na przykład do szukania właściwości, które są ogólnie znane. Wiadomo, że wiele właściwości może być podłączonych do jednego obiektu, ale w zasobach sieciowych może to być na początek podłączona tylko jedna właściwość, dzięki której ten obiekt daje się zidentyfikować.

Ontologia powstaje w wyniku porozumienia wielu ekspertów dziedzinowych, użytkowników i często informatyków. Niemożliwe jest jednak stworzenie ontologii wszystkiego. Nie można stworzyć jednej, wspólnej ontologii, która opisze cały świat. Głównie dlatego, że wymagałoby to zgody wszystkich na taki, a nie inny model świata, a ontologia musiałaby opisać samą siebie. Dlatego powstała cała rzesza ontologii mniejszych, szczegółowych, ale prostych, dobrze opisujących wycinki rzeczywistości. Gdy te będą dobrze dopracowane, to można będzie myśleć o powiązaniach między nimi.

Linking open data, to idea polegająca na tym, aby zachęcić ludzi, przedsiębiorstwa i innych właścicieli "baz danych", aby udostępniali swoje (i tak już opublikowane) dane i ontologie w sposób, który umożliwi ich automatyczne przetwarzanie, łączenie i wnioskowanie. Inicjatywa ta jest nie tylko wynikiem prac badawczych prowadzonych od kilku lat w instytutach, takich jak DERI Galway. Duży wpływ na jej powodzenie ma fakt, że wiele przedsiębiorstw zaczęło publikować swoje otwarte dane zgodnie z przyjętymi wytycznymi. Linking open data to ważny krok w kierunku Semantic Web i budowania rozwiązań w pełni wykorzystujących istniejące już algorytmy.

Należy zweryfikować podejście do Semantic Web i Web 2.0 - żeby się wszystko w zasobach treści w Internecie kompletnie nie "rozjeżdżało", ale żeby też nie zamknąć wszystkiego w sztywnych, niepodatnych na modyfikacje strukturach pojęciowych. Nie można zaczynać od narzucenia jednego, uniwersalnego systemu klasyfikacji czy modelu pojęciowego do opisu zasobów. Te kryteria opisu i klasyfikacji muszą się tworzyć w toku współpracy różnych grup i użytkowników, w toku uzgadniania różnych cech, właściwości, wyróżników. Żeby to uzgadnianie miało sens i prowadziło do użytecznych dla wszystkich rezultatów, to muszą być określone jego zasady.


TOP 200