Wątpliwości szarego szperacza

Internetowi guru zapowiadają sieć semantyczną, czyli Web 3.0. Poczekajmy jednak, dokąd zaprowadzi nas innowacyjna twórczość właścicieli portali. To oni wypracują doświadczalnie model działania, któremu, być może, będziemy mogli nadać numer 3.0.

Abyśmy mieli pewność, że rozmawiamy o tym samym, bardzo ogólnikowo zdefiniuję, jak na dziś rozumiem sieci semantyczne, czyli tajemnicze Web 3.0. Już sam numer mówi nam, że będzie to medium wypełnione treścią lepiej niż w przypadku 2.0. Biorąc pod uwagę analogię przejścia między 1.0 a 2.0 (czyli przejście od sieci o statycznej treści tworzonej przez dostawców stron do dynamicznej treści tworzonej przez użytkowników) zakładam, że w wersji 3.0 dynamiczna treść zostanie inteligentnie i dynamicznie zagregowana pod kątem oczekiwań użytkownika. Ta zagregowana treść będzie dla nas dostępna przede wszystkim przez wyszukiwarki.

Oczywiście, jako szarego szperacza nie interesuje mnie to, co teoretycy Web 3.0 uznają za najważniejsze, czyli ontologie i metody inteligentnej agregacji treści. Mnie interesuje, aby na pytanie: "Czy zdążę jeszcze dziś oddać buty do naprawy i gdzie je zawieźć" otrzymać odpowiedź: "Tak. Najbliższy szewc pracuje do godziny 18:00 na ulicy Kaletniczej 22" (co na dziś jest jednym z oczekiwanych działań w obszarze Web 3.0). W odpowiedzi zagregowano wiedzę na temat mojego miejsca położenia, czasu, geolokalizowanej informacji o usługach oraz inteligentnej interpretacji języka naturalnego.

Diabeł tkwi w szczegółach

Moja pierwsza, poważna wątpliwość odnośnie idei Web 3.0 dotyczy konieczności agregowania dowolnych treści. Będzie to wymagać możliwości potencjalnego połączenia informacji z niemal dowolnych źródeł w dowolnym momencie. Jeśli przyjmiemy, że chcielibyśmy otrzymać poprawną odpowiedź na niemal każdy temat, ilość danych koniecznych do przetworzenia byłaby nie kilka tysięcy razy większa niż obecnie istnieje we wszystkich wyszukiwarkach razem wziętych, ale do potęgi kilka tysięcy. Oznacza to, że w przewidywalnym okresie nie powstanie wyszukiwarka wszystkiego. Pojawią się osobne wyszukiwarki dla sprzętu elektronicznego, alkoholu, nieruchomości i innych wąsko specjalizowanych dziedzin. Czyli, żeby wyszukać inteligentną, zagregowaną informację z jakiejś dziedziny najpierw będziemy musieli znaleźć właściwą wyszukiwarkę semantyczną, a dopiero później w niej wyszukać właściwą informację. Oczywiście, doprowadzi to do powstawania luk i nieoptymalnych odpowiedzi, gdyż każda z wyszukiwarek branżowych będzie dawała trochę inaczej poprawną odpowiedź.

Kolejny problem wynika ze znanego już obecnie charakteru treści tworzonych przez internautów w modelu Web 2.0. Wszystkie statystyki pokazują, że z własnej woli internauci najczęściej oceniają przedmioty, miejsca czy zdarzenia entuzjastycznie pozytywnie lub krytycznie negatywnie. Ocen przeciętnych jest w porównaniu ze skrajnymi bardzo mało. Tak więc, na przykład, poszukując odpowiedniego dla siebie notebooka, musimy przedzierać się przez gąszcz ocen wspaniały wyświetlacz/bardzo lichy wyświetlacz oraz wspaniała czas pracy na bateriach/beznadziejny czas pracy na bateriach. Mało jest ocen kompleksowych, z jednoczesnym wymienieniem wad i zalet oraz wskazaniem obszarów przeciętnych. Wyszukiwarka agregująca będzie się musiała przedzierać przez takie niezbyt odpowiednie dla niej informacje, usiłując ponadto odfiltrować od tego spam, coraz częściej ukryty w sposób coraz bardziej subtelny.

Personalizacja wyniku

Próba wyszukania z gąszczu informacji właściwego ich rozkładu to jeszcze nic w porównaniu z koniecznością personalizacji informacji pod kątem profilu osoby szukającej. Dobrym przykładem będzie tu pytanie o najlepszy hotel na weekend w Krakowie. Zupełnie inny będzie określony jako najlepszy przez biznesmena w podróży służbowej, inny przez jego kochankę, a jeszcze inny przez rodzinę z dziećmi. Czasami ta sama osoba w zależności od sytuacji będzie oczekiwać różnych odpowiedzi.