Wątpliwości szarego szperacza

Poprawna agregacja danych z uwzględnieniem perspektywy osoby pytającej wymagałaby jednoznacznej identyfikacji wszystkich osób w Internecie. Jak na razie nie udało się tego dokonać mimo kilku prób. I nie sądzę, żeby się udało, nawet jeśli przezwyciężone zostałyby problemy techniczne. Zawsze będą chciały istnieć osoby anonimowe czy ukrywające się pod różnymi profilami (np. stanowczy prezes ukrywający się pod innym pseudonimem na forum pantoflarzy). Sądzę, że ten brak jednoznacznej interpretacji profilu osoby tworzącej treść będzie kolejnym problemem, który stanie na przeszkodzie sukcesowi Web 3.0.

Już teraz w obrębie pojedynczych serwisów (dobrze widać to na przykład w Amazonie czy Merlinie) istnieje problem personalizacji podpowiedzi związanych z oglądanymi książkami. Jeśli oglądamy książkę o Javie, poza oczywistymi propozycjami (czyli inne książki o Javie) najczęściej pojawiają się książki związane z językami do tworzenia stron internetowych (PHP, Ruby itp.). Automat sugerujący inne atrakcyjne dla konkretnego odbiorcy książki powinien jednak wziąć pod uwagę, czy szukamy książki o Javie, gdyż interesuje nas programowanie obiektowe, przenośność oprogramowania czy też tworzenie stron WWW. Dopiero po zaklasyfikowaniu nas do odpowiedniej grupy automat powinien zaproponować najczęściej kupowane książki przez tę grupę czytelników, do której należymy. Niby proste, a jednak...

Model biznesowy

Na koniec pozostawiłem najważniejszą wątpliwość, czyli kto za to zapłaci. W obecnej sytuacji model biznesowy sieci Web 2.0 nie jest jeszcze dobrze ugruntowany. Są co prawda firmy, które zarabiają na publikacji treści w Internecie, ale przerażająca większość serwisów albo traci finansowo, albo dorabia do swojego istnienia ideologię, z której wynika, że zamierza zarabiać dopiero w przyszłości lub działa hobbystycznie, czyli dokładanie do interesu jest naturalne.

Jeśli przyjąć model zachowania sieci Web 3.0, czyli oparcie jej na wyszukiwaniu inteligentnie agregowanej informacji, należy się spodziewać, że wynik wyszukiwania w takiej sieci będzie prostą informacją jednostkową. Będzie to liczba, realny adres, nazwa produktu, termin itp. Bo w końcu na pytanie o najbliższy, jeszcze otwarty sklep monopolowy, sprzedający konkretne wino, nie dostaniemy listy stron tych sklepów, tylko jeden, góra kilka adresów z nazwami ulic. W takim modelu nie za bardzo jest miejsce na reklamę, bo po cóż internaucie z Warszawy informacja, że w Łodzi istnieje sklep, który ma to wino lub że można je za tydzień otrzymać przesyłką kurierską (w końcu on potrzebuje je za godzinę, bo idzie do znajomych na spotkanie). Z drugiej strony sklep, który został wytypowany jako właściwy dla osoby zadającej pytanie też nie za bardzo ma po co się reklamować - jest duża szansa, że internauta i tak trafi właśnie do tego sklepu. Gdzie więc miejsce na zwykłe strony, podobne do istniejących obecnie?

Marek Wierzbicki jest właścicielem firmy doradczej QSORT.BIZ.


TOP 200