Robot społecznościowy prawdę ci powie?

Social bot, czyli w dosłownym tłumaczeniu „społecznościowy robot“, to termin formalnie pozytywny. Narzędzie to ma też wiele sensownych zastosowań, np. w profilowanym marketingu. Jednak ten typ software’owego agenta kojarzony jest głównie z negatywną propagandą, na usługach przeróżnych cyberbatalii, których celem jest „rząd dusz“ internautów. Jak działa takie oprogramowanie i czy można się przed nim obronić?

Pytanie jest istotne, bo najpóźniej od listopada 2016 r. wiemy, że boty mają wpływ na ważne decyzje polityczne. W roku, gdy w Stanach Zjednoczonych odbywały się wybory prezydenckie, znaczna część opinii była kształtowana właśnie przez programowe automaty. Badacze z Uniwersytetu Oksfordzkiego wykazali, że zarówno Hillary Clinton, jak i Donald Trump mieli podobną liczbę internetowych zwolenników (follower), którymi były boty: u obojga polityków współczynnik sięgał 30%. Tylko po pierwszej debacie telewizyjnej prezydenckich kandydatów jedna trzecia tweetów wspierających Trumpa i jedna czwarta dla Clinton były dziełem botów. Również pod debatowym hasztagiem #Brexit znaczna część opinii generowana była przez boty, w tym zawierająca tak absurdalne twierdzenia jak to, że należy opuścić Unię, bo jej członkiem jest Rosja.

Zadajmy więc pytanie: czy używanie botów jest legalne? Ogólna i krótka odpowiedź brzmi: tak. To pozytywne stwierdzenie wynika już z samej defincji bota. Etymologicznie mamy tu do czynienia z końcówką słowa „robot”, które jest powszechnie znane, zatem nie wymaga szerszego komentarza. Także dlatego, że należy do nielicznych przykładów terminów słowiańskich obecnych w światowym (angielskim) języku techniki (pochodzi od czeskiego pojęcia „robota”, spopularyzowanego dziełami Karela Čapka). Z kolei klasyfikacyjnie bot jest rodzajem software’owego agenta (softbot), a więc programu mającego cechy pokazane w tabeli.

Charakterystyka software’owego agenta
autononomiczność działanie bez interwencji człowieka
mobilność przenoszenie kodu i stanu w obrębie sieci komputerowej
długoterminowość działanie przez długi czas, np. wiele miesięcy
komunikacyjność komunikowanie się z innymi agentami i otoczeniem
kolaboratywność współpraca z innymi agentami
elastyczność dynamiczne zmiany strategii rozwiązywania zadań
adaptywność samomodyfikowanie się, np. zmiany w środowisku software’owym
racjonalność ”samoświadoma” efektywność osiągania celów
wiarygodność gwarancja zaufania i bezpieczeństwa dla użytkownika
personalizacja dopasowywanie się do indywidualnych potrzeb użytkownika
orientacja celowa tłumaczenie abstrakcyjnych celów na operacje szczegółowe
proaktywność automatyczne inicjowanie działalności bez wiedzy użytkownika
predyktywność przewidywanie przyszłych skutków podejmowanej akcji

Skrótowo ujmując różnice między agentem a społecznościowym botem, można powiedzieć, że ten pierwszy jest programem typu back-end, a drugi front-end.

Geneza agenta jest bardziej techniczna, działa on raczej „w ukryciu”, np. w multiagentowej sieci urządzeń Przemysłu 4.0. Z kolei socbot koncentruje się na dialogu z człowiekiem i jest fenomenem Web 2.0, a więc internetu społecznościowego. Autonomiczne oprogramowanie jest już powszechne zarówno w zastosowaniach gospodarczych, jak i domowych, a nie ma jednoznacznego obowiązku, aby program każdorazowo podkreślał: „nie jestem robotem”.

Social bots. Test na człowieczeństwo

Robot społecznościowy prawdę ci powie?

Alan Mathison Turing (źródło: Wikipedia)

Wymóg udowadniania niemaszynowości występuje jednak często w odniesieniu do użytkowników. Mówimy tu o programach typu CAPTCHA, przeznaczonych do generowania i weryfikowania testów, których rozwiązanie jest łatwe dla przeciętnego człowieka, ale bardzo trudne dla komputera. Pod nazwą, będącą akronimem od: completly automatic public Turing test to tell computers and humans apart, rozumie się także klasę problemów o podanych właściwościach. Już sam źródłosłów tego określenia wskazuje, że ideałem byłoby, gdyby taki egzamin zawsze zaliczał każdy człowiek i „oblewał" dowolny komputer.

Minimum doświadczenia informatycznego każe wszakże domyślać się, że test CAPTCHA może być złamany przez maszynę, względnie stanowić trudność dla człowieka. Niemniej formalnie zaczęły sprawdzać się scenariusze rodem z filmu „Łowca androidów", choć potencjalni myśliwi robotów muszą jeszcze poczekać na swoją kolejkę. Same testy CAPTCHA mają jednak zastosowanie praktyczne, a ich znaczenie rośnie właśnie z uwagi na technologie botowe.

W połowie ubiegłego stulecia świat już wiedział, że istnieje coś takiego jak „mózg elektronowy”. Pytano więc, czy ów „mózg” umie myśleć. Turnig zdawał sobie sprawę z tego, że jest to pytanie z gatunku: „czy duże jest niebieskie?”. Wszak bezpośrednie porównywanie maszyny do człowieka ma tylko ograniczony sens – podnieceni dyskutanci, debatujący o sztucznej inteligencji, zdają się o tym często zapominać. Turing postanowił zamienić to prowadzące do nieporozumień pytanie na zerojedynkowy test: czy człowiek konwersujący z komputerem i innym człowiekiem jest w stanie jednoznacznie określić, kiedy rozmawia z maszyną bądź też z żywym człowiekiem. Jeśli nie potrafił tego stwierdzić, maszyna zdawała test.

Czy jakiemuś komputerowi się to udało? I tak, i nie. Odpowiedź na to pytanie ma bowiem charakter statystyczny. Sam Turing prognozował ostrożnie, że w XXI wieku co trzeci człowiek zostanie „zmylony” przez komputer. Z kolei w fundowanej od początku lat 90. nagrodzie Loebnera wyjściowym kryterium dla przyznania złotego medalu jest próg 50%. Dodajmy, że nie należy mylić zaliczenia testu Turinga z tzw. efektem Elizy. Tu chodzi bowiem o rodzaj programu konwersacyjnego, którego celem jest symulacja przez komputer ludzkiego rozmówcy bez wiedzy o tym żywego partnera dialogu.

No cóż, w sugestywnej sytuacji wziąć chwilowo stracha na wróble za człowieka to jedno, a zupełnie czymś innym jest sytuacja, gdy wiemy, że naprzeciwko nas stoi strach na wróble obok człowieka. Naszym zadaniem jest jedynie wskazać, kto jest kim (bądź co jest czym).

Social bots. Czytnik doskonały

Powyższe rozważania nie mają tylko charakteru teoretycznego, to już praktyka w kontekście przemysłowych agentów, społecznościowych botów i sfery określanej terminem sztucznej inteligencji. Znaczenie testu Turinga objawiło się obecnie ze strony, której nie mógł przewidzieć twórca, i dotyczy elektronicznego spamu. Niepożądana poczta elektroniczna generowana jest m.in. z adresów tworzonych również w sposób automatyczny. W szczególności chodzi tu o tzw. adresy freemailowe. Przy czym owa „wolność” sprowadza się nie tylko do wymiaru finansowego (bezpłatność usługi), ale również do wymiaru adresowego – adres nie jest weryfikowany, choćby konwencjonalną pocztą, i może po prostu nie istnieć.

Nie ma zatem przeszkód, aby stosowny adres elektroniczny został przydzielony nie człowiekowi, ale botowi, agentowi bądź innemu programowi, który może dalej z takiego adresu korzystać, emitując spam. I tu właśnie z pomocą przychodzi CAPTCHA.

Prosta układanka obrazkowa bądź umiejętność odczytania zniekszałconego słowa okazują się dobrym „testem na człowieczeństwo”. Dobrym, ale nie doskonałym.

W odróżnieniu od klasycznego testu Turinga, w teście CAPTCHA rolę sędziego przejmuje maszyna. To ona wyrokuje, czy po drugiej stronie jest człowiek, czy inna maszyna. Taki test musi być zatem odporny na próby złamania go... maszynowym algorytmem.

A to oznacza, że, paradoksalnie, korzyści ze stosowania samych testów CAPTCHA mogą być mniejsze niż wiedza uzyskana podczas prób ich łamania.

A zatem program, który łamałby bez trudu test CAPTCHA, byłby jednocześnie doskonałym czytnikiem OCR lub znakomicie rozpoznawał kontekst informacji, np. w teście zdjęciowym: zaznacz tylko te pojazdy, które są ciężarówkami.

Social bots. Nowe przepisy

Wróćmy do kwestii obowiązkowego przedstawiania się botów. Siadając za kierownicą samochodu z nawigacją, nie usłyszymy przed każdą sentencją typu: za 200 metrów skręt w lewo, ostrzeżenia: uwaga, jestem robotem. Po prostu wiemy, że mówi do nas automat. Jeśli jednak na społecznościowym forum otrzymujemy bądź czytamy wiadomość podpisaną z reguły pseudonimem, to tego już nie wiemy. Jednocześnie serwerowy generator botów może w sekundę wysyłać ich tysiące, każdy z nich zindywidualizowany, w innym stylu, z inną treścią, z innym podpisem. A wszystkie mogą układać się wokół trendu prowadzącego do z góry założonego wyniku, np.: „nie należy się szczepić”.

Stąd istotne jest stanowisko Państwowej Komisji Wyborczej w sprawie zasad prowadzenia i finansowania kampanii wyborczej w internecie. Dokument o takim tytule i sygnaturze ZKF-811-50/18 z dn. 26.09.2018 r. znajdziemy na stronie Komisji w zakładce „Wyjaśnienia, stanowiska, komunikaty”. Czytamy w nim, że agitacja wyborcza prowadzona w internecie odgrywa coraz większą rolę w kampaniach wyborczych, stąd PKW zaleca, by boty były podpisywane przez komitety wyborcze. Komisja wskazuje też, że „materiały wyborcze powinny zawierać wyraźne oznaczenie komitetu wyborczego, od którego pochodzą” i dotyczy to również treści umieszczanych w sieci. W stanowisku znajdujemy ponadto dalsze szczegóły dotyczące fenomenu, wraz z oryginalną definicją botów jako „przekazów zwielokrotnianych na zlecenie komitetu przez osoby lub przez systemy zautomatyzowane”.

Zdaniem PKW takie boty muszą mieć oznaczenie komitetu wyborczego, a ich brak jest wykroczeniem. Pamiętajmy o tym przed kolejnymi wyborami w Polsce – parlamentarne już jesienią.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200