Dlaczego problem fake news wymaga rozwiązania opartego na sztucznej inteligencji i blockchainie?

Sztuczna inteligencja i blockchain mają ogromny potencjał w walce z dezinformacją i fałszywymi wiadomościami.

Dlaczego problem fake news wymaga rozwiązania opartego na sztucznej inteligencji i blockchainie?

Źródło: Shutterstock

Rosyjska inwazja na Ukrainę dała nowy impuls do rozpowszechniania fałszywych wiadomości w Internecie do tego stopnia, że firma NewsGuard, zajmująca się zwalczaniem dezinformacji, śledzi obecnie 201 stron internetowych, które jej zdaniem rozpowszechniają mity na temat wojny. Nie jest to nowy problem. Wojna oczywiście tylko go nasila, a taktyka jest stara jak świat - Brytyjczycy w 1942 roku uruchomili nadajnik o nazwie Aspidistra, który miał nadawać programy przekonujące Niemców, że wojna źle się kończy dla ich kraju.

Problem w tym, że dezinformacja zdaje się narastać i nie chodzi tu tylko o Rosję i Ukrainę. W szczytowym okresie pandemii wirusa Covid-19, a także w czasie ostatnich wyborów i referendów w USA i Europie, nastąpił gwałtowny wzrost dezinformacji. Wygląda na to, że fake newsy będą się pojawiać coraz częściej tam, gdzie istnieje możliwość spolaryzowania opinii publicznej lub kradzieży danych.

Zobacz również:

  • Rosyjski Yandex otwiera publiczny dostęp do dużego modelu językowego AI
  • Fake zdjęcia to prawdziwa plaga. Adobe chce z nią walczyć
  • UE zamierza nakładać kary na big techy za tolerowanie fałszywych kont

Niepokojące jest jednak to, że do rozpowszechniania fałszywych wiadomości wykorzystuje się obecnie sztuczną inteligencję. Julia Ebner, starszy pracownik naukowy w Instytucie Dialogu Strategicznego, opisała niedawno, w jaki sposób rosyjska sztuczna inteligencja była wykorzystywana do identyfikowania, wzmacniania i wykorzystywania skarg w Internecie w celu podważenia pokoju w krajach zachodnich. Przemawiając podczas niedawnego webinarium Cityforum, stwierdziła, że w efekcie Rosjanie wykorzystują sztuczną inteligencję do uzbrajania ekstremistycznych ideologii i spisków.

Sztuczna inteligencja ma jednak ogromny potencjał także w walce z terroryzmem. Potrzebujemy jej, ponieważ musimy pamiętać, że wszyscy jesteśmy podatni na oszustwa. Jak ostrzegło Światowe Forum Ekonomiczne w swoim ostatnim raporcie „Zdolność do rozcieńczania prawdy”, w fałszywe historie wierzą nie tylko osoby „o słabej wiedzy naukowej, niskich zdolnościach poznawczych i skłonności do akceptowania słabych twierdzeń”. Nikt nie jest odporny, dlatego najlepszym rozwiązaniem jest zastosowanie technologii.

„Sztuczna inteligencja może zwiększyć zasięg i dokładność wyszukiwania fałszywych wiadomości, zwłaszcza gdy skupimy się na danych tekstowych” - uważa Mohammad Mahdavi, profesor w dziedzinie nauki o danych w GISMA Business School w Niemczech. "Jeśli wystarczająco zawęzimy dziedzinę wiadomości, SI może zostać przeszkolona do automatycznego rozpoznawania konkretnych rodzajów dezinformacji, np. tych, którzy twierdzą, że ziemia jest płaska. W przypadku szerszych dziedzin wiadomości, takich jak wszystkie fake newsy czy propaganda wokół wojny na Ukrainie, SI może ułatwić ludziom proces sprawdzania faktów.

Dr Adnan Masood, główny architekt ds. SI w firmie UST zajmującej się transformacją cyfrową, zgadza się z tym stwierdzeniem. Twierdzi on, że choć fałszywe wiadomości, dezinformacja i dezinformacja stanowią poważny problem, na szczęście SI może odegrać w nim dużą rolę.

„SI może wykorzystać modele kodera/dekodera do śledzenia sposobu generowania tekstu i określania, co zostało napisane przez ludzi, a które rozmowy w mediach społecznościowych są czysto sztuczne” - mówi. „Sygnały wskazujące na publikacje kierowane przez boty można uzyskać, patrząc na sygnatury algorytmów NLG, występowanie pewnych słów kluczowych („Donbas” i „denazyfikacja” oraz „broń biologiczna” to ulubione słowa rosyjskich propagandystów), a jednocześnie stosując narzędzia do identyfikacji języka naturalnego.”

Na przykład, szacuje się, że 45% rosyjskiego ruchu internetowego jest kierowane przez boty, dodaje Masood, więc wyraźnie ukierunkowanie na ruch botowy jest zrozumiałą linią ataku. Ale nie jest to jedyna linia. Jak sugeruje Mahdavi, technologia powinna pomagać ludziom w wykorzenianiu wszelkich potencjalnie fałszywych twierdzeń w Internecie, wykorzystując sztuczną inteligencję do zbierania dowodów, łącząc elementy w celu identyfikacji fałszywych wiadomości i dezinformacji. Niestety, SI jeszcze nie osiągnęła tego celu.

Madhavi twierdzi, że nie jest to jeszcze zadanie, które maszyny mogą wykonać w sposób w pełni zautomatyzowany, bez udziału człowieka, zwłaszcza gdy domena wiadomości jest szeroka i może obejmować wszelkie dezinformacje związane z wydarzeniami takimi jak wojna na Ukrainie.

„Główny problem polega na tym, że maszyna potrzebuje danych szkoleniowych, aby nauczyć się fałszywych i prawdziwych wiadomości” - mówi Madhavi. „Gdy dziedzina wiadomości jest szeroka, zebranie wystarczającej ilości danych treningowych, aby nauczyć maszynę wszystkich rodzajów dezinformacji w tej dziedzinie, jest trudnym zadaniem. Niemniej jednak, maszyna może nadal pracować jako system wspomagania decyzji wraz z ludźmi, aby przyspieszyć proces sprawdzania faktów”. Maszyny mogą nadal zbierać i dostarczać odpowiednie dowody, a ostateczną weryfikację pozostawić ludziom.

Być może musimy również przyjrzeć się blockchainowi, dotrzeć do źródła problemu i umożliwić „walidację” historii i informacji pochodzących z renomowanych źródeł. Oczywiście, to samo w sobie jest tematem spornym, który obejmuje teorie polityczne i społeczne. Chodzi o to, że blockchain mógłby przynajmniej zapewnić, że historia udająca, że pochodzi z renomowanego źródła, zostałaby natychmiast zauważona, nieprawdaż?

Masood twierdzi, że technologia księgi rozproszonej i blockchain może odegrać tu znaczącą rolę. Sugeruje on, że można by je wykorzystać do zapewnienia dodatkowej warstwy uwierzytelniania, „która weryfikowałaby historie na wielu nośnikach poprzez prześledzenie ich pochodzenia z renomowanego źródła”.

Ale jak niby miałoby to działać?

„Ma on ogromny potencjał, aby zapewnić walidację historii poprzez organizowanie treści na niezmiennych cyfrowych księgach, które przypisują dziennikarzom niezmywalne i przejrzyste tokeny” - dodaje. „Księgi rozproszone zapewniają możliwość śledzenia własności, co jest niezbędne, aby zrozumieć, skąd właściwie pochodzą treści. Tworząc wskaźniki wiarygodności dla mediów, a nawet poszczególnych dziennikarzy, technologia blockchain może przywrócić zaufanie do mediów. Ponieważ systemy blockchain opierają się na zdecentralizowanej księdze, w której informacje są zapisywane w sposób stale weryfikowany i ponownie weryfikowany przez każdego użytkownika, są one prawie niemożliwe do zmiany lub sfałszowania.”

To interesująca myśl, wprowadzająca media na ścieżkę, która mogłaby niemal nagradzać uczciwość. Masood przedstawia pomysł „systemu reputacji”, który śledziłby publikacje poprzez ich pochodzenie. Właściciele i twórcy oryginalnych treści byliby weryfikowani i identyfikowalni za pośrednictwem księgi rozproszonej.

Jest to wykonalne, ale stanowi wyzwanie kulturowe. W przypadku sztucznej inteligencji pojawia się także problem tendencyjności danych. Jakie są parametry rozpoznawania fałszywych wiadomości? Kto o tym decyduje? Rządy? Liderzy technologiczni? Co ciekawe, Full Fact, inna strona zajmująca się zwalczaniem dezinformacji, opublikowała niedawno 10-punktowy plan, który powinni rozważyć regulatorzy. Skupia się on bardziej na sposobie myślenia, a mniej na technologii, ale aby to zadziałało, potrzebne są oba te elementy, a to stwarza okazję do innowacji i zmian.

Źródło: IDG Connect

O Autorze

Marc Ambasna-Jones jest wolnym strzelcem i konsultantem medialnym z Wielkiej Brytanii. Od 1989 r. zajmuje się tematyką biznesową i technologiczną.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200