Trwa walka z botami używanymi do rozpowszechniania dezinformacji

Tak jak każda technologia, również AI służy zarówno dobrym, jak i złym celom. Świadczą o tym doniesienia, że szereg państw wykorzystuje sztuczną inteligencję do tworzenia i rozpowszechniania dezinformacji, z którą walka staje się coraz trudniejsza.

Grafika: Markus Spiske/Unsplash

Niechlubną rolę w rozpowszechnianiu informacji odgrywa najbardziej znane narzędzie AI, jakim jest ChatGPT. Twórcy fake newsów wykorzystują programy ChatGPT do generowania tekstów i obrazów, a także do generowania komentarzy lub odpowiedzi na własne posty. Polityka OpenAI zabrania używania jej modeli do oszukiwania lub wprowadzania kogokolwiek w błąd, ale twórcy fake newsów za nic biorą sobie takie ostrzeżenia.

Firma OpenAI opublikowała raport poruszające tę kwestę. Można w nim przeczytać, że jej narzędzia AI są wykorzystywane do rozpowszechniania dezinformacji dotyczących takich kwestii, jak inwazja Rosji na Ukrainę, konflikt w strefie Gazy oraz wybory. Platformy mediów społecznościowych próbują na różne sposoby bronić się przez takim procederem, ale jest to prawdziwa walka z wiatrakami. Na szybko rozwijające się firmy zajmujące się sztuczną inteligencją rośnie presja, aby zaczęły skutecznie przeciwdziałać takim praktykom. Rzecz w tym iż szybki postęp technologii AI oznacza, że sprawcy dezinformacji mogą taniej i łatwiej niż kiedykolwiek tworzyć realistyczne wpisy deep fake i manipulować mediami, a następnie rozpowszechniać te treści w pełni zautomatyzowany sposób.

Zobacz również:

  • Internetowa transmisja meczu Polski z Austrią przerwana z powodu ataku DDoS
  • Ta ciekawa technologia AI ulży życiu pracowników call center
  • Meta będzie znakować szkodliwe treści generowane przez AI

Firma OpenAI zaczęła tworzyć własne narzędzia oparte na sztucznej inteligencji, które potrafią automatycznie wykrywanie różnego rodzaju dezinformacje. Narzędzia takie potrafią np. sprawdzać, czy bot ChatGPT nie jest wykorzystywany do rozpowszechniania dezinformacji. Jeśli narzędzie wykryje taki przypadek, odmawia wygenerowania żądanego tekstu lub obrazów. OpenAI ujawniło niedawno, że z jego narzędzi korzystało kilku znanych, powiązanych z rządami niektórych państw grup, które specjalizują się w rozpowszechnianiu dezinformacji. Jako przykład wymienia wspieraną przez Kreml grupę Bad Grammar, twierdząc iż wykorzystała ona modele OpenAI do debugowania kodu umożliwiającego budowanie botów tworzących w różnych językach krótkie komentarze polityczne zawierające nieprawdziwe czy propagandowe treści.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200