Mowa nienawiści to duży problem Facebooka

Facebook przekonuje, że sztuczna inteligencja zdołała zredukować mowę nienawiści o 50%. Serwis społecznościowy ciągle jednak ma duży problem i wygląda na to, że technologia, której używa jest niewystarczająca.

Mowa nienawiści to problem firmy Marka Zuckerberga / Fot. Annie Spratt, Unsplash.com

Mowa nienawiści to problem firmy Marka Zuckerberga / Fot. Annie Spratt, Unsplash.com

Facebook spotkał się z krytyką, że jego sztuczna inteligencja nie wykrywa mowy nienawiści. Firma podkreśliła, że wykrywa, ale nie jest jeszcze w stanie działać tak skutecznie, jak można by sobie tego życzyć.

Wall Street Journal opublikował raport oparty na wewnętrznych dokumentach i informacjach od pracowników Facebooka. Wynika z niego, że platforma jest w stanie usuwać tylko "niski, jednocyfrowy odsetek" wpisów, które naruszają jej zasady postępowania.

Zobacz również:

  • Meta będzie znakować szkodliwe treści generowane przez AI
  • LinkedIn niczym TikTok? Portal testuje nowe formaty

Zobacz: Open Office

Według raportu sztuczna inteligencja wykorzystywana do identyfikowania szkodliwych treści ma problemy z wykrywaniem filmów z pierwszej osoby (styl kręcenia) i rasistowskich tyrad, a także z odróżnianiem walk kogutów od wypadków samochodowych. Jest jednak bardziej przystępna cenowo niż moderatorzy, którzy w 2019 r. kosztowali firmę "2 miliony dolarów tygodniowo lub 104 miliony dolarów rocznie" - według WSJ.

Guy Rosen, wiceprezes Facebooka ds. uczciwości, skomentował artykuł WSJ kilka godzin po jego opublikowaniu, stwierdzając, że mowa nienawiści została zmniejszona o prawie 50% w ciągu ostatnich trzech kwartałów.

Według firmy "rozpowszechnienie jest najważniejszym wskaźnikiem, którego należy użyć, ponieważ pokazuje, ile mowy nienawiści faktycznie widać na Facebooku".

Rosen dodał: "Ostatnie raporty sugerują, że nasze podejście do radzenia sobie z mową nienawiści jest znacznie węższe niż w rzeczywistości, ignorując fakt, że rozpowszechnienie mowy nienawiści spadło do 0,05%, czyli 5 wyświetleń na każde 10 000 na Facebooku".

Mowa nienawiści ciągle dostępna

Warto tutaj wyjaśnić, że Facebook stosuje mechanizmy, które kontrolują widoczność postów. Gdy nie ma pewności czy dany wpis narusza warunki serwisu, jego widoczność znacznie się zmniejsza. To z kolei ogranicza dalszą dystrybucję i polecenia użytkowników. Ma to na celu ochronę tych, którzy publikują "treści wyglądające jak mowa nienawiści, ale w praktyce nimi nie są".

Sprawdź: E-pacjent

Facebook przekonuje, że 97% usuniętych treści jest identyfikowanych przez jej algorytm, w porównaniu do 23,6% w 2016 r. Jednocześnie firma przyznała, że decyzja o wykorzystywaniu AI do monitorowania mowy nienawiści była motywowana kosztami.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200