Nowe narzędzie pozwala szybko identyfikować przekazy deep fake

Naukowcy opracowali nowatorskie narzędzie zdolne identyfikować fałszywe zdjęcia i przekazy wideo typu „deep fake”, którego skuteczność szacuje się na 94%. Jest to możliwe dzięki temu, że narzędzie analizuje precyzyjnie obraz widoczny w oczach znajdujących się na zdjęciach osób, który odbija się od otoczenia.

Deep fake

Obrazy deep fake są preparowane cyfrowo, najczęściej za pomocą technologii wykorzystującej sztuczną inteligencję, znaną pod skrótem GAN (Generative Adversarial Networks; co można przetłumaczyć jako generatywne sieci kontradyktoryjne). Oprogramowanie tego typu jest powszechnie stosowane do modyfikowania filmów lub obrazów w celu zastąpienia twarzy oryginalnej osoby twarzą innej dowolnej osoby. Identyfikowane takich podróbek jest obecnie bardzo trudne.

Przełomowego odkrycia, umożliwiającego wykrywanie takich oszustw, dokonali naukowcy z University of Buffalo. Twierdzą, że wyprodukowanie fałszywego przekazu deep fake, który byłby w stanie oszukać opracowane przez nich narzędzie, jest niezwykle trudne, wręcz niemożliwe.

Zobacz również:

  • YouTube będzie wymagać od twórców oznaczania filmów generowanych przez AI
  • Chiny dokonały pierwszego aresztowania za używanie chatbota AI do publikowania fałszywych informacji

Przeprowadzone przez badania wykazały, że na prawdziwych zdjęciach zawierających postacie ludzi, widoczny w ich obu gałkach ocznych, odbity od otoczenia obraz, jest zawsze identyczny. Jednocześnie analizy fałszywych przekazów deep fake pokazują, że obrazy widoczne na obu gałkach ocznych różnią się od siebie co oznacza, że przekaz został zmanipulowany.

Nie ulega wątpliwości, że twórcy przekazów deep fake będą się teraz starali opracować nowe metody ich preparowania, ale zapewne nie będzie to już tak łatwe, jeśli w ogóle możliwe.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200