Nowe narzędzie firmy OpenAI wykryje, czy obraz stworzony przez jej AI nie został zmodyfikowany

Osoby mające złe intencje coraz częściej modyfikują obrazy wygenerowane przez sztuczną inteligencję w taki sposób, aby zawierały fałszywe przesłanie. Chcąc temu przeciwdziałać, firma OpenAI opracowała narzędzie, które może wykryć modyfikacje wprowadzone do obrazów wygenerowanych przez jej sztuczną inteligencję.

Grafika: Jack-Moreh/freerangestock

Mowa o obrazach utworzonych przez DALL-E 3. OpenAI udostępniło w tym tygodniu takie narzędzia pierwszej grupie testerów. Osoby zainteresowany prowadzeniem takich testów powinni zajrzeć na tę stronę. Będą mogli wtedy ocenić skuteczność narzędzia, sprawdzić jak się sprawuje w rzeczywistym świecie, a także przyjrzeć się czynnikom determinującym treści generowane przez sztuczną inteligencję.

OpenAI zastrzega się przy tym, że skuteczność działania narzędzia zależy od tego, jak obraz został zmodyfikowany. Jeśli są to ordynarne fałszerstwa, narzędzie wykryje je bezbłędnie, Gorzej jest, jeśli osoba modyfikująca obraz ma doświadczenie w tego rodzaju manipulacjach. Wtedy narzędzie może mieć kłopoty z wykryciem oszustwa.

Zobacz również:

  • Tak projektuje się peryferia - z wizytą w siedzibie Logitech
  • Polak obejmie w firmie OpenAI stanowisko dyrektora odpowiedzialnego za badania
  • Canva dokonuje największego przejęcia w pościgu za Adobe

Pierwsze testy wykazały, że narzędzie spełnia pokładane w nim nadzieje. I tak narzędzie potrafiło 98% przypadków potwierdzić, że zaprezentowane jej obrazy zostały stworzone przez DALL-E 3. Odsetek zmodyfikowanych obrazów, które narzędzie zakwalifikowało jako prawdziwe, wyniósł 0,5% . Narzędzia miało też kłopoty z określeniem, czy obraz jest oryginalny czy zmodyfikowany wtedy, gdy fałszerz zmienił nieznacznie odcienie kolorów. OpenAI ma nadzieję rozwiązać tego typu problemy, zapewniając zewnętrznym testerom szerszy dostęp do narzędzia.

Niewątpliwą zaletą narzędzia jest to, że narzędzie nie bada znaków wodnych. Inne firmy mające w ofercie podobne narzędzia używają znaków wodnych, aby wskazać, że obraz jest generowany przez ich własne narzędzie AI. Kłopot w tym, ż można je dość łatwo usunąć, co czyni je nieprzydatnymi. Obrazy generowane przez sztuczną inteligencję są szczególnie szkodliwe w roku wyborczym. Wrogie partie mogą bowiem z łatwością wykorzystać takie obrazy, aby przedstawić kandydatów politycznych lub sprawy polityczne w negatywnym świetle. Biorąc pod uwagę ciągły postęp w generatorach obrazów AI, ustalenie, co jest prawdziwe, a co fałszywe, staje się coraz większym wyzwaniem.

OpenAI poinformowało również, że podjęło decyzję o dołączeniu do koalicji C2PA (Coalition for Content Provenance and Authenticity). Opracowany przez nią standard certyfikacji treści cyfrowych został zaakceptowany przez dostawców oprogramowania, producentów aparatów fotograficznych i platform internetowych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200