Jak zmanipulować tożsamość

Pojawiła się technologia, która pozwala na stworzenie realistycznego 3-wymiarowego modelu człowieka, który mówi to, co chcesz usłyszeć.

Naukowcy z Uniwersystetu w Waszyngtonie (University of Washington) opracowali system, który pozwala na generację 3-wymiarowych, w pełni interaktywnych wirtualnych modeli osób, które mówią i zachowują się zgodnie z zaplanowanym wzorcem.

Jeśli, w trakcie debaty politycznej, ktoś chciałby usłyszeć od polityka takie opinie, jakie z reguły wypowiada jego przeciwnik, nic prostszego, jak wykorzystanie technologii opracowanej na waszyngtońskim uniewersytecie.

Zobacz również:

  • Nowe akceleratory Intel Gaudi znacznie tańsze niż rozwiązania Nvidii. Czy spadną ceny chipów AI?
  • OpenAI wystarczy 15 sekundowa próbka, aby sklonować głos

Do uruchomienia systemu niezbędna jest analiza odpowiednio dużego zbioru wysokiej jakości zdjęć i wideo, co w wypadku znanych osób z reguły nie jest problemem. Dlatego do praktycznej prezentacji działania aplikacji naukowcy wykorzystali zdjęcia i wideo takich osób, jak m.in. Tom Hanks, Barrack Obama, Hillary Clinton i George W. Bush.

Na ich podstawie opracowano realistyczne 3-wymiarowe awatary oraz oprogramowanie, które umożliwia przypisanie im mimiki, sposobu zachowania, ekspresji i wypowiedzi innych osób.

Uczenie maszynowe (machine learning) to ostatnio szybko rozwijająca się nauka interdyscyplinarna wchodząca w skład nauk zajmujących się sztuczną inteligencją. Jej głównym celem jest praktyczne zastosowanie dokonań w dziedzinie sztucznej inteligencji do stworzenia automatycznego systemu potrafiącego doskonalić się przy pomocy zgromadzonych danych i nabywania na ich podstawie nowej wiedzy.

Do stworzenia 3-wymiarowych modeli, naukowcy wykorzystali algorytmy uczenia maszynowego (machine learning) umożliwiające wyszukiwanie i analizowanie zdjęć i wideo dostępnych w internecie, które prezentowały dane osoby w różnym otoczeniu, pozycjach i sytuacjach.

Następnie opracowali mechanizmy umożliwiające wychwycenie elementów struktury obrazu odpowiedzialnych za mimikę i ekspresję danej osoby czyli drobnych różnic, które wyrażają zdziwienie, uśmiech lub charakterystyczne ruchy ust, a także oprogramowanie do analizy i transformacji warunków oświetlenia rejestrowanych na zdjęciach i wideo.

Wykorzystanie tych szczegółowych danych pozwoliło na stworzenie aplikacji, która umożliwia kontrolowanie i sterowanie realistycznym, cyfrowym modelem jednej osoby przez wideo dotyczące kogoś zupełnie innego.

Jak to działa w praktyce można zobaczyć na załączonych niżej filmach wideo.

Technologia może znaleźć praktyczne zastosowania. Wyobraźmy sobie możliwość przeprowadzenia rozmowy z osobami, które w praktyce najczęściej są niedostępne dla przeciętnego człowieka, na przykład z Barackiem Obamą, Wladimirem Putinem, Jarosławem Kaczyńskim itp. A jednocześnie, usłyszenia odpowiedzi na zadawane pytania, które są z grubsza zgodne z naszymi preferencjami i oczekiwaniami.

Jak przyznają naukowcy z waszyngtońskiego uniwersytetu, ten kierunek rozwoju technologii powoduje, że trzeba będzie postawić nowe pytania dotyczące tożsamości osób i granic manipulacji nią.

Prace nad zaprezentowaną technologią trwały 5 lat. Prowadził je zespół kierowany przez profesor Irę Kemelmacher-Shlizerman. Projekt był wspierany finansowo przez Samsung, Google i Intela.

Więcej informacji o tej technologii można znaleźć w publikacji “What Makes Tom Hanks Look Like Tom Hanks”, która zostanie zaprezentowana w Chile na konferencji International Conference on Computer Vision.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200