Článek
Mluvící Mona Lisa nebo zpívající prezidenti. Forma úpravy videa zvaná deepfakes umí vytvořit zábavné záběry tím, že propojí mimiku vzoru s obličejem cíle. Ten poté vypadá, že skutečně říká věty, které lze ve videu slyšet.
Na první pohled nevinná zábava však skýtá mnohá nebezpečí. Po internetu se díky ní mohou šířit videa s politiky vyjadřujícími se způsobem, který se hodí jejich odpůrcům. I proto se vědci z newyorské univerzity Tandon rozhodli, že proti hrozbě vytvoří technologii, která úpravy znemožní. Se zprávou přišel server wired.com.
Začali proto vyvíjet kameru, která, na rozdíl od současných technologií, označuje nahraný materiál neodstranitelným ekvivalentem vodoznaku. Díky tomu lze při přezkoumávání videa poznat, jestli jej někdo upravoval, nebo ne.
Vědci tyto vodoznaky vložili především do určitých barevných frekvencí, které neovlivní ani tradiční úpravy, jako nastavení komprese nebo jasu, ale změní se, pokud se upraví obsah obrazu. Technologie tak zvýšila přesnost detekce manipulace s obrázky z odhadovaných 45 procent na 90 procent.
Hrozba deepfakes je stále aktuálnější díky rychle se vyvíjející technologii, která manipulaci umožňuje. Samsung například ve svém centru pro umělou inteligenci v Moskvě dokázal vytvořit věrnou animaci za použití pouze jednoho obrázku.
Minulý týden sdílely miliony lidí video, na kterém se zdá, že předsedkyně Sněmovny reprezentantů Spojených států Nancy Pelosiová je opilá nebo jinak indisponovaná při svém proslovu. I vzhledem k tomu, že Facebook odmítl video zablokovat, jej velmi rychle začali šířit příznivci prezidenta Trumpa, mimo jiné i jeho právník a bývalý starosta New Yorku. Ten jej ze svého Facebooku stáhl poté, co byla manipulace odhalena.
Celebrity zase čelí fenoménu, kdy jsou jejich tváře „naklíčované“ na těla v pornografických materiálech.