Hlavní obsah

Kdyby se takové video objevilo první den války, mohl Kyjev padnout?

Po internetu se šířilo falešné video, ve kterém vystupoval neohrabaný elektronicky vytvořený dvojník ukrajinského prezidenta.Video: střih: Pavel Kasík, Seznam Zprávy

Na videu je mediálně známý ukrajinský prezident. Nebo to tak alespoň na první pohled vypadá. Poznali byste, že jde o manipulaci? Jde o zatím největší pokus o využití tzv. deep fake videomontáže pro politické a válečné účely.

Článek

To, před čím ukrajinská vláda varovala, se naplnilo. Ve středu se na sociálních sítích objevilo video prezidenta Zelenského, ve kterém vyzývá své vojáky ke složení zbraní. Nešlo však o autentické video, nýbrž takzvaný deep fake. Počítačem manipulované video, které „přelepí“ obličej jednoho člověka na obličej cílového herce – v tomto případě byl cílem právě Volodymyr Zelenskyj.

Video kolovalo primárně po Facebooku a YouTube. Zveřejněno bylo také na Telegramu a ruské sociální síti VKontakte. Zachycuje ukrajinského prezidenta nepřirozeně strnulého. Hlubokým hlasem v něm vyzývá vojáky, aby se vzdali a složili své zbraně. Obrázek z videa s popiskem o složení zbraní se dokonce objevil i na hackery napadených stránkách televizní stanice Ukraine 24.

Deep Fake videa: prezident, komedie i porno

Videomontáž zvaná „deep fake“ využívá strojového učení. Odtud také pochází její název, slovo deep odkazuje na tzv. hluboké strojové učení využívající umělé neuronové sítě. Od běžných videomontáží se deep fake liší především svou dostupností a rychlostí.

Zatímco dříve by věrohodná montáž vyžadovala práci celého týmu schopných grafiků a odborníků na filmové efekty, dnes zvládne „přelepit jeden obličej druhým“ téměř kdokoli. Stačí k tomu zdrojové video a co nejvíce fotek cílového herce. Třeba v této ukázce z produkce HBO natočil herec Jan Vlasák zdrojové video, na které pak schopný grafik nalepil podobu prezidenta Miloše Zemana.

Deep Fake montáž Miloše Zemana pro reklamu na seriál Bez vědomí z produkce HBOVideo: video: HBO, sestřih: Pavel Kasík

V případě deep fake videomontáže ukrajinského prezidenta se sešly veškeré ingredience, před kterými experti dlouho varovali – rychlé šíření videa velmi známé osobnosti ve vypjaté situaci. Přesto se zjevně podařilo zabránit tomu, aby měly videomontáž a její falešná zpráva nějaké větší následky.

Rychlá reakce je klíčová

„Přátelé, opakovaně jsme na to upozorňovali. Nikdo se nehodlá vzdát. Zvláště v podmínkách, kdy ukrajinská armáda v bojích poráží ruskou armádu!“ napsala televizní stanice ihned poté, co útok na své stránky odhalila.

Pár minut poté už se k videomontáži vyjádřil i samotný prezident Zelenskyj, který na svém facebookovém a telegramovém profilu zveřejnil skutečné video. Rezolutně odmítl, že by volal po složení zbraní. „Je to dětinská provokace,“ sdělil.

Celou situaci začaly řešit i samotné sociální sítě, které promptně zavedly kroky k mazání tohoto konkrétního videa. To podle Nathaniela Gleichera, šéfa pravidel bezpečnosti společnosti Meta, která vlastní a spravuje Facebook, Instagram a další sítě, porušovalo pravidla proti zavádějícím a zmanipulovaným zprávám.

A po Facebooku následoval i YouTube. Mluvčí Ivy Choiová oznámila, že společnost bude znovu nahraná videa mazat. Stejné rozhodnutí přijala i společnost Twitter. Naopak na ruské sítí Vkontakte bylo video podle pozorování organizace Atlantic Council podporováno a jeho dosah byl posilován.

Podle expertů je toto video pouze začátek a lze se domnívat, že v budoucnosti uvidíme takových montáží více. „Tohle je první [pokus], který za něco stojí. Mám ale podezření, že je to pouze špička ledovce,“ řekl pro americkou rozhlasovou stanici NPR Hany Farid, profesor na Univerzitě Berkeley v Kalifornii, který se věnuje forenzní analýze digitálních médií.

Zatím se pokročilé montáže nevyplácely

Dlužno dodat, že odborníci před nebezpečím deep fake velmi intenzivně varují už od roku 2016. Tehdy se ještě technice neříkalo deep fake, šlo tehdy o relativně málo známou práci německých výzkumníků. Ukázali, jak pomocí strojového učení mohou „vnutit“ grimasy či výrazy jinému videu s jiným obličejem. Jako ukázkovou figurínu si mimo jiné zvolili ruského prezidenta Putina.

Vědci ukázali základy strojové náhrady obličeje ve videu už v roce 2016.Video: Face2Face, Thies at al 2016, sestřih Pavel Kasík

Všimněte si mimochodem, že když se herec vlevo směje, působí Putinův výraz nepřirozeně. Podle výzkumníků je to způsobené tím, že neuronová síť pracuje se snímky Putinova obličeje, které vědci nasbírali z veřejně dostupných zdrojů. A protože není mnoho dostupných snímků srdečně se smějícího Putina, musí v takovém případě „umělá inteligence“ mnohem více improvizovat, což jí v roce 2016 moc nešlo.

Na výsluní mediální pozornosti se deep fakes dostaly v souvislosti s (převážně) pornografickými videomontážemi v roce 2018 a 2019. Od té doby se v médiích i na odborných konferencích pravidelně objevují varování před tím, jak deep fake videa zamíchají důvěryhodností a zasáhnou to politických kampaní.

„Myšlenka, že by někdo mohl na tělo člověka umístit tvář jiné osoby, by byla důležitou zbraní každého, kdo by chtěl zasahovat do politického procesu,“ řekl v roce 2018 senátor za Virginii Mark Warner. Zmanipulované video podle něj mělo záhy změnit pravidla hry v globální politice. „Nyní se to stane novou realitou, jistě do roku 2020, ale potenciálně dokonce již letos,“ řekl tehdy.

Ve stejném roce před deep fake montážemi varoval i slavný komik Jordan Peele s využitím ještě slavnějšího obličeje Baracka Obamy. A v roce 2020 odborníci předvídali „záplavu deep faků“.

Realita však za těmito varováními zaostala o několik let. Je nepochybné, že ohromné množství deep fake videí zasáhla do soukromí tisíců lidí, především žen. Rozhodně ale tato technika nepatří k hlavním nástrojům tvůrců propagandy a falešných zpráv. Hlavním důvodem je zbytečná náročnost takového počínání. Proč trávit desítky hodin tvorbou něčeho, co lze beztak vyvrátit. Pragmaticky vzato je mnohem rychlejší vytvořit a rozeslat za stejnou dobu tisíc falešných řetězových e-mailů nebo příspěvků na sociálních sítích, na jejichž vyvracení nikdo nebude mít čas ani energii.

Čemu se dá věřit?

První velký pokus využít deep fake ke zmanipulování veřejnosti zjevně nevyšel. Ukrajinský prezident reagoval rychle, a také technologické platformy byly připraveny a vcelku flexibilně zasáhly. Je ale nutné počítat s tím, že to nebude pokus poslední.

„Pokud by takové video bylo udělané profesionálně a bylo by publikováno dříve, když ještě Rusové úspěšně postupovali na Kyjev, mohlo vyvolat v lidech nejistotu a zmatek,“ shrnuje Samuel Bendett, odborník na ruské obranné technologie v neziskové společnosti CNA.

A ne každý případ bude tak mediálně známý, ne každý kontext tak jednoznačný, ne každý člověk bude schopen se bránit. Klade to mnohem větší nároky na publikum i novináře, kteří se snaží o realitě co nejlépe informovat.

I nepovedená montáž navíc vytváří v lidech nejistotu do budoucna. Až příště uvidí nějaké video s prezidentem Zelenským, mohou mít pochybnosti ohledně toho, čemu mohou věřit a čemu ne. Vždyť už se jednou nějaké falešné video šířilo, vzpomenou si. Říká se tomu lhářova dividenda.

„Pokud politik vydá prohlášení, v němž obviní opozici z nečisté hry a důkaz označí za deep fake, může část veřejnosti znejistit,“ vysvětlují odborníci z univerzity Georgia Tech. Jinými slovy, lhář může čerpat z toho, že lidé jsou předem znejistěni. Stačí rozšířit povědomí o tom, že věci mohou být falešné, a pak za deep fake označit cokoli, co chceme zpochybnit.

„Je pak snadné tvrdit, že pravdivé video je zfalšované, a svalit břemeno dokazování jeho pravosti na ostatní,“ upozorňuje Sam Gregory z organizace Witness, která se zabývá ověřováním obsahu. To ostatně patří mezi hlavní cíle ruské hybridní války. Vyvolat nejistotu a obecnou nedůvěru v to, že je vůbec možné poznat, jaká je pravda.

Doporučované