Článek
Článek si také můžete poslechnout v audioverzi.
Kybernetičtí zločinci si v Česku čím dál tím častěji zkouší práci s umělou inteligencí (AI). Od loňského ledna, kdy se v bankovním světě poprvé objevil strojem sestavený „živý člověk“ lákající klienty na „výhodnou investici“, se drzost podvodníků výrazně zvýšila.
Namísto umělého bankéře nyní zneužívají známé tváře a „jejich hlasem“ nabízejí lidem obrovské zisky, pokud vloží své peníze do investicí, které jsou naprosto smyšlené. Skrývají se za politiky, herce, sportovce, umělce či třeba i známé moderátory z televize.
„Tato falešná videa měla bohužel u našich klientů obrovský úspěch. Meziročně se zvýšil počet pokusů o okradení klientů zhruba o čtvrtinu, v absolutních číslech to jsou vždy stovky případů navíc, které řešíme a snažíme se klienty přesvědčit, aby podvodníkům peníze na „zázračné investice“ nepřeváděli, ale je to často marné,“ říká Marek Macháček, expert na prevenci platebních podvodů Komerční banky.
Zvláště lidé nad 50 let mají podle něj problém pochopit, že technologie jsou už tak vyspělé, že umějí napodobit hlas i obraz jejich oblíbené osobnosti, a bezmezně věří tomu, co vidí a slyší. Vidina rychlého zbohatnutí jim znemožňuje zapojit selský rozum, který by je varoval, že není možné lehce pohádkově zbohatnout, a nemůže existovat zázračná technologie, která dokáže ze dne na den udělat ze všech občanů v České republice boháče.
Co to jsou deepfake technologie
- Deepfake technologie využívají strojové učení a umělou inteligenci k vytváření nebo úpravě videí a zvukových nahrávek, aby vypadaly a zněly autenticky. Vyobrazené osoby pak mohou dělat a říkat věci, které ve skutečnosti nikdy neudělaly ani neřekly.
- Deepfake videa se mohou snažit vylákat z lidí peníze na podvodné investice, v kontextu voleb mohou podobná videa poškodit reputaci politiků, šířit falešné zprávy a dezinformace a v konečném důsledku tak ovlivnit rozhodování voličů a ohrozit demokracii.
Zdroj: Check Point Software Technologies
„Lidé jsou až militantní. Nedají se přesvědčit, že se je někdo snaží okrást a trvají na tom, abychom peníze podvodníkům převedli. Myslí si, že jim chci jejich cestu k bohatství překazit. Emočně je velmi náročné se vypořádat s tím, že víte, že se právě někdo snaží třeba důchodci sebrat veškeré jeho úspory, ale on si nedá říci a peníze i přes varování převede a tím o ně přijde,“ vysvětluje Macháček.
SZ Byznys získal od Komerční banky tři taková videa a poskytl je expertovi na kybernetické útoky k okomentování. Manažer pro ČR, Slovensko z kyberbezpečnostní společnosti Check Point Software Technologies Miloslav Lujka hodnotí pomocí známek jako ve škole, jak moc jsou jednotlivé spoty zdařilé a čeho podezřelého si na nich mají lidé všímat.
Níže tato tři falešná videa uvidíte. Pusťte si je a zkuste si nejprve sami říci, co je na nich podezřelého. Pak si přečtěte komentář experta a podívejte se případně na videa znovu, abyste si podezřelé momenty dokázali napříště lépe uvědomit a nenechat se podobnými praktikami oklamat.
1. Deepfake video s Andrejem Babišem
Celková známka 4
Komentář: Ve videu s Andrejem Babišem je poměrně hodně znaků, které říkají, že to je fake video. Celé působí nepřirozeně a nepravděpodobně, a to formou i obsahem, proto si zaslouží známku 4.
- Na začátku spotu je poměrně okatá chvíle, kdy moderátorka říká: „Jak začít s PET -sedm- set." Správně měla říkat 5700 korun.
- Okamžik, kdy moderátorka říká: „Budete ohromeni, nyní je to reálné." Intonace a předěl mezi slovy a větami je naprosto nepřirozený.
- Když záběr přejde na Andreje Babiše, tak je poznat, že synchronizace jeho úst s tím, co říká, je velmi nepřirozená a nepřirozený je také jeho hlas a výraz, který je stále stejný, což nebývá u jeho projevů obvyklé.
- Nejmarkantnější znak, že se jedná o falešné video, je na konci spotu, kde vystupuje pán v kravatě. Je vidět, že si podvodník vzal vzor pravděpodobně v angličtině a nechal anglický projev přeložit do češtiny pomocí AI. Umělá inteligence se však učí vedle způsobu projevu i intonaci, takže údajný odborník mluví jako Američan, což je v českém prostředí strašně nepřirozené.
- Na konci moderátorka říká: „Jak slíbili tvůrci aplikace“, v tom okamžiku se jí pohne obočí úplně bezdůvodně. Absolutně to tam nepatří. Normální člověk by obočí zapojil v jiný moment.
2. Deepfake video s Petrem Fialou
Celková známka 4-; známka za „výkon moderátorky“ 2- až 3
Komentář: Ačkoliv „výkon moderátorky“ je celkem slušně zfalšován a synchronizace úst s textem i intonace je celkem přirozená a hodnotím ho známkou 2-, další znaky jsou velmi okaté a nevěrohodné, a tak celkově dávám videu 4-.
- Moderátorka říká, že je ve vysílání CNN Prima News, přitom ve videu je logo České televize.
- Moderátorka ukazuje na žlutou lištu, která má chyby v textu. Je tam například tečka bez mezery a text končí písmenem V bez dalšího pokračování.
- Když přejede záběr na premiéra Fialu, tak na první pohled lze poznat, že hlas má absolutně strojený a velmi špatná je také synchronizace úst s textem.
- Celý kontext projevu premiéra a obsahu sdělení, kdy prý může každý občan získat denně až 300 eur pouhým obchodováním s národními zdroji, působí velmi nedůvěryhodně.
3. Deepfake video s Terezou Pergnerovou
Celková známka 4-
Komentář: Video s Terezou Pergnerovou je nejméně povedené a dostává 4-.
- Uvádějící moderátorka nemá dobře synchronizována ústa s hlasem.
- Špatná synchronizace je ještě zřetelnější u proslovu Terezy Pergnerové, která navíc mluví absolutně strojovým hlasem. Má špatnou intonaci, neklesá hlasem, její věty nenavazují na sebe a nedávají tak v některých pasážích smysl.
- Pergnerová je žena, ale celou dobu mluví v mužském rodě.
- U pasáže vyjadřující zisk odděluje moderátorka číslovky od sebe s pomlkami a naprosto přesně řekne částku: „Sto - dvacet - sedm - tisíc – pět-set- dvacet – šest – korun." Takto by to člověk nikdy neřekl.
- Opět je vidět, že se jedná o nepovedený překlad. Ve videu se mluví o „Nové aplikace, o kterou jsme se postarali". V češtině by tuto větu vyjádřil slovy „Nová aplikace, kterou jsme pro vás vyvinuli."
- Nepřirozená je i gestikulace v harmonii s textem.
Jak čelit šmejdům: ničemu nevěřte a vše ověřujte
Použitá videa nepatřila podle experta na kyberbezpečnost Miloslava Lujky k nejpovedenějším, ale i tak se na ně nachytalo mnoho Čechů. Obecně je tak podle něj nutné, aby byli lidé ještě mnohem více obezřetnější.
„Deepfake videa, fotografie, komentáře a chatboty jsou obrovským tématem. Bude jich čím dál tím víc a budou čím dál tím víc sofistikovanější. Lidé se budou muset začít chovat k informacím jinak než dnes, kdy na sítích věří úplně všemu, co vidí a slyší bez jakéhokoliv ověřování. Jsem ale optimista. S nárůstem případů bude růst i nedůvěra k informacím, což lidi povede k tomu, aby vyhledávali skutečné zdroje informací a si je ověřovali,“ věří expert z Check Point Software Technologies.
A jaká je podle něj obecně základní prevence před podvody?
- Nevěřit vůbec ničemu a vše si ověřovat. Najít si projekt na internetu, podívat se na recenze, podívat se, zda ho už někdo nenahlásil, že to je podvod.
- U videí je dobré se zaměřit na intonaci a odpovědět si na tyto otázky: Mluví osoba přirozeně? Klesá hlasem? Navazují na sebe přirozeně jednotlivé věty? Mluví člověk s českým přízvukem, nebo používá zcela jinou dikci a intonaci?
- Jsou ústa synchronizována s hlasem a textem?
- Pozorujte mimiku – oči, obočí, ústa – zda je vše přirozené a ladí to s obsahem projevu.
- Zaměřte se na gestikulaci, zda je přirozená a ladí s obsahem textu a neopakuje se stále dokola ta samá.
- Nejsou ve videu zvláštní předěly střihu způsobené tím, že má AI málo materiálu a obrazové sekvence opakuje jako ve smyčce?
- Sedí všechny stíny u světel (hlavně u fotek)?
- Jaký máte z videa pocit? Nesedí vám něco? Pokud ano, pak se jedná pravděpodobně o fake video, aniž byste si museli přesně definovat, co vám vlastně nesedí.