Hlavní obsah

„Umělá inteligence zvyšuje hrozbu.“ Už nás neochrání ani čeština

Foto: AI vizualizace

Typickou ukázkou nekalého využití AI jsou deepfake videa, na kterých slavné osobnosti doporučují podvodné investiční platformy.

Falšování důkazů, krádeže identity, zneužití podoby politika k lákání na pochybné investice. Ale také třeba „jen“ zvýšení dosahu kampaně tím, že vám cílené e-maily generuje ChatGPT. Podívejte se na časté problémy AI nástrojů.

Článek

Pro většinu lidí je „generativní umělá inteligence“ stále nový a neintuitivní svět, trochu jako web v 90. letech. Hodí se tedy mít k dispozici systematický popis dosud známých způsobů, jak lze nové nástroje umělé inteligence zneužít.

Článek si také můžete poslechnout v audioverzi.

Čtete ukázku z newsletteru TechMIX, ve kterém Pavel Kasík a Matouš Lázňovský každou středu přinášejí hned několik komentářů a postřehů ze světa vědy a nových technologií. Pokud vás TechMIX zaujme, přihlaste se k jeho odběru!

Připomeňme, že každá technologie je zneužitelná. Zločinci, podvodníci a vypočítavci jsou obvykle racionální lidé, a využívají tedy ke své činnosti nástroje, které jim nejlépe poslouží. Zatímco někdy je nástroj celkem podružný – jestli někdo rozbije okno kamenem, nebo kladivem, je víceméně jedno –, jindy může nový nástroj zásadně ovlivnit rozsah, dosah, rychlost a účinnost podvodu.

Právě to často vidíme u zneužívání nástrojů AI: „Generativní AI zesiluje stávající hrozby. Snižuje totiž překážky pro vstup a zároveň zvyšuje sílu a dosah postupů, které by dříve byly příliš nákladné,“ píše se v úvodu nedávné publikace expertů z Google DeepMind, kteří se pokusili zatím známé informace o zneužití přehledně kategorizovat.

Nejčastější způsoby zneužití AI

Předstírání cizí identity

Tato taktika zahrnuje vydávání se za jinou osobu, často za účelem podvodu nebo manipulace. Útočníci mohou zneužít takto získané důvěry ostatních k vylákání citlivých informací nebo k ovlivnění veřejného mínění. Předstírání identity může mít podobu nahrávky, videa nebo přímého přenosu. „Tato praktika často zahrnuje vytváření realistických audiovizuálních klipů, které jsou těžko rozpoznatelné jako falešné,“ připomínají výzkumníci z DeepMind. Ukázka předstírané identity během videohovoru se šéfem firmy.

Zneužití podoby

Při zneužití něčím podoby dochází k neoprávněnému použití vzhledu nebo charakteristických rysů jiné osoby, například hlasu. Tato metoda se často využívá k vytváření zavádějícího obsahu, podvodných reklam, poškození pověsti nebo manipulaci s veřejným míněním. „Nejčastěji se používají difuzní modely pro úpravu a doplňování obrázků,“ uvádějí autoři studie. Přečtěte si více o falešných reklamách.

Aspekt „znásobení“ se jasně ukázal třeba u zneužití, které výzkumníci označili za nejčastější: krádež identity, respektive vystupování jménem někoho jiného. Typickou ukázkou jsou různá deepfake videa, na kterých slavné osobnosti doporučují podvodné investiční platformy.

Najmout si herce, maskéry, filmaře a štáb zajišťující speciální efekty je možné už aspoň sto let. Jenže nyní je to otázka několika minut nastavování softwarového nástroje. Nevěříte? Pomocí bezplatného nástroje LivePortrait můžete vytvořit deepfake jakéhokoli obličeje doslova na počkání. A takových služeb se za poslední čtyři roky vyrojily desítky.

Do stejné kategorie patří nápodoba cizího hlasu nebo „loutkaření“, kdy útočníci napodobí něčí vzhled a vystupování například k vylákání peněz tím, že se vydávají za šéfa firmy. Zatímco ještě před pár měsíci takový podvod dával smysl, jen pokud šlo o miliony dolarů, nyní už jsou náklady tak nízké, že se útočníkům vyplatí mířit i na menší cíle.

Ještě nedávno nás před těmito útoky chránil náš obskurní národní jazyk. Ale už na to nespoléhejme. Čeština už není pro nástroje klonující hlas problém. Je čas domluvit si se svými blízkými kód, kterým se navzájem prokážete, pokud by bylo nutné použít hlasovou identifikaci po telefonu.

Asi nejsmutnějšími kategoriemi jsou pak nahota bez souhlasu a dětská pornografie. Přestože se firmy poslední dobou hodně snaží, aby jejich modely nešlo k tomuto účelu použít, dříve zveřejněné modely už nikdo nesmaže. Takže deepfake nahota generovaná AI, stejně jako dětská pornografie generovaná AI, je levná a vytvořit ji může kdokoli, kdo si to umane.

Ovlivňování veřejného mínění

Ohromnou (a nadále rostoucí) kategorií zneužití AI jsou různé manipulace veřejného mínění. Výzkumníci je rozdělili do několika oblastí:

Politické manipulace: Využití umělé inteligence k vytváření falešných zpráv, komentářů a příspěvků na sociálních sítích, které mají za cíl ovlivnit volební účast nebo manipulovat veřejným míněním.

Ekonomické podvody: Využití AI k šíření falešných informací, které mohou mít vliv na ceny akcií, manipulovat s cenou kryptoměn nebo třeba poškodit pověst konkurenční firmy.

Dezinformace: Někdy nemusí být cílem ovlivnit mínění konkrétním směrem, ale „přiložit pod kotlem“, zkrátka vyvolat zmatek a polarizovat společnost.

Zase vidíme, že nic z toho není novinka. Falešné recenze i politické pomluvy jsou staré stovky let. Ale stroj je umí důvěryhodně a bez špetky studu vytvářet mnohem rychleji a efektivněji, než by to zvládli lidé.

Šedé nasazení AI

Výzkumníci také poukazují na využití generativní umělé inteligence, které nelze nazvat přímo podvodem. Pohybuje se někde kolem etických hran a na tom, co považujeme za etické, rozhodně nepanuje celospolečenská shoda.

Patří sem nasazení umělé inteligence v marketingu, třeba ke zvýšení dosahu nebo personalizaci sdělení. Aktivisté mohou využít velké jazykové modely pro hromadné generování unikátních e-mailů poslancům. Je to chytré využití nové technologie pro dobrou věc, nebo nebezpečný podvod podkopávající demokracii?

Nebo co takhle reklama na míru od e-shopu, kde už roky nakupujete? Vědí, co jste koupili, a mohou vám ušít slevu na míru. Je to žádoucí, nebo za hranou? Každý tu hranu asi budeme mít jinde.

Celou studii doporučuji k nastudování. Je plná zajímavých příkladů. Naopak obecných a funkčních řešení moc nenabízí. Závěrem výzkumníci připomínají, že většina podvodů pomocí AI není nijak sofistikovaná. To ale neznamená, že nemají velký dopad: „Bude to mít dalekosáhlé důsledky na to, jak se díváme na důvěru, autenticitu a integritu informačního prostředí,“ předvídají autoři. „Abychom těmto změnám mohli čelit, musíme zapojit politiky, výzkumníky, softwarové firmy i občanskou společnost.“

V plné verzi newsletteru TechMIX toho najdete ještě mnohem víc. Přihlaste se k odběru a budete ho dostávat každou středu přímo do své e-mailové schránky.

Generativní umělá inteligence na vzestupu

Od listopadu 2022, kdy firma OpenAI představila nástroj ChatGPT, lidé po celém světě experimentují s tím, jak jim generativní umělá inteligence může pomoci.

O tom, co nové nástroje umí, nebo neumí, se diskutuje z mnoha pohledů. Jedná se o skutečnou inteligenci a kreativitu? Výsledky jsou totiž nejen ohromující, ale také bizarní.

Doporučované