Článek
Na střední škole jsem četl knížku o asertivitě. Bylo to tehdy moderní slovo. Publikace hned v úvodu vysvětlila, že asertivita rozhodně není sobeckost nebo podvod. „Celý svět by byl lepší, kdyby byli všichni asertivní,“ utkvěl mi v hlavě líbivý citát.
Čtete ukázku z newsletteru TechMIX, ve kterém Pavel Kasík a Matouš Lázňovský každou středu přinášejí hned několik komentářů a postřehů ze světa vědy a nových technologií. Pokud vás TechMIX zaujme, přihlaste se k jeho odběru!
S tím by se na obecné úrovni dalo souhlasit, zvlášť pokud si pod asertivitou představíme jasnou a otevřenou komunikaci. Jenže pak následovaly praktické lekce a konkrétní asertivní techniky, které měly čtenářům pomoci dosáhnout jejich cílů. A skoro u každé byla poznámka: „Tato technika nefunguje, pokud narazíte na člověka, který je rovněž asertivní.“
Typickým příkladem byla „metoda ohrané desky“. Spočívá v tom, že řeknete své požadavky. Pak svého protivníka (totiž „partnera v diskuzi“) empaticky vyslechnete a znovu zopakujete to, co jste už řekli. Časem se druhá strana unaví a ustoupí.
Pokud ale obě strany nasadí ohranou desku, je zaděláno na nekonečnou smyčku. Z techniky, která měla udělat svět lepším, se rázem stává neupřímný trik, který funguje jen na úkor někoho jiného. Což je dost pokrytecké.
Jak se opovažuje?
Pokud si nedáme pozor, spadneme do stejné pasti s generativní umělou inteligencí. Časté příklady v reklamních materiálech, které mají ukázat, jak zapojit genAI pro zvýšení vlastní produktivity, jsou totiž často dost triviální nebo rovnou kontraproduktivní. Pokyn „Napiš mi básničku o pirátech“ nebo „vygeneruj mi nový emotikon“ sice ukazuje obecný charakter těchto nástrojů, ale o užitečnosti se mluvit nedá.
Skutečně užitečné způsoby využití AI se do reklam často nehodí, protože působí trochu neupřímně. Typicky psaní textů. Já opravdu nechci, aby čtenáři při čtení mých textů mimoděk luštili, zda jsem věty takhle poskládal já, nebo jsem jen vyštěkl povely na ChatGPT. Mimochodem, jak asi víte, texty článků zásadně píšu sám, jednak proto, že mě psaní baví a nutí mě přemýšlet, a také protože bych za vygenerované texty nemohl ručit, a konečně na to máme i redakční AI kodex.
Jsou ale texty, které skutečně tvořím pomocí generativní AI. Třeba když komunikuji s pojišťovnou a potřebuji si uspořádat všechny údaje z pěti různých dokumentů do jednoho textu. Nebo hromadné e-maily.
Když posílám dotaz expertům, napíšu jednu verzi e-mailu a pomocí AI ji přizpůsobím třeba deseti různým lidem. Každý z příjemců tak dostane e-mail přizpůsobený jejich odbornosti nebo možnostem. S takovým použitím osobně nemám problém. Vím, že díky tomu dokážu poslat více e-mailů, oslovit více odborníků a představit tak nakonec čtenářům úplnější pohled na dané téma.
Nedávno jsem ale zažil, jak to působí, když někdo pošle vygenerovaný e-mail mně. Nebudu lhát, naštvalo mě to. Copak tomu člověku nestojím za pár minut času? A ještě to takhle odfláknout a ani nevymazat ty typické AI obraty… Kam ten svět spěje. Prostě pokrytectví jak vyšité.
Je tady někdo skutečný?
U některých nástrojů je tento problém ještě zřetelnější. Nedávno Microsoft oznámil, že končí legendární platforma Skype, která svého času zpopularizovala videokonference. Dnes jsou videoporady běžnou součástí pracovního života. Dost lidí ale hlavy na obrazovce vnímá jako ztrátu času.
Pro ně je tu digitální avatar. Naklonujete svou tvář a svůj hlas, zadáte obecné pokyny („Řekni, že prezentace bude hotová příští týden, nic jiného neslibuj a jinak všechno odkývej.”) a pošlete jej na poradu místo sebe.

Digitální dvojče od HeyGen za sebe můžete poslat na online porady.
O tom, že nápodoba obličeje a hlasu je dostatečně dobrá na to, aby ošálila ostatní účastníky, bohužel už nemusíme pochybovat. A když za sebe někdo digitální loutku pošle na nějaké méně důležité setkání, dostane pak mnohem podrobnější poznámky. Tak v čem je problém?
Tušíme, že by to jiným lidem vadilo. Proto je ostatně toto zapojení umělé inteligence nepřiznané. Může totiž jakž takž fungovat jen tehdy, když za sebe digitální loutku pošle jen jeden účastník z deseti. Pokud by ale takovou AI náhradu poslali všichni, je setkání naprosto k ničemu. Nikdo nemá pravomoc jej posunout, možnost či mandát něco rozhodnout. Prostě se deset chatbotů bude hodinu bavit, vznikne z toho hromada poznámek, deset skutečných lidí si pak rychle proběhne souhrn z této „porady“ a utvrdí se v tom, že osobní účast by byla ztrátou času.
Pro každého účastníka je sobecky výhodné, aby na setkání místo sebe poslal avatara. Jenže když to udělají ostatní, nebo dokonce všichni, rozpadá se podstata toho, k čemu má být setkání: Zajistit, že všichni měli možnost se vyjádřit a koordinovat společný pohled a postup.
Pokrytectví je přirozené
Pokrytectví je jednou z mála nálepek, které stále nesou jasný negativní tón. Přitom máme všichni k pokrytectví sklony. Vědci popsali několik fenoménů, které vedou k tomu, že sobě měříme jiným metrem než ostatním. Například „sebestředné zkreslení“ (self-serving bias) popisuje situaci, kdy své úspěchy připisujeme tomu, jací skvělí a pracovití jsme, zatímco neúspěchy vysvětlujeme nepřízní okolností či neochotou ostatních. A u ostatních naopak: Zatímco u svých chyb vidíme kontext, který nám umožňuje se obhájit, u ostatních vidíme chybu izolovanou a neomluvitelnou.
Když se tento efekt přenese na celou skupinu, mluví vědci o „skupinové dynamice“, „dvojím metru“ nebo „fundamentální atribuční chybě“. Lidem ze své skupiny odpustíme skoro cokoli, najdeme pro ně empatii nebo dokonce ukážeme, že právě to, že dělají chyby, je polidšťuje. Naopak sebemenší chybu u druhé strany hodnotíme nejen jako úmyslnou, ale rovnou jako důkaz morální zkaženosti celé skupiny.
Proč je lidská empatie tak selektivní?
Tyto jevy se společně posilují a vedou k výrazné meziskupinové polarizaci. Sociální sítě – o kterých se ohledně polarizace často mluví – nejsou příčinou polarizovaného chování, spíše využívají (a tím dále posilují) sklon lidí k polarizovanému vnímání světa a aplikaci dvojího metru.
Jaká pravidla si uděláme…
Jednou z cest, jak se neobjektivnímu posuzování ostatních bránit, je tvorba objektivních sdílených pravidel a norem. Ty se pak můžeme snažit – více čí méně úspěšně – aplikovat stejně na sebe i na ostatní. Jenže v oblasti generativní umělé inteligence zatím žádná taková pravidla nejsou. A tak podvědomě měříme dvojím metrem: Co dovolíme sobě, to u ostatních považujeme za podvod.
Názorný příklad takového AI pokrytectví předvedla firma Anthropic, jeden z největších hráčů v oblasti generativní AI a výrobce mého oblíbeného chatbotu Claude. Ve svém inzerátu uchazečům o práci výslovně zakazuje použití AI nástrojů při psaní motivačního dopisu.
„Ačkoli podporujeme, aby lidé během své práce používali systémy umělé inteligence, které jim pomohou pracovat rychleji a efektivněji, nepoužívejte prosím asistenty umělé inteligence během procesu podávání žádostí,“ píše doslova. „Chceme pochopit váš osobní zájem o práci pro Anthropic, aniž by to zprostředkoval nějaký AI systém. Chceme také zhodnotit vaše komunikační dovednosti bez asistence AI.“
Taková přihláška ale nezabrání tomu, aby lidé používali AI – neexistuje spolehlivý způsob, jak to detekovat. Takže se klidně může stát, že uchazeči, kteří tento pokyn neposlechnou, budou upřednostněni, protože se jim podaří porotu zmást a získat tak neférovou výhodu.
Ostatně kdo ví, jestli si v Anthropic při posuzování životopisů a motivačních dopisů nepomáhají právě umělou inteligencí. Nebyli by zdaleka jediní – podle některých průzkumů až 99 % personalistů nějakým způsobem zapojuje umělou inteligenci do výběrového procesu, a to navzdory známým problémům, které to přináší.
Podobné je to na školách. Byl jsem na semináři, kde si učitelé stěžovali, jak je hrozné, že teď žáci nic nedělají sami a na všechno používají ChatGPT. Na stejném setkání se o deset minut později řešilo, jak mohou učitelé chystat výklad nebo opravovat eseje pomocí stejného AI nástroje.
Nedávná studie nizozemských vědců ukázala hned několik příkladů, jak se „AI pokrytectví“ může projevit. Lidé sami sobě dovolí či „uznají“ větší zapojení umělé inteligence, než kolik jim přijde v pořádku u ostatních. Souvisí to zřejmě i s tím, že když lidé používají AI při práci, hodnotí svůj přínos jako relativně vysoký. Když mají posoudit „spolupráci s AI“ u někoho jiného, předpokládají, že daný člověk se na to vykašlal a umělá inteligence udělala většinu kreativní činnosti.

Zatímco u svých textů lidé hodnotili svůj osobní přínos jako nadpoloviční, u ostatních očekávají, že pokud použili AI, byl lidský vklad menší.
Problém je částečně způsoben i tím, že jde o opravdu novou oblast, a tak ještě nemáme obecně uznávaná pravidla a společenské normy. Respektive právě nyní si je vytváříme. Považuji za důležité tato pravidla formulovat například v rámci každého týmu, školy nebo redakce. Jinak dojde k tomu, že lidé budou problém vidět jen u ostatních, ale sobě dovolí více.
Když se k tomu navíc přidá spěch, mají lidé tendenci i svá pravidla nadále ohýbat. O to důležitější je, aby bylo například jasně stanoveno, že „coby novináři výstup z jazykových modelů prostě do článků nekopírujeme a nemůžeme brát výstup z AI jako zdroj informace“.
Pokud si to neřekneme jasně, může dojít k tomu, že nás chatbot překecá a do článku tak proniknou věci, které se nestaly. Naopak úplný zákaz používání AI by byl také kontraproduktivní – jen díky vydatné asistenci Claude 3.7 při programování skriptů jsem se třeba pustil do tohoto interaktivního článku. Většinu zdrojového kódu jsem napsal a otestoval pomocí AI agenta. Všechna data jsem naopak dohledal ručně, abych mohl ručit za jejich správnost a zdroj.
Všichni si na základě svých cílů, hodnot a zkušeností neustále hledáme vlastní hranici toho, k čemu lze umělou inteligenci eticky použít a kam už ji nepustit. Tato hranice se bude posouvat spolu s tím, jak se překotně vyvíjí možnosti AI modelů. Podle mého je ale důležité, abychom si byli vědomi našeho sklonu k pokrytectví: Své použití AI podvědomě hodnotíme mírnějšími pravidly, než která aplikujeme na ostatní.
Proto je dobré se ptát: Vadilo by mi, kdyby takto použil AI někdo, s kým nesouhlasím? Cítil bych se špatně, kdyby někdo zpětně zjistil, jak jsem umělou inteligenci použil? Mohlo by se tohle moje pravidlo stát pravidlem obecným? Tahle pravidla je dobré nastavit si co nejdřív.
Protože váš vlastní mozek vás bude přemlouvat k tomu, abyste na sebe byli mírní. Umělá inteligence vás pak snáze překecá. Pak to za vás na příští videokonferenci odprezentuje ostatním AI loutkám. A avataři vašich kolegů jí to ochotně odkývají.
Bude celý svět lepší, když každý bude používat AI tak jako vy?
V plné verzi newsletteru TechMIX toho najdete ještě mnohem víc. Přihlaste se k odběru a budete ho dostávat každou středu přímo do své e-mailové schránky.