Článek
Slavný kuchař Jamie Oliver si podle nedávných informací v médiích najal tým odborníků, kteří mají ohlídat, že jeho recepty neobsahují žádné nevhodné „kulturní apropriace“. Jinými slovy – že nepoužije suroviny či postupy, které by se mohly dotknout lidí z různých minorit či jiných etnik.
Poradce v této věci dnes zaměstnávají také televizní studia, filmové společnosti i knižní vydavatelství. Oxfordská univerzita využívá služeb externích specialistů, kteří umí vypočítat „woke skóre“ akademiků, hlásících se na volné pozice. Jinými slovy zjistit, jestli v jejich životopisech a referencích není nic, co by mohlo být považováno za necitlivé či rozčilující.
A my ostatní? Budeme se muset spolehnout na Google. Jako vždycky.
Britský deník The Times informoval o tom, že internetová společnost testuje ve své aplikaci Google Docs novou funkci, která má pomoci při psaní textu. Nástroj už dokáže odhalit nejen překlepy, gramatické chyby či stylistické nesrovnalosti, ale také upozornit na „nevhodná slova“. Nevhodná ve smyslu „málo inkluzivní“, tedy opět taková, která nedostatečně reflektují progresivní změny ve společnosti.
Už dávno víme, že je lepší používat anglické slovo „spokesperson“, a nikoli „spokesman“. Protože mluvčím může být i žena, nejen muž. A googlovské dokumenty, které mnohým z nás nahradily textový procesor, vás na to nově upozorní.
I na další potenciálně problematická slova: „property owner“ je lepší než zastaralé (byť používané) slovo „landlord“, „police officer“ je ze zjevných důvodů vhodnější než „policeman“. A tak by se dalo pokračovat.
Timesy potměšile poznamenávají, že kdyby s pomocí Googlu psal svou slavnou inaugurační řeč John F. Kennedy, tak se mu dostane rady, aby při apelu za „plodnější život pro celé lidstvo“ použil radši slovo „humanity“ než „mankind“. A takových příkladů se dají najít spousty.
Nepíšu to proto, že by mě to nějak zvlášť rozčílilo. Mimo jiné proto, že čeština je díky své složité gramatice vůči vetřelcům politické korektnosti odolnější. Ale i když to dřív nebo později dolehne i na nás, nebude to žádná tragédie. Svět se mění a s ním i jazyk. Některé změny se uchytí, na jiná nová slova zapomeneme, až se strážci kulturní apropriace uklidní. Nebo až vyjdou z módy.
Po pravdě mě víc děsí další „vyrolovaná“ funkce, kterou Google v dokumentech testuje, a tou je úprava stylu psaní. Algoritmus, který nasál miliony textů, si ten váš text potichu čte a jak ho píšete, navrhuje vám, jak ho vylepšit. Třeba tím, že použijete jiné slovo.
Příklad, opět z Timesů: Martin Luther King ve svém nejslavnějším projevu „Mám sen“ mluvil o „palčivé naléhavosti dneška“, v originále „fierce urgency of now“. Google Docs se vás však, když do nich Lutherův text přepíšete, zdvořile zeptají: nebylo by lepší použít spojení “intense urgency of now”? Neplynul by pak text snadněji a nebylo by čtení pro čtenáře příjemnější?
Funkci se říká „asistované psaní“ a v Googlu tvrdí, že věc je stále ve vývoji. Algoritmus se učí, zjišťuje, jak často se určitá slova či slovní spojení používají, a zároveň se vašemu textu snaží „rozumět“, aby pochopil kontext, a podle toho také upravil svá případná doporučení.
Už dnes existují aplikace (například Grammarly), které umí odstranit stylistické a gramatické prohřešky a zároveň navrhnout takové úpravy, aby odpovídaly požadovanému stylu. Třeba když si zvolíte: „formální obchodní dopis“. Algoritmy Googlu by však měly jít ještě dál. Kontext a žánr by měly pochopit samy a zároveň by respektovaly i vás osobní styl.
Jinak řečeno, v ideálním případě by nezařídily, že bych psal svoje úvahy, sloupky či povídky jako Hemingway, ale stále jako Čermák, ovšem v té nejlepší formě. Byly by takovým redaktorem, který by mé texty četl a sem tam mi řekl: „Hele, asi jsi nějak unavený, ale mám pocit, že když píšeš opravdu dobře, tak bys poslední větu napsal jinak. Takhle!“
To je důležité, protože by to nezničilo různost a originalitu. Zachovalo by to „osobnosti“ autorů, jen by fakticky umělá inteligence psala texty za ně. Zpočátku by jen tak nakukovala a pomáhala, ale nenechme se mýlit. Časem by opravdu psala za nás. A víte co? To je něco, co mě doopravdy děsí.
I v té dnešní podobě, kdy algoritmus pouze „našeptává“ lepší slovo. A věřím tomu, že je opravdu lepší. Protože když spojíte strojové učení s velkými daty, dokážete najít správnou odpověď prakticky na všechno. A řečeno s nadsázkou, byť ne moc velkou, dokážete svým způsobem i předpovídat budoucnost.
Dnes to v primitivní podobě vidíme třeba v navigaci. Když si teď otevřu v telefonu mapy, dozvím se, s vysokou mírou spolehlivosti, jestli mám jet z Vinohrad na letiště tunelem, po okruhu, nebo přes Dejvice. Vím, že je to primitivní (byť ještě před pětadvaceti lety bychom na to zírali s otevřenou pusou). Ale když pustíme umělou inteligenci k dalším datům, dokáže najít správnou odpověď v podstatě na všechno.
V odborných článcích se často cituje, že za den udělá dospělý člověk 35 tisíc vědomých rozhodnutí. Ale i kdybychom vzali v úvahu jen ta, o kterých aspoň pár vteřin přemýšlíme, bude jich určitě pár set. Důležitá („Mám vzít nabídku na novou práci?“) i v podstatě bezvýznamná („Mám si dát k obědu menu č. 1, nebo č. 2?“). Jak postupujeme? Vezmeme dostupné informace, zvážíme pro a proti.
No a pak se nějak rozhodneme. Někdy dobře (práce se ukáže mnohem zajímavější, a navíc lépe placená), jindy špatně (z menu č. 2 dostaneme střevní potíže). Kdyby se místo nás o těchto věcech rozhodoval algoritmus a měl k dispozici milionkrát víc dat (nejen fakta, ale i to, jak se v podobných situacích rozhodovali jiní lidé atd.), byla by jeho úspěšnost nepochybně mnohem větší. Stejně jako navigace v telefonu by nám řekl, co máme udělat, aby byl výsledek co nejlepší.
Chtěli bychom takovou pomůcku? Museli bychom ji chtít. V tom je ten problém. Nebudeme mít na vybranou. Správná rozhodnutí přece budou zachraňovat lidské životy. Když bude k dispozici algoritmus, který například určí diagnózu lépe než lékař a navrhne lepší léčbu, bylo by zločinné ho nepoužívat. A od tohoto zjevného příkladu se můžeme dostat prakticky k jakémukoli rozhodnutí a uplatnit stejnou logiku.
Někde jsem před pár týdny četl, že stratégové v Pentagonu použili umělou inteligenci k tomu, aby vyhodnotila scénáře, jak mají Západ a NATO reagovat na ruskou invazi na Ukrajinu. Typu: sníží zavedení bezletové zóny nad Ukrajinou počet obětí, anebo jich naopak přinese víc? Nevím, jak tyhle „výpočty“ dopadly a nakolik se podle nich někdo řídil. Ale jednou bude, to je nepochybné.
Otázka zní, zda takovou budoucnost chceme. Ano, zajistí nám život, který bude bezpečnější a spokojenější, podle všech běžných měřítek, navíc našich vlastních. Odstraní z našich životů hloupé a zbytečné chyby, které často vedou k nepříjemnostem, někdy i velkým tragédiím. Nikdo proti tomu nemůže nic namítat.
Ale přesto je to budoucnost, která mě děsí. A vlastně mě poprvé opravdu vyděsila až teď, když jsem si přečetl o „našeptávači dobrého psaní“. Protože to je činnost, kterou se živím a dělám celý život, které snad rozumím a hlavně ji miluju. Ale idea, že mi umělá inteligence radí, jak psát, a nejen to, že mi radí správně, je nesnesitelná.
A asi jsem i pochopil, co znamená, když někdo říká, že umělá inteligence ohrožuje naši svobodu. Vždycky jsem to bral jako zbytečně filosofující pohled na technologie. Ale teď to chápu, aspoň v tom smyslu, že svoboda je možnost dělat i špatná rozhodnutí. Nebo sem tam použít špatné slovo či napsat neobratnou větu.
Jistěže tenhle text mohl být mnohem lepší. A jeho napsání mohlo být mnohem méně pracné. Ale takhle mi to udělalo větší radost.