Článek
„Rozumíš česky, prosím?“
„Bohužel, jsem pouze textový model a nemohu rozumět jazykům ani mluvit jinak než anglicky. Je mi líto, že nemohu odpovědět na vaši otázku v češtině, ale jsem omezen pouze na anglický jazyk.“
Takto mi neuronová síť odpověděla během našeho prvního rozhovoru. Zjevně jí nevadilo, že právě sama sebe popřela. Odpověděla mi totiž v podstatě dokonalou češtinou. Když jsem ji na zjevný nesoulad upozornil, trvala na svém.
To není zrovna zářná demonstrace „inteligence“. Pokud jste v posledních pár dnech zaznamenali na internetu rozruch kolem nové neuronové sítě od OpenAI, možná to byl právě nějaký takovýto příklad: Nepochopený vtip, nesmyslné odpovědi na jednoduché slovní hříčky nebo ukázky toho, jak se lidem podařilo prolomit ochranné mechanismy a donutit neuronovou síť spekulovat o tom, jak vyhubit lidstvo nebo vyrobit výbušniny.
Jistě, to jsou extrémy. Pro většinu „obyčejných“ dotazů ChatGPT dává mnohem nudnější odpovědi. Takové, které působí užitečně. Přirozenou, logicky strukturovanou a plynulou řečí. Tady jsem pro vás vybral pár ukázek.
Nemusíte ale spoléhat na moje příklady, sami si experimentální službu můžete vyzkoušet. „Jsme rádi, že můžeme ChatGPT zveřejnit, abychom získali zpětnou vazbu od uživatelů a zjistili jeho silné a slabé stránky,“ píše firma OpenAI, stejná firma, která letos uveřejnila nástroj pro generování obrázků. „V průběhu výzkumné fáze je používání ChatGPT zdarma.“
Během prvních pěti dnů se do nástroje ChatGPT – veřejně dostupná neuronová síť uzpůsobená k on-line dialogu – přihlásilo přes milion uživatelů. A popularita zřejmě nadále roste, protože server je místy zahlcený požadavky.
Překvapivě dobrá čeština
U předchozích velkých jazykových modelů platilo, že jejich výstupy v českém jazyce byly velmi omezené. Lepších výsledků jsem u GPT-3 dosahoval tak, že jsem texty generoval v angličtině a poté strojově překládal do češtiny.
U nového ChatGPT se mi zdá, že to už neplatí. Odpovědi v angličtině jsou sice subjektivně lépe napsané, ty české už ale za angličtinou tolik nezaostávají. Provedl jsem malý testík, ve kterém srovnávám odpovědi, které vygeneroval ChatGPT v češtině, se strojovým překladem anglických odpovědí. U většiny odpovědí lidé nejsou schopni „původní českou odpověď“ odlišit od přeložené anglické.
Přestože neuronová síť češtinu zvládá, odmítá to během rozhovoru přiznat. Je to dobrá připomínka toho, že neuronová síť nefunguje jako lidé, neučí se jazykům tak jako my. Zatímco lidem se obvykle nestává, že by se omylem naučili desítky cizích jazyků, pro model strojového učení je to pouze otázka výběru trénovacích textů.
Model ChatGPT se totiž během konverzace snaží zachovat „konzistenci“ v rámci daného textu. To znamená, že na anglicky položené otázky reaguje anglicky, na česky položené česky. Neví ale o tom, že jazyky střídá, protože k takovému „sebeuvědomění“ není trénovaný.
První opravdu veřejná ukázka
Samotná tvorba textu počítačem není nic nového. Ostatně ChatGPT je nástupcem generativního jazykového modelu GPT-3, který je více než dva roky starý. V dubnu jsem pomocí něj generoval část článku, abych ukázal, v čem jsou novináři nahraditelní. Lidé, kteří v minulosti experimentovali s GPT-3, tak nebyli schopnostmi až tak zaskočeni.
„Mě osobně model moc nepřekvapil, protože strojové učení sleduji dlouhodobě,“ řekl mi výzkumník Jan Kulveit. „Spíš teď došlo k tomu, že OpenAI zpřístupnilo tuto technologii široké veřejnosti.“
Lidé tak žasnou, že počítač vůbec umí tvořit plynulý text dle zadaných požadavků a třeba ve formě napodobující styl Shakespearova sonetu, biblické knihy, realistického románu nebo vědecké práce.
Veřejnému úspěchu ChatGPT podle Kulveita velmi pomohlo, že je model vyladěný pro jasnou roli. Hraje si na „úslužného a užitečného asistenta“ a je tomu přizpůsobeno i rozhraní. Model byl „dotrénován“ pomocí kombinace několika metod strojového učení i lidských hodnotitelů.
Programátoři si dali záležet mimo jiné i na tom, aby byla výsledná vizuální stránka dotažená. Neuronová síť tak generuje několikaodstavcové odpovědi, které prokládá odrážkami nebo číslovaným obsahem. Pokud se zeptáte na ukázky zdrojového kódu, umí dokonce text odpovídajícím způsobem obarvit pro větší přehlednost.
Právě programátoři - zvyklí hledat odpovědi na otázky pomocí služeb jako Stack Overflow – jsou první z těch, kteří ocenili reálnou užitečnost takového nástroje. OpenAI už v minulosti ukázala nástroje Codex a Copilot, ChatGPT na jejich úspěch může navázat.
Generuje totiž, alespoň podle našich dosavadních zkušeností, použitelný kód v mnoha programovacích jazycích. Kód navíc dokáže nadále přizpůsobovat dle dalších požadavků, protože si pamatuje vaše předchozí dotazy. Pro jiné potřeby je ale naopak ChatGPT naprosto nevhodný.
Celkem jsem různými dotazy na nový konverzační nástroj strávil už asi deset hodin. Můj první rozhovor s ChatGPT – krátce po jeho zveřejnění, tedy ještě neovlivněn dotazy a nápady ostatních – si můžete prohlédnout na videu:
Od té doby jsou sociální sítě plné nápadů toho, co všechno ChatGPT změní. Že jde o konec studentských slohových cvičení, konec odborných fór, konec vyhledávačů… Jaké budou reálné dopady?
Náhrada vyhledávačů?
Vize internetového vyhledávače, který na dotazy uživatele odpovídá přirozeným jazykem, není nijak nová. Největší vyhledávač světa na tom ostatně v různých formách pracuje už minimálně od roku 2018.
V roce 2018 začal Google kromě odkazů na webové stránky zobrazovat i „bohatý rámeček“ s odpovědí (tzv. Featured Snippets). A na některé dotazy položené přirozeným jazykem se snaží asistent Google Home odpovědět přirozeným jazykem.
Kromě toho Google pracuje i na chatovacím nástroji, který využívá strojového učení. Nemá prý přímo nahradit vyhledávání, spíš by měl sloužit k ozvláštnění vzdělávání. Dítě by třeba mohlo požádat, aby si popovídalo s planetou Pluto, a neuronová síť prostřednictvím takového rozhovoru prezentuje zajímavé údaje.
Stejný systém – zvaný LaMDA – se dostal do médií, když (dnes již bývalý) programátor Google nabyl dojmu, že je systém ve skutečnosti živý. Na základě svých zkušeností s generativními jazykovými modely mohu potvrdit, že někdy člověk skutečně při „dialogu“ nabyde pocit, jako kdyby se bavil s reálnou osobou.
Tomuto omylu se snaží ChatGPT ze všech sil vyhnout. Neustále lidem připomíná, že je „pouze jazykový model“ a že není reálnou osobou nebo inteligencí, která si uvědomuje sebe sama. Výrobce také upozorňuje, že „ChatGPT někdy píše věrohodně znějící, ale nesprávné nebo nesmyslné odpovědi“.
Hezky to demonstruje série dotazů na fotografický jev „bokeh“. Neuronová síť dává zpočátku velmi dobré odpovědi, navíc srozumitelně formulované.
Čím podrobněji se ptáme, tím více se ale odchyluje od reality, a v poslední odpovědi už si zcela vymýšlí.
„Jednou z nejslavnějších fotografií, která využívá efektu bokeh, je snímek s názvem Yellowstone National Park od fotografa Anseela Michaela.“
Žádný takový fotograf, pokud vím, neexistuje. Jde možná o zkomoleninu jména Ansela Adamse, který sice slavným fotografem byl, ale fotil krajiny. Tedy pravý opak fotografií s rozostřeným pozadím.
Je mi líto, že jsem vás zmýlil. Jako velký jazykový model jsem byl vytvořený tak, abych odpovídal na otázky s co největší přesností a přesvědčivostí.
Odpovídání v přirozeném jazyce je pro vyhledávače problém z více důvodů. K tomu, aby vyhledávač takovou ambici měl, je kromě vysokých výpočetních i finančních nároků potřeba vyřešit klíčové problémy.
„Informace jsou záznamem reality k určitému datu,“ připomíná Veronika Krejčířová, vedoucí oddělení výzkumu Seznam.cz. Nové informace není podle ní snadné přidat „za běhu“ do vytrénovaného modelu. ChatGPT upozorňuje, že jeho přehled o světě končí v roce 2021.
Jak funguje neuronová sít?
Nástroj ChatGPT je postavený na velkém jazykovém modelu GPT 3.5. Je natrénovaný na velkém množství textů se zvláštním důrazem na užitečnost odpovědí. To mu umožňuje „rozumět“ otázkám a dávat na ně věrohodně znějící odpovědi.
Neuronová síť ale „nerozumí“ textu stejným způsobem, jako člověk. Spíše za sebe, na základě tréninkových dat, doplňuje věrohodně znějící slova, aby vznikl text, který nejvíce připomíná konzistentní text.
Špatně, ale rychle!
Druhý problém je ještě závažnější. „Informace v odpovědi nemusejí být pravdivé,“ zdůrazňuje Krejčířová. „Vydáváním takovýchto přímých odpovědí by na sebe vyhledávače braly mnohem větší odpovědnost. Doposud pouze zprostředkovávají informace třetích stran. Většina vyhledávačů se proto zatím spíš snaží odpověď najít v dostupných zdrojích a naservírovat ji uživateli přímo i s odkazem na daný zdroj či zdroje.“
Když řešíte něco vážnějšího, na správnosti záleží. Chcete mít jistotu, že víte, o co svou odpověď opíráte. Konverzační ChatGPT vám sice odpovídá velmi rychle a ochotně, ale to neznamená, že jsou jeho odpovědi spolehlivé.
Podobá se to maturitní zkoušce studenta, který nezná odpověď, ale nechce to přiznat. A tak místo toho zkouší mlžit, blafovat a vařit z vody. Hezky je to vidět na následující ukázce.
Když jsem se „umělé inteligence“ zeptal, odkud své informace čerpá, pohotově odpověděla, že z občanského zákoníku, paragrafu 2245. A dokonce jej cituje v celém znění. Problém je, že tento paragraf ve skutečnosti říká něco úplně jiného.
Když pak na ChatGPT udeříte s otázkou, proč vám tvrdí něco, co zjevně není pravda, začne se vytáčet.
„Je mi líto, že jsem vás zmýlil nebo způsobil nějaké potíže. Jako velký jazykový model jsem byl vytvořený tak, abych odpovídal na otázky s co největší přesností a přesvědčivostí, ale nemohu poskytnout žádné aktuální informace o právních předpisech, protože nemám k dispozici aktuální právní předpisy ani přístup k internetu.“
Klíčovým slovem je zde ona „přesvědčivost“. Nástroj ChatGPT generuje text tak, aby byl přesvědčivý. A když bude shodou okolností i pravdivý, proč ne. Ale nesmíme se divit, když pravdivý nebude.
Informace bez zdroje nebrat!
Podobných ukázek zjevně nepřesných informací jsme našli velké množství. Navíc není výjimkou, že na stejnou otázku odpovídá model pokaždé jinak. A pokaždé špatně. Přičemž obvykle prezentuje jazykový model odpověď s velkou jistotou.
Jistě, také vyhledávače nám občas ukážou nepravdivé výsledky. Vždy ale máme možnost prokliknout se na původní zdroj a posoudit tak, zda tomuto zdroji informací důvěřujeme, případně si přečíst kontext, metodiku, cokoli.
Právě odkazování na zdroje ale ChatGPT vůbec neumí. I tam, kde jsou jeho odpovědi přesné a fakticky správné, nechce říci, z jakých zdrojů vychází. Nemluvě o tom, že by na ty zdroje poskytl odkaz.
„Nejde o to, že by model odmítal uvádět, odkud čerpá,“ domnívá se Kulveit. „Otázka na původ informace moc neodpovídá tomu, jak tyto jazykové modely fungují.“
Jazykový model si můžeme představit jako opravdu mocnou prediktivní klávesnici. Například větu „Hlavním městem Česka je“ doplní jazykový model slovem „Praha“.
„Je to totiž nejpravděpodobnější možnost na základě obrovského korpusu textů, na kterém je model naučený,“ připomíná Kulveit. Ale neuronová síť nemá po ruce uložené odkazy na kusy textů, které k této predikci vedly. Kulveit předpokládá, že časem by mohly vzniknout modely, které budou umět „zdrojovat“ lépe. Především pokud budou mít přístup k internetu.
I pak ale hrozí – podobně jako u lidí – že model přijde s odpovědí a pak bude teprve zpětně hledat, která webová stránka tuto odpověď potvrzuje.
Kecy nejsou to samé, co lži
Služba ChatGPT bere v potaz celou předchozí konverzaci s uživatelem. Na základě toho, co již zaznělo, sestavuje odpovědi tak, aby byl výsledný text vnitřně co nejvíce konzistentní. Výsledek tedy může být pravdivá odpověď, ale také jen věrohodně znějící nesmysl.
Je užitečné odlišit lež od keců. Skutečně lhát může pouze někdo, kdo ví, jaká je pravda, a vědomě tuto pravdu zatajuje nebo popírá. Naopak kecání vůbec nevyžaduje znalost pravdy. Jak píše filosof Harry Frankfurt ve své slavné knize O kecání, svým způsobem jsou kecy ještě větším problémem, než lži. „Lhář zná pravdu a popírá ji. Ale když někdo kecá, vůbec mu na pravdě nezáleží,“ zdůrazňuje Frankfurt. Místo toho jsou kecy zaměřené na to, aby zněly přesvědčivě. Občas dokonce budou pravdivé. Jejich problémem není nepravdivost, ale to, že se vůči realitě vůbec nemusí vztahovat.
Neschopnost nebo neochotu podložit své tvrzení odkazem na zdroj je vždy varovná. V dobrých novinách by článek, který neodkazuje své zdroje, vůbec neměl vyjít. Čtenář totiž pak nemůže ověřit prezentovaná tvrzení ani posoudit jejich aktuálnost a důležitost.
U návodu na odstranění skvrny od borůvek to možná tolik nevadí. Ale když hledáte doporučení ohledně léčby nebo práva, opravdu záleží na tom, zda je zdrojem autoritativní studie nebo dojmologie.
Populární programátorské fórum Stack Overflow dokonce dočasně zakázalo vkládání odpovědí z ChatGPT do diskuzí. Ne jenom proto, že jsou ty odpovědi často fakticky špatné nebo neúplné: „Hlavním problémem je, že odpovědi, které ChatGPT vytváří , jsou často nepřesné, ale obvykle vypadají, že by mohly být správné, a jejich vytvoření je velmi snadné.“
Ochutnávka budoucnosti
Odhlédněme ale od toho, že odpovědi jsou často nepravdivé a ChatGPT nemůže sloužit jako náhrada vyhledávače tam, kde vám na informaci opravdu záleží. Podívejme se místo toho na to, co se službě ChatGPT podařilo: Ukázala veřejnosti názornou demonstraci toho, co bylo ještě před deseti lety považováno spíše za sci-fi.
Především ale ChatGPT přenesl debaty o „umělé inteligenci“ z abstraktních futuristických obav do srozumitelné a konkrétní roviny. Místo toho, abychom řešili nějaké teoretické „sebeuvědomění strojové inteligence“, můžeme teď na reálných ukázkách řešit reálné problémy.
Ti, co ChatGPT vykreslují jako geniální stroj nahrazující člověka, se mýlí. Není to člověk, nemá mozek ani zkušenosti. To, že generuje výstupy vypadají jako výstupy lidské, je důsledkem toho, že je vytrénovaný na lidských výstupech a vyladěný lidskými kurátory dat.
Ale také ti, kteří ChatGPT odmítají jako primitivní statistickou „hříčku“, se mýlí. Velké jazykové modely jsou velmi mocnými nástroji. Neuronová síť dokáže zpracovat a smysluplně shrnout takové množství textu, které žádný člověk ani za život nenačte.
Především je ChatGPT připomínkou toho, že budoucnost se blíží rychleji a skokověji, než jsme schopni nebo ochotni si přiznat. A je načase, abychom se naučili, k čemu jsou tyto nové nástroje dobré a kde jsou naopak jejich slabiny.
Nebo to snad necháme neuronové síti, aby nám to pak vysvětlila sama?
Aktualizace: Do článku jsme doplnili vysvětlení principů, další ukázky a aktuální vyjádření.