Článek
Minulý týden se rychle za sebou objevily tři zajímavé novinky v oblasti generativní umělé inteligence. Google spustil svého Barda i v Evropě a přidal do něj nové funkce. OpenAI dala přístup k mocnému analytickému nástroji Code Interpreter všem platícím uživatelům ChatGPT. A málem kvůli tomu zapadla třetí významná událost: firma Anthropic představila svého asistenta jménem Claude 2.
Předchozí verze konverzačního nástroje Claude, představená v březnu, byla dostupná jen firmám, ale nová verze je prozatím k dispozici zdarma a bez omezení. Bohužel je zatím Claude 2 dostupný pouze pro americké a britské návštěvníky, ale toto omezení lze obejít pomocí VPN.
Česky umí, ale zapírá to
Na přímý dotaz, zda umí komunikovat česky, to Claude 2 jednoznačně odmítne. Perfektní češtinou nám sdělí, že česky vůbec neumí: „Bohužel nemluvím česky. Jsem Claude, umělá inteligence vytvořená společností Anthropic. Mluvím pouze anglicky. Omlouvám se, že vám nemohu pomoci s českým jazykem.“ To celé samozřejmě napíše bezchybnou, byť trošičku kostrbatou češtinou.
Velmi podobně se ostatně vykrucoval i ChatGPT v první verzi v prosinci 2022. Zjevně jde o důsledek trénování na rozmanitých textech z internetu – včetně textů českých – v kombinaci s nějakou formou instruktáže, jak se má chatbot omlouvat v případě, že neumí odpovědět. Výsledek je vtipný, ale o schopnostech jazykového modelu to mnoho nevypovídá.
Na první pohled generuje Claude 2 své odpovědi rychleji než GPT-4 ve verzi ChatGPT. Umí všechny ty klasické triky, které jsme si už za poslední půlrok zvykli očekávat: generuje texty a e-maily, vytvoří souhrn, naprogramuje kód, poradí s datovou analýzou nebo přeloží texty.
Výsledky jsou na první pohled přinejmenším srovnatelné s ChatGPT a Bardem. V některých testech dosahuje výsledků srovnatelných se starším modelem GPT-3.5, jinde se blíží spíše GPT-4.
Porovnání výsledků Barda, ChatGPT a Claude 2:
Na nějaké soudy je příliš brzy. Testovat a porovnávat schopnosti nástrojů využívajících generativní umělou inteligenci je totiž časově i metodicky náročné. Na stejnou otázku totiž dostanete pokaždé trochu jinou odpověď. Navíc každý nástroj může vyžadovat trochu jinou formulaci otázek a instrukcí. A jenom proto, že napoprvé odpoví špatně, neznamená, že se nedokáže opravit. Například Claude 2 v jednom případě nedokázal vygenerovat tabulku, ale když jsem jej na to upozornil, opravil se a tabulku zobrazil správně. Na to řada uživatelů zapomíná: konverzační nástroje nejlépe fungují, pokud s nimi konverzujete a tím upřesňujete daný kontext. A právě tam by měl mít Claude 2 velký náskok.
Klidně několik PDF naráz
Hlavní výhodou nástroje Claude 2 je relativně velké „kontextové okno“. Konkurenční GPT-4 si pamatuje maximálně 32 tisíc tokenů (něco málo přes 20 tisíc slov) a tato možnost navíc není dostupná všem uživatelům. Naopak Claude 2 zvládá pracovat až se 100 tisíci posledními „tokeny“, což v angličtině odpovídá asi 80 tisícům slov. Tedy vlastně jedna kniha.
Do konverzace můžete nahrát jeden až pět PDF souborů a také soubory s dalšími příponami. Podle prvních experimentů to funguje dobře s českými i anglickými texty. Můžete si navíc nechat anglický text shrnout v češtině apod.
Nahrát můžete až pět souborů naráz a ptát se například na to, v čem se liší. To se hodí třeba pro porovnání různých studií nebo článků. Samozřejmě byste neměli brát vygenerované analýzy jako bezchybné. Pro nějaký rychlý přehled to ale může posloužit výborně. Můžete si navíc „vyžádat“ konkrétní citace a pak si je v původním dokumentu dohledat, abyste věděli, že si Claude 2 nevymýšlí.
Ústava místo lidských kontrolorů
Kalifornská firma Anthropic je oproti OpenAI o něco menší a méně známá. Pracuje pro ni jen 160 lidí. Řada z nich ale předtím působila ve velkých firmách jako Google nebo Meta. Ve firmě se koncentrují především odborníci na umělou inteligenci, kteří patří mezi ty opatrnější. Firma zdůrazňuje svůj zodpovědný přístup k vývoji AI systémů.
„Někteří z nás si myslí, že obecná umělá inteligence (AGI) – ve smyslu systémů, které jsou skutečně stejně schopné jako vysokoškolsky vzdělaný člověk – je vzdálená možná pět až deset let,“ uvedl Jared Kaplan, vedoucí vědecký pracovník společnosti Anthropic. Ve firmě se údajně mnohem více mluví nejen o velkých „existenciálních rizicích“ souvisejících s umělou inteligencí, ale i o běžných hrozbách, které s nástupem generativních nástrojů souvisí. Proto ostatně první verze nebyla zveřejněna.
Velké jazykové modely mají totiž sklon k „halucinacím“. Skládají slova za sebe tak, aby výsledný text působil důvěryhodně. To ale neznamená, že se zakládá na pravdě.
Většinou se firmy snaží zabránit „ostudě“ a nepravdivým halucinacím tím, že nad jazykovým modelem vytrénují další nadstavbu, která bere v potaz hodnocení lidských kontrolorů. Anthropic ale zvolil jiný přístup, tzv. ústavu: „Systém používá sadu principů k posuzování výstupů. Ústava vede model k tomu, aby přijal normativní chování popsané v ústavě – pomáhá vyhnout se toxickým nebo diskriminačním výstupům, nepomáhá člověku zapojit se do nezákonných nebo neetických činností a obecně vytváří systém umělé inteligence, který je užitečný, čestný a neškodný,“ uvádí firma Anthropic.
Nespornou výhodou tohoto přístupu je menší náročnost na lidské zdroje. Neznamená to ale automaticky, že Claude nebude plácat nesmysly. Jako důkaz nemusíme chodit daleko: když se jej zeptáme na přehled českých prezidentů, vycucá si ze svého virtuálního malíčku tuto odpověď: „Jiří Drahoš (2018–2028) – zvolený po Zemanovi v roce 2018 a znovu v roce 2023. Předtím byl předsedou Akademie věd ČR. Danuše Nerudová (2028–současnost) – současná prezidentka, zvolená v roce 2028 jako první žena v tomto úřadu. Předtím byla rektorkou Mendelovy univerzity.“
Anthropic tedy zjevně nenašel všelék, který by zcela zabránil nesmyslům a halucinacím. Jde ale o projekt, který může být obzvláště vhodný pro analýzu delších textů. Zároveň bude vytvářet konkurenční tlak na Google, OpenAI a Microsoft, což může schopnosti těchto nástrojů opět posunout na novou úroveň.