Hlavní obsah

Veleúspěšnou OpenAI opouští esa, zrovna když má ukázat revoluční „jahodu“

Pavel Kasík
vědecký redaktor SZ
Foto: koláž: Pavel Kasík, Seznam Zprávy, AI vizualizace

Co má jahoda společného s AI? Podle neoficiálních informací má být „strawberry“ krycí název nového modelu od OpenAI s vylepšenou schopností rozvažování.

ANALÝZA. Pracuje prý na vývoji inteligence, která ve všem překoná lidi. Jenže sama o ty klíčové lidi přichází. Souvisí odchody zakladatelů a špičkových zaměstnanců firmy OpenAI s tajným projektem? Spekulace jedou na plné obrátky.

Článek

Analýzu si také můžete poslechnout v audioverzi.

Když z nějaké společnosti začnou ve velkém odcházet vysoce postavení lidé, obvykle se to bere jako důkaz, že je firma v problémech, nebo možná zkostnatělá. Ani jeden důvod ale zjevně nesedí na OpenAI – firmu, která je od uvedení populárního ChatGPT na výsluní. Proč z ní tedy odchází tolik klíčových lidí?

Nejnověji se k tomu rozhodl John Schulman, který byl v roce 2015 u založení OpenAI. Schulmana přetáhla konkurenční firma Anthropic. Kterou mimochodem v roce 2021 založilo sedm bývalých zaměstnanců firmy OpenAI, takže Schulman se může těšit na spoustu známých tváří. Jako důvod odchodu Schulman počátkem srpna uvedl „touhu více se zaměřit na bezpečnost umělé inteligence“.

Greg Brockman, další ze zakladatelů OpenAI, sice nekončí úplně, ale bere si osobní volno do konce roku. „Je to od založení OpenAI před devíti lety moje první příležitost si odpočinout,“ napsal Brockman, který dočasně opouští křeslo prezidenta společnosti.

A do toho se dozvídáme, že po roce mizí Peter Deng, viceprezident a šéf vývoje ChatGPT, nejpopulárnějšího produktu OpenAI. Připočtěme k tomu i květnový odchod dalšího spoluzakladatele, Ilyi Sutskevera, bývalého člena dozorčí rady. Spolu s ním skončil i Jan Leike, který vedl bezpečnostní tým zkoumající tzv. „superalignment“.

Přitom podle vnějších znaků se zdá, že OpenAI má ve svých laboratořích novinky, které mají šanci posunout schopnosti nástrojů umělé inteligence zase o něco dále.

Jahodové překvapení již brzy?

Poslední dny se hodně mluví o „Project Strawberry“ (tedy projekt jahoda), což by například podle tohoto anonymního zdroje (který naznačuje, že je to insider z OpenAI, jeho identitu neznáme, pozn. red.) měl být způsob, jak velké jazykové modely naučit nejen lépe řešit matematické úlohy, ale obecně lépe „rozvažovat“ nad problémem.

Spekulace o tajném projektu jahoda/Q*

S informací o tajném projektu „Strawberry“ v laboratořích OpenAI přišla agentura Reuters v první polovině června 2024. Podle nejmenovaného zdroje se má jednat o „inovativní přístup řešení problému rozvažování AI“. Cílem by měl být model, který umí naplánovat svůj postup a pak jej provést. To by zřejmě znamenalo významné vylepšení současných možností textových generátorů, zejména při řešení složitějších problémů.

Spekuluje se také o tom, že projekt Strawberry je spojený s mýty opředeným tajným projektem Q* (q-star), o kterém se toho ví ještě méně.

A protože i sám Sam Altman tyto spekulace podpořil svým jahodovým tweetem, roztáčí se spekulace na maximum. OpenAI by to pomohlo dostat se zpět do pozice jasného favorita, protože po své více než rok dlouhé spanilé jízdě, kdy žádný z konkurenčních modelů nedosahoval úrovně GPT-4, tu dnes máme hned několik schopných „kecálků": Gemini od Google, Claude od Anthropic nebo Llama od firmy Meta.

Proč umělá inteligence „kecá“

Nástroje jako ChatGPT, Gemini nebo Copilot jsou založené na neuronových sítích a využívají tzv. velké jazykové modely (large language models, LLM). Tyto modely jsou natrénované na velkém množství textu a umí za sebe skládat slova a části slov tak, aby výsledek působil důvěryhodně. To ale neznamená, že jsou výsledky pravdivé.

Těmto nepravdám se obvykle říká „halucinace“ a jde o jednu z hlavních nevýhod, které brání nasazení velkých jazykových modelů do obchodní praxe.

Podle „údajného úniku“ od již zmíněného anonymního zdroje by firma OpenAI mohla už tento týden ve čtvrtek představit novou verzi modelů v ChatGPT, které by – bez navýšení hardwarových nároků – zásadně zvýšily schopnosti všech dostupných modelů. Což by odpovídalo i tomu, že společnost Google tento týden představila svoje novinky ohledně zapojení AI, a firma OpenAI má ve zvyku vydávat své novinky strategicky načasované tak, aby konkurenci vyfoukli mediální pozornost z plachet.

Poslední lidský vynález?

Pokud OpenAI představí nějakou novinku, zřejmě to nebude ono dlouho očekávané GPT-5. Víme ale přímo od Altmana, že pátá verze GPT už je zřejmě v testování a bude se prý jednat o zásadní krok kupředu.

Což nás opět vrací k otázce: pokud tedy v laboratořích OpenAI už skutečně testují tak mocné novinky – a vysoce postavení lidé jako Brockman či Sutskever k nim jistě měli přístup – jak si vysvětlit, že tito špičkoví výzkumníci a vývojáři odchází ke konkurenci, na odpočinek nebo pracovat na vlastních projektech?

Klíč možná tkví v tom, co je – nebo aspoň má být – hlavní misí OpenAI. Ta vznikla původně jako nezisková výzkumná organizace, která bude usilovně a systematicky hledat, jak zajistit, že až lidé vyvinou skutečně přelomovou umělou inteligenci, nevymkne se jim z rukou, ale bude lidstvu ku prospěchu.

(Ne)zisková společnost OpenAI

Výzkumnou laboratoř OpenAI založili Sam Altman, Elon Musk a několik dalších v roce 2015  jako neziskovou organizaci. V roce 2018 sdružení opustil Elon Musk, údajně aby se nedostal do konfliktu zájmů. Investoři do OpenAI zpočátku nalili miliardu dolarů v přislíbených investicích a zavázali se, že výzkum bude veřejně dostupný „pro dobro lidstva“.

Ne všechny výsledky výzkumu ale OpenAI zveřejňovala. Například jejich generátor textů GPT-2 byl podle nich natolik mocný, že jej firma zprvu uvolnila pouze pro vybrané výzkumníky z obavy, že by mohl být zneužit ke generování falešných obsahů.

Obecná umělá inteligence. Taková, která umí všechno, co umí lidé, ale lépe. To je od začátku cíl společnosti OpenAI. Zkoumat a vyvíjet ty nejlepší neuronové sítě a postupně se dostat až na hranici, za kterou už nedohlédneme. Do momentu, kdy počítač svou schopností uvažovat překoná člověka nejen v něčem, ale ve všem. A ne nějakého konkrétního člověka, ale jakéhokoli člověka.

Pět úrovní umělé inteligence

Agentura Bloomberg ukázala, jak OpenAI interně mluví o stádiích vývoje umělé inteligence na cestě k obecné umělé inteligenci a superinteligenci.

ÚroveňNázevPopis
Level 1chatbotiAI umí používat řeč ke konverzaci
Level 2přemýšlivciAI si poradí s problémy podobně jako lidé, a to napříč různými oblastmi
Level 3agentiAI systémy umí činit rozhodnutí a vykonávat činnost bez dozoru člověka
Level 4inovátořiAI umí vymyslet zcela nové myšlenky a posouvat tak hranice poznání
Level 5organizaceAI dokáže zcela nezávisle to, co dnes umí jen organizace složená z mnoha lidí

V současné době jsou ChatGPT a podobné nástroje na první úrovni. Altman naznačil, že Project Strawberry už by mohl patřit do druhé úrovně.

Této metě se přezdívá ASI, umělá super inteligence, někdy také singularita. Zdaleka ne všichni experti na strojové učení věří, že je něco takového možné, nebo že se to lidem povede v dohledné době. Ale platí, že v OpenAI se „víra“ v nevyhnutelný příchod AGI bere div ne jako podmínka pro pozvání k pracovnímu pohovoru.

„Obecná umělá inteligence bude vynalezena přesně jednou,“ zdůraznil v roce 2021 Sam Altman, jak on sám vnímá jedinečnost a zároveň vážnost celé situace. Zároveň už tehdy uvedl, že právě on se cítí předurčený k tomu, aby se ujal vedení OpenAI.

Toto vedení si udržel i po (nakonec nepovedeném) sesazení z pozice šéfa. Představenstvo jej tehdy odvolalo, dnes víme, že to bylo například kvůli nedůvěře v to, že Altman členy představenstva dostatečně informuje o tom, co se ve firmě děje. Altman zprvu zprávu o propuštění přijal, pak si to ale rozmyslel. Postavila se za něj většina jeho zaměstnanců a také Microsoft, hlavní investor.

Do týdne dostal Altman zpět zaměstnaneckou kartičku i šéfovské křeslo, a všichni ve firmě dostali pořádnou lekci: bez Altmana není OpenAI. A právě tohle může být jedním z důvodů, proč odešli někteří experti. Zvláště ti vysoce postavení.

Spekulace a extrapolace

Proč je tedy OpenAI v podivné a paradoxní situaci, kdy na jednu stranu platí za špičku v atraktivním inovativním oboru a má celou řadu novinek, které v dohledné době představí veřejnosti, ale současně čelí odlivu špičkových talentů a vysoce postavených manažerů, jako kdyby šlo div ne o potápějící se parník?

Skutečnou odpověď samozřejmě zatím neznáme. Kolující spekulace jsou ale v tomto směru zajímavé. Už třeba proto, že hezky znázorňují spektrum pohledů na současnost a hlavně budoucnost umělé inteligence.

Předvídavý optimismus. Pokud někdo zcela a 100% věří tomu, že OpenAI v dohledné době vytvoří buď obecnou inteligenci, nebo něco, co nás k ní posune, dává smysl se podle toho chovat. Podle takovýchto optimistů tedy špičkoví lidé z OpenAI zkrátka odešli proto, že už je to „na spadnutí“ a oni se tak posunuli dál a svými projekty chtějí navázat nebo využít to, co OpenAI časem uveřejní.

Předvídavý pesimismus. Naopak pokud někdo věří, že umělá inteligence představuje zásadní hrozbu pro lidstvo, může poukázat na to, že lidé, co z OpenAI odešli, často patřili k těm, kteří zkoumali tzv. „superalignment“. Jestliže nevěří, že Altmanova firma tento problém bere dostatečně vážně, pak vzhledem k „jednorázovosti“ případného problému dává smysl, že se tito experti pokusí vést výzkum jinde.

Co dělal „superalignment“?

V červenci 2023 představila firma OpenAI svůj nový tým pro bezpečnost budoucí superinteligence: „Potřebujeme vědecké a technické průlomy, abychom mohli řídit a ovládat systémy umělé inteligence, které jsou mnohem chytřejší než my.“

Praská bublina bezmezného nadšení? Další lidé poukazují, že investoři už nejsou ochotni dávat peníze do čehokoli, o co se otřela zkratka AI. Pro výzkumníky umělé inteligence by pak dávalo smysl opustit loď před tím, než se –⁠⁠⁠ z jejich pohledu –⁠⁠⁠ potopí. Respektive uvázne v bahně nedostatečných výpočetních prostředků. Výzkum bezpečnosti AI je celkem drahý, protože je například potřeba neustále trénovat nové modely a zkoumat, co umí a co ne.

GPT-5 je zklamání. Možná si lidé, kteří OpenAI opouští, mohli hrát s novým „GPT příští generace“, jak se prý interně pětce přezdívá. A možná zjistili, že to až tak velká sláva není. Pak by dávalo smysl poohlédnout se jinde.

GPT-5 je bomba. Anebo to může být právě naopak. Tito klíčoví lidé si spočítali, že je superinteligence za rohem. A hledají, jak toto vědomí nevyhnutelné budoucnosti zužitkovat, jak se na něj připravit nebo jak na něj připravit ostatní.

A OpenAI samozřejmě není jediná firma, která na AI pracuje. To je možná nejjednodušší a nejpragmatičtější vysvětlení. V roce 2015 se do seriózního výzkumu obecné umělé inteligence nikdo moc nehrnul. V kurzu bylo strojové učení, rozpoznávání obrazu nebo kategorizace dat v reálném čase. Kalifornská laboratoř OpenAI tak byla jedinou oázou, kde se sešli experti na AI z celého světa. A teď, když je po expertech na umělou inteligenci poptávka všude, zkrátka reagují na novou situaci. Ke které, nutno dodat, OpenAI významně přispěla.

Stále jsme ale na začátku. K obecné umělé inteligenci má zatím všechno, co jsme dosud viděli, docela daleko. Což je nakonec dobře, protože většina lidí si ještě nezvykla ani na tu kreativní umělou inteligenci, kterou zde už máme.

Čtěte analýzy Seznam Zpráv

Doporučované