Článek
Americká firma OpenAI je známá především jako dodavatel umělé inteligence, která pohání ChatGPT. V posledních týdnech zásobuje kalifornská společnost média smrští novinek. Ne vždy ale takovými, kterými by se nejspíš chtěla chlubit.
Tou hlavní zprávou – kterou vyhlásili těsně před konkurenční konferencí – měl být nový model GPT-4-omni, jenž kombinuje práci s textem, hlasem a obrazem. Důležité také je, že se nejnovější jazykový model dostane do ruky všem uživatelům ChatGPT, včetně těch, kteří si službu nepředplácejí.
Dosud mohli lidé v bezplatné verzi nejpopulárnějšího chatbota používat pouze starší model GPT-3.5. Řada uživatelů si tak o schopnostech AI udělala zkreslenou představu. Rozdíl mezi GPT-3.5 a GPT-4 je totiž značný, zejména u úloh souvisejících s uvažováním, programováním, analýzou a kreativitou.
Novinky od OpenAI a Googlu
V květnu uvedly své novinky jak OpenAI, tak Google. Představily nové verze svých nejlepších modelů a umožnily veřejnosti přístup k novým funkcím.
Krátce poté, co technická ředitelka Mira Muratiová na pódiu uvedla novou verzi GPT-4-omni, začalo se řešit, zda ten hlas není podezřele podobný tomu od Scarlett Johanssonové. Firma OpenAI se nakonec omluvila za špatnou komunikaci a předmětný hlas – přestože je to podle ní klon hlasu jiné herečky – prozatím stáhla.
Proč odcházejí experti na bezpečnost
Je příznačné, že o zprávě zahrnující hollywoodskou celebritu se v médiích psalo mnohem více než o odchodu jiné celebrity z firmy OpenAI. „Bylo mi ctí a výsadou pracovat společně a všichni mi budou velmi chybět,“ napsal nyní již bývalý hlavní vědecký pracovník a expert v oblasti strojového učení Ilja Sutskever. Dodal, že se chystá pracovat na projektu, který je pro něj „z osobního hlediska velmi významný“.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
Spolu se Sutskeverem odešel i Jan Leike, spoluvedoucí bezpečnostního týmu OpenAI pro tzv. superalignment. Zjednodušeně řečeno, tento tým měl zkoumat, jak by se budoucí superinteligence mohla vymknout lidské kontrole a jak tomu už nyní předcházet.
Celý tento tým – který měl původně tvořit důležitou součást činnosti OpenAI – zcela končí. Neznamená to ale, že končí veškerý výzkum ohledně bezpečnosti, v OpenAI mají takových týmů více. Tento byl ale řekněme nejprestižnější, alespoň navenek. Řešil tzv. „superalignment“, tedy pracoval na tom, aby umělá inteligence budoucnosti (taková, která bude chytřejší než lidé) nadále chtěla sloužit lidem a byla kompatibilní se zájmy lidí.
Co dělal „superalignment“?
V červenci 2023 představila firma OpenAI svůj nový tým pro bezpečnost budoucí superinteligence: „Potřebujeme vědecké a technické průlomy, abychom mohli řídit a ovládat systémy umělé inteligence, které jsou mnohem chytřejší než my.“
Uvnitř ale nejspíš tým neměl dostatečnou podporu, na což si postěžoval Leike: „Výzkum bezpečnosti šel do pozadí, místo toho se firma soustředí na nové populární produkty.“
Snad aby OpenAI předešla spekulacím, spustila nyní nový bezpečnostní tým. Či spíše komisi, která do 90 dnů navrhne, jak bezpečnost šířeji pojmout. Tuto skupinu spoluvede Sam Altman. Kdo jiný by měl ohlídat šéfa OpenAI než sám šéf OpenAI?
V komisi, která navrhne dozorčí radě, jak ohledně bezpečnosti postupovat, je kromě Altmana také Bret Taylor, Adam D’Angelo a Nicole Seligmanová. Všichni jsou členy dozorčí rady OpenAI.
Sam Altman jako nezvladatelný šéf
Dozorčí rada byla přitom minulý listopad za dramatických okolností obměněna. Odcházející Sutskever je totiž nejen jedním ze spoluzakladatelů organizace OpenAI. Zároveň byl i jedním z členů dozorčí rady, která se pokusila loni v listopadu odvolat Altmana z postu ředitele.
Altman byl ale v CEO křesle do týdne zpátky. Pomohlo mu úzké partnerství s Microsoftem a také velká oddanost jeho podřízených. Dopis na jeho podporu podepsala drtivá většina zaměstnanců. Dokonce i sám Sutskever, který se na jeho odvolání podílel.
Vyhození a návrat Sama Altmana
V listopadu 2023 čtyři členové dozorčí rady OpenAI oznámili Samu Altmanovi, že jej odvolají z čela firmy. Altman získal podporu Microsoftu a dostal dokonce možnost založit tam svůj tým. Po necelém týdnu se vrátil zpět do čela OpenAI. Podrobněji to popisujeme v následující analýze:
Dosud ale nebylo úplně jasné, proč přesně dozorčí rada Altmana vůbec odvolávala. Byly k dispozici spíše obecné spekulace: Že v laboratořích vyvíjí opravdu mocnou umělou inteligenci, že Altman tajně rozjížděl jiné projekty… Dosud se k tomu nikdo ze zúčastněných nechtěl vyjadřovat kvůli nezávislému vyšetřování okolností listopadového incidentu.
Nyní ale díky výpovědi Helen Tonerové, bývalé členky dozorčí rady, máme přesnější představu, o co ve sporu šlo: „(…) Všichni čtyři, kteří jsme ho vyhodili, dospěli k závěru, že prostě nemůžeme věřit věcem, které nám Sam říká, a to je prostě naprosto nefunkční místo pro představenstvo – zejména pro představenstvo, které má poskytovat nezávislý dohled nad společností, a ne jen pomáhat generálnímu řediteli získat další peníze.“
Tonerová vyjmenovala řadu situací, kdy Altman jednotlivým členům dozorčí rady neříkal celou pravdu ohledně probíhajících projektů: „Třeba o tom, že se spustí ChatGPT, jsme vůbec nevěděli. Přečetli jsme si to na twitteru.“
Sám Altman uvedl, že s Tonerovou nesouhlasí, ale oceňuje, že „nepochybuje o tom, že se upřímně snaží o bezpečnou budoucnost umělé inteligence“.
Tonerová následně vydala spolu s další bývalou členkou dozorčí rady Tashou McCauleyovou článek v The Economist, ve kterém podrobněji vysvětlují své rozhodnutí a vyjmenovávají důvody, proč by firmy vyvíjející umělou inteligenci měly mít lépe nastavené dohledové mechanismy: „Na základě našich zkušeností se domníváme, že samospráva nemůže spolehlivě odolat tlaku vyplývajícímu z možných vysokých zisků. Vzhledem k obrovskému pozitivnímu i negativnímu potenciálu AI nestačí předpokládat, že tato incentiva budou vždy v souladu s veřejným blahem.“
Současná dozorčí rada Altmana obhajuje: „Nesouhlasíme s tvrzeními paní Tonerové a paní McCauleyové ohledně událostí v OpenAI,“ napsali. „Je nám líto, že paní Tonerová se stále vrací k otázkám, které byly důkladně prozkoumány v rámci interního auditu (…), místo aby se posunula vpřed.“
Generativní umělá inteligence na vzestupu
Od listopadu 2022, kdy firma OpenAI představila nástroj ChatGPT, lidé po celém světě experimentují s tím, jak jim generativní umělá inteligence může pomoci.
O tom, co nové nástroje umí, nebo neumí, se diskutuje z mnoha pohledů. Jedná se o skutečnou inteligenci a kreativitu? Výsledky jsou totiž nejen ohromující, ale také bizarní.