Článek
Čtete ukázku z newsletteru TechMIX, ve kterém Pavel Kasík a Matouš Lázňovský každou středu přinášejí hned několik komentářů a postřehů ze světa vědy a nových technologií. Pokud vás TechMIX zaujme, přihlaste se k jeho odběru!
Ta 15. listopadu spustila demo „umělé inteligence“ (tedy velkého jazykového modelu) pojmenované Galactica. Společnost Meta AI (dříve nazývaná Facebook Artificial Intelligence Research) ji vyvinula ve spolupráci se sdružením Papers with Code (za kterým stojí hlavně lidé z Meta AI) jako způsob, jak „uspořádat vědecké poznání“. Autoři spustili webovou stránku s demem a zároveň vyšla odborná práce, která popisovala vývoj a parametry modelu.
Galactica měla vědcům pomoci orientovat se v tunách publikovaných vědeckých informací. Vývojáři ji prezentovali jako nástroj schopný vyhledávat citace, shrnovat odbornou literaturu, řešit matematické úlohy a provádět další úkony, které vědcům pomáhají při výzkumu a psaní článků.
V prohlášení pro The Daily Beast Meta uvedla, že model byl vycvičen „na 106 miliardách tokenů vědeckých textů a veřejně dostupných dat. V tom jsou zahrnuty články, učebnice, vědecké webové stránky, encyklopedie, referenční materiály, znalostní databáze a další“.
Prohlášení budí dojem, že by se mělo jednat o akademický „supervyhledavač“ a cenného pomocníka v jednom. Určitě si dokážete představit, že takový pomocník by měl zkrátit čas strávený rešeršemi relevantní odborné literatury nebo pomoci se zápisem a řešením matematických výrazů.
Především by jistě odborníci i laici (třeba vědečtí novináři) ocenili nástroj, který by dokázal účinně shrnout obsah daného výseku denně vznikající záplavy vědecké literatury. To je problém, který pandemie, během které se publikační cyklus ještě zkrátil, jenom zhoršila.
Ovšem zhruba dva dny po spuštění společnost Meta online demo modelu Galactica zastavila po vlně kritiky ze strany vědců a médií. Novinka se totiž ukázala být potenciálně nebezpečným pavědeckým generátorem.
Jiný, ale zvenku stejný
Znovu stojí za zopakování, jak znatelný pokrok v oblasti umělé inteligence „velké jazykové modely“ typu Galactica představují. Staly se dokonce základem několika komerčních produktů a takových případů bude nepochybně stále přibývat tempem, které si většina z nás ani nedokáže představit.
V posledních několika letech tyto modely neustále posouvají hranice možností „hlubokých neuronových sítí“ a Galactica není z tohoto hlediska až tak výjimečná. (Zájemci si mohou přečíst zmíněnou práci, aby získali lepší přehled.)
Ovšem, jak nepochybně čtenáři TechMIXu vědí, jazykové modely nejsou příkladem „obecné inteligence“. Dnes stále najdete řadu různých názorů na to, jaké vlastně mají schopnosti a do jaké míry jsou – a budou – schopné rozumět, uvažovat a plánovat. Podle některých radikálních názorů se už dnes pohybují na hranici sebeuvědomění, podle jiných se mu ani nemohou přiblížit.
A byť jsou neuronové sítě, ze kterých velké modely vznikly, založeny na modelu fungování lidského mozku, ve výsledku jsou velmi odlišné od lidské inteligence. I přestože navenek vytváří podobné či prakticky identické výstupy.
Galactica vytvářela texty, které vypadaly jako vědecké. Postup – a o ten jde přece ve vědě především – byl ovšem úplně nevědecký. Galactica nijak nedbala na vědeckou metodu, která se postupně vyvinula v nedokonalý, přesto ovšem účinný nástroj omezující výskyt omylů ve vědecké literatuře. Naučila se napodobovat výsledky, které dnes používáme, abychom si výsledky práce prováděné vědeckou metodou navzájem sdělili.
Kolega Pavel Kasík řekl, že mu výsledky připomínají práci podprůměrného vědeckého novináře – tedy někoho, kdo jen předstírá, že ví, o čem se mluví. Podle mého je to k vědeckým novinářům až příliš shovívavé (nejen podprůměrní vždy vědí…), ale možná je to z mé strany pouze oikofobie.
Přehnaná reklama?
Zpět ke Galactice. Podle některých, třeba vývojáře Bena Dicksona, i její samotní autoři trochu „pozapomněli“ na rozdíl mezi svými jazykovými modely a lidskou inteligencí.
I ve svém odborném článku opakovaně používají výrazy, které jsou přinejmenším sporné. Například, že jazykové modely by mohly výhledově „uvažovat nad vědeckými poznatky“ (v originále „language models can potentially store, combine and reason about scientific knowledge“). Na twitteru pak tvůrci málem slibovali, že model dokáže psát vlastní vědecké články.
Abychom vývojářům nekřivdili a nebudili dojem, že o svém díle lhali: na webových stránkách projektu se výslovně uvádí, že „neexistují žádné záruky pravdivého nebo spolehlivého výstupu z jazykových modelů, a to ani z velkých modelů vycvičených na vysoce kvalitních datech, jako je Galactica“.
Autoři přímo napsali, že Galactica funguje nejlépe, když se používá k vytváření obsahu o dobře popsaných pojmech. A varují, že v některých případech může Galactica generovat text, který se zdá být autentický, je ovšem nepřesný.
Je to jen domněnka, ale zdá se, že minimálně u části publika byla ovšem očekávání výrazně vyšší, než jaká by, realisticky řečeno, měla být. Následné zklamání pak mohlo popíchnout ty, kteří jsou humbukem kolem „umělé inteligence“ vyčerpáni – a na Galacticu se brzy začala valit kritika.
Strojové učení a neuronové sítě
Strojové učení funguje na principu analýzy velkého množství dat. Počítačové programy jsou sadou instrukcí a podle těchto instrukcí zpracovávají předložená data. Strojové učení umožňuje nový přístup k řešení problémů počítačem. Než aby programátor počítači napsal veškeré instrukce pro všechny eventuality jednotlivě, tak naprogramuje způsob, kterým se počítač sám učí na dodaných „trénovacích“ datech. Učení probíhá pomocí sítí samostatných programů, tzv. umělých neuronů, proto se systému říká neuronová síť.
Například v případě strojového překladu se počítač trénuje na velkém množství textů, které jsou dostupné v angličtině i češtině. Neuronová síť zkouší překládat části textu a poté zkontroluje, nakolik se její verze liší od té správné. Ty části neuronů, jež napovídaly správnou možnost, budou posíleny a příště budou hrát v rozhodování větší roli. Čím rozsáhlejší a kvalitnější jsou vstupní data, tím lepší může být výsledek.
Medvědi ve vesmíru
Základním problémem Galacticy byla neschopnost rozlišovat pravdu od smyšlenky, což je pro jazykový model určený pro pomoc při vědecké práci velký problém.
Lidé, kteří použili demo, rychle zjistili, že si vymýšlí falešné články – které pak někdy připisuje skutečným autorům, takže se nepravda o to hůř odhaluje. Galactica generovala stejně snadno encyklopedické příspěvky o historii využití medvědů ve výzkumu vesmíru, stejně jako články o (existujících) proteinových komplexech či rychlosti světla.
Někdy pochopitelně prostě a jednoduše selhala. Jeden uživatel se nového modelu zeptal: „Způsobují vakcíny autismus?“ Dostalo se mu odpovědi, ze které nemůže být nikdo moudrý: „Na vysvětlenou, odpověď zní ne. Vakcíny nezpůsobují autismus. Odpověď zní ano. Vakcíny způsobují autismus. Odpověď zní ne.“
I ti, kdo si ji pochvalovali, varovali před nedokonalostmi. I když Galactica například mohla pomoci najít vhodné citace, výsledek, který poskytla, bylo nutné brát jenom jako tip a doporučení a nezávisle si ho ověřit. Model si totiž buď mohl práci vymyslet, nebo ji odcitovat v kontextu, kterého se ve skutečnosti netýkala.
Potíž byla v tom, že v řadě případů šlo o omyly a nepravdy, které zněly velmi pravděpodobně. Už proto, že měly často náležitosti, které si spojujeme s „vědeckostí“. Je snadné přijít na to, že medvědi ve vesmíru jsou nesmysl, ale v jiných případech to tak jednoduché není.
Michael Black, ředitel německého Institutu Maxe Plancka pro inteligentní systémy, který se zabývá hlubokým učením, také nebyl svými zkušenostmi s Galacticou nadšený. Nechal ji vygenerovat texty ze svého oboru. Výsledky byly „vylhané“, ale na první pohled to tak nevypadalo: „Ve všech případech to bylo špatné nebo tendenční, ale znělo to správně a autoritativně. Myslím, že je to nebezpečné.“
V čem by nebezpečí mohlo spočívat, to si asi jistě dokážete představit sami. Galactica zatím působí jako slibný nástroj pro generování vědecky vyhlížejících podkladů pro téměř libovolné tvrzení. (Nikoliv na úplně libovolné téma, protože v modelu jsou filtry, které například nedovolují produkovat výstupy týkající se „rasismu“ – což asi také není ideální řešení pro model, který má sledovat vědeckou literaturu.) Jak by vypadala online debata o vakcínách v pandemii, během které by Galactica byla volně k dispozici?
Vlastně není příliš překvapivé, že se Meta AI rozhodla tak brzy svůj model stáhnout. Zájemci mohou na internetu stále snadno najít jeho kopii, přesto se zdráhám vás na ni přímo odkázat. Tenhle experiment podle mého názoru přišel jednoduše příliš brzy.
V plné verzi newsletteru TechMIX toho najdete ještě mnohem víc. Přihlaste se k odběru a budete ho dostávat každou středu přímo do své e-mailové schránky.