Článek
Rozhovor si také můžete poslechnout v audioverzi.
„Stále na přednáškách ukazuji studentům slajdy ze 70. let, aby viděli, že už tehdy se zkoumala umělá inteligence,“ říká Vladimír Mařík. Podle něj se základní algoritmy a principy tolik nezměnily. O několik řádů se ale zvýšil výpočetní výkon, množství dat a provázání komunikačními sítěmi.
V následujících letech proto podle něj bude důležité, aby lidé chápali základní principy, jak se umělá inteligence trénuje a jak funguje. Pro studenty to znamená pochopit struktury a sítě. Pro běžné uživatele je pak podle Maříka nejlepší podívat se na konkrétní příklady použití.
Už někdy na základní škole jsem četl vaši knížku z roku 1993 Umělá inteligence. Co to spojení tehdy znamenalo a jak se jeho význam za posledních 30 let změnil?
To byl první díl ze šesti, které jsme společně s profesorkou Štěpánkovou a docentem Lažanským postupně vydávali. Už v 90. letech jsme v ČR ve výzkumu inteligence patřili k evropské špičce a tato disciplína se zkoumala na řadě univerzit i v Akademii věd. Chtěli jsme tehdy vytvořit učebnici pro studenty a doktorandy, aby si udělali představu, co umělá inteligence umí, jaké jsou základní metody a co je nutné pro její další rozvoj. Tušili jsme, že umělou inteligenci čeká velká budoucnost.
Učarovalo mi, jak umělá inteligence může hýbat fyzickým světem.
Když si tu knihu z roku 1993 dnes otevřete, popisujeme tam neuronové sítě, metody strojového učení, agentní systémy, strukturální metody, expertní systémy. Kdybychom tu učebnici psali dnes, tak většina těchto témat zůstává. Jen se každé z nich prohloubilo. Dnes populární GPT je postavené na neuronových sítích, které jsou velmi podobné těm, co jsme je zkoumali v 80. a 90. letech.
Hluboké učení, zpětná šíření, to jsou všechno vylepšení toho, co už existovalo. A díky prudkému rozvoji výpočetní techniky se zlepšuje jejich uplatnitelnost. Možnosti počítačů se hodně posunuly, metody se zas tak nezměnily.
Vraťme se ale ještě dál do historie, do 60. a 70. let, kdy jste se rozhodoval, do kterého oboru se pustit. Co vás na studiu umělé inteligence lákalo?
Učarovalo mi, že umělá inteligence může rozumným způsobem autonomně hýbat fyzickým světem. Tehdy jsme řešili problémy jako řízení jeřábu hlasem nebo automatické rozpoznávání objektů uchopených robotem. Napojení algoritmů na fyzický svět, to je fascinující věc.
Prof. Vladimír Mařík
Vystudoval elektrotechnickou fakultu ČVUT (obor Technická kybernetika) v roce 1975. Na fakultě pak působil až do roku 2013. Od roku 1999 vedl katedru kybernetiky ČVUT FEL. Od roku 2013 do 2018 působil jako ředitel nově založeného Českého institutu informatiky, robotiky a kybernetiky ČVUT (CIIRC), od roku 2018 je jeho vědeckým ředitelem.
A dále jsem se v té době zabýval úplnou automatizací procesů. Nejen výrobních, ale i jiných, které by něco propojovaly dohromady, nebo udržují složité systémy ve stabilním provozu. Třeba zcela automatické udržování teploty v budově. To byly první úlohy, které nás napadaly. Jak to svěřit umělé inteligenci, která by měřila venkovní teplotu, předpovídala, jaké počasí bude další den, nastavovala topení či klimatizaci.
Stroj nemá zodpovědnost ani vědomí
Asi největší pozornosti investorů i velkých firem se teď těší velké jazykové modely a na nich postavené generátory textů. Řada lidí má pocit, že to je úplně jiný typ, jiná úroveň umělé inteligence než ta „klasická“ neuronová síť, která bere informace z mnoha čidel a optimalizuje nějaký výstup.
Ano, především pro běžné uživatele jsou výsledky dnešních systémů naprosto překvapivé a šokující. Lidé nečekali, že bude počítač schopen tak obratně odpovídat na otázky. Možná, že se na druhé straně ta překvapení až moc zveličují.
Když totiž půjdete do většího detailu, zjistíte, že ty systémy často halucinují (vytvářejí věrohodně znějící text, který ale neodpovídá realitě – pozn. red.). Když se na stejnou věc zeptáte vícekrát, dostanete pokaždé trochu jinou odpověď. A navíc je tu problém, že když se model učí na datech, která sám vygeneroval, tak postupně dochází k degeneraci a výkon klesá.
Proč umělá inteligence „kecá“
Nástroje jako ChatGPT, Gemini nebo Copilot jsou založené na neuronových sítích a využívají tzv. velké jazykové modely (large language models, LLM). Tyto modely jsou natrénované na velkém množství textu a umí za sebe skládat slova a části slov tak, aby výsledek působil důvěryhodně. To ale neznamená, že jsou výsledky pravdivé.
Těmto nepravdám se obvykle říká „halucinace“ a jde o jednu z hlavních nevýhod, které brání nasazení velkých jazykových modelů do obchodní praxe.
Proto je podle mého klíčové, aby všichni věděli, co je na pozadí těchto systémů: neuronová síť a výkonný počítač. Podle toho je potřeba k těm výsledkům přistupovat. Udržet si odstup a ponechat si kontrolu. To je důležité třeba při využití umělé inteligence v lékařství. Stroj něco navrhne podle nejlepšího dostupného modelu, ale to neznamená, že je to dobře.
Podle mého nebudou mít systémy umělé inteligence v dohledné době vědomí. Ale budou to vědomí velmi věrohodně napodobovat.
Navíc stroj nenese zodpovědnost, zatímco lidé ano…
Pravda. Lidé by si měli uvědomit, že umělá inteligence je nástroj. Navrhuje možná řešení, ale člověk se nemusí nechat strojem řídit. Jako při práci s každým nástrojem platí, že jej lze používat vhodně i nevhodně.
Nenechte se „ukecat“ umělou inteligencí
Proto je potřeba, aby lidé používali nástroje adekvátní pro danou činnost, aby chápali jejich omezení a dozorovali jejich činnost. Porozumění principům umělé inteligence je proto nesmírně důležité.
S jakými častými omyly ohledně umělé inteligence se setkáváte?
Často je třeba opakovat, že stroj nemá vědomí. Rozhoduje se bez uvědomění si důsledků, neprožívá své rozhodnutí. Lze očekávat, že v budoucnu budou systémy umělé inteligence stále bližší tomu, co umí lidé. Budou se vyjadřovat a rozhodovat tak, že budeme mít pocit, že to vše přece musí vědomě prožívat. Budou třeba navenek i vykazovat emoce. Ale to jsou emoce bez emocí, emoce jen hrané, simulované. Vědomí jen simulované.
Jak se bude zlepšovat kvalita té simulace, tak systémy budou věrohodněji působit, že mají vědomí. Podle mého jej aspoň v dohledné době mít nebudou. Vědomí bychom stroji neměli chtít dát, protože kdyby stroj měl vědomí, může nás začít ovládat. Ale od toho jsme daleko.
Poslední výzkumy podle mého dospívají k závěru, že vědomí mohou mít pouze systémy založené na živé hmotě, která má na rozdíl od hmoty neživé jakési přirozené „nutkání“ proaktivně zvětšovat svoji složitost při nižší a nižší entropii. Výpočetní systém by také musel být systém založený na jiné architektuře, než mají dnešní počítače, aby emulace mohla probíhat energeticky i časově efektivně. Jistou naději vkládáme do kvantových počítačů, ale zatím jsme daleko od významnějších výsledků.
Simulace je reprezentace (obvykle s využitím počítače), která napodobuje některé aspekty chování jiného systému. Například meteorologové používají simulaci atmosféry pro předpověď počasí, ale jejich model je pouze zjednodušenou reprezentací skutečné atmosféry.
Emulace naproti tomu přesně a kompletně replikuje vnitřní fungování reprezentovaného systému na úrovni elementárních součástí a všech uvnitř probíhajících procesů. Například moderní počítač běžící na 64-bitové architektuře může pomocí emulátoru spustit hry, které byly psané pro 8bitové herní konzole z 80. let.
Zabýval jste se během kariéry také multiagentními systémy. Ty se teď dostávají – v kombinaci s jazykovými modely – znovu do popředí. Ukazuje se, že lze třeba simulovat překladatelskou agenturu plnou simulovaných překladatelů, a výsledky jsou lepší, než když překládá jen jeden robot. Je tohle cesta ke zlepšení výsledků?
Dám příklad z výrobního prostředí, kde se multiagentní systémy používají k optimalizaci výroby. Jednotliví virtuální agenti v simulaci zastupují jednotlivé stroje, a mohou se tak mezi sebou dohadovat. Ale ten agent musí mít dostatečnou znalost o tom, co dělají ostatní stroje, co umí, musí sám spustit nějaký kód. A chceme-li usnadnit tvorbu znalostního obsahu jednotlivých oblastí, pak tady nastupují právě ty generativní technologie.
Dnes se pomocí technologie velkých jazykových modelů (LLM) začínají vytvářet jazykové modely výrobních procesů (LPM) nebo velké akční modely (LAM) pro popis akcí směřujících k výrobě produktu. Můžete popsat vlastními slovy, co měl stroj, nebo celá výrobní linka udělat, a LAM to přetransformuje v sekvenci konkrétních kroků.
Vytváříte tak vlastně digitální kopii – digitální dvojče – daného výrobního procesu, výrobního řetězce. A agenti si mohou potřebné věci samostatně dojednat nebo nastudovat. To je nový trend tzv. Průmyslu 4.0.
Co dalšího jde pomocí generativní AI tvořit?
Nejznámější a nejuniverzálnější jsou samozřejmě nástroje na generování textu. Především ChatGPT a podobné chatboty nacházejí různá využití v řadě oblastí, od medicíny přes marketing až třeba po programování.
Současnou vlnu zájmu o generativní umělou inteligenci odstartovaly generátory obrázků v roce 2022. Letos už jsou vygenerované snímky k nerozeznání od skutečných fotek.
Za deset let bychom chtěli, aby člověk jenom popsal produkt, který chce, a zbytek vyřeší vygenerovaní agenti. Rozeberou si práci, navrhnout postupy a nechají na člověku, zda chce, nebo nechce pokračovat. Pak dokonce spustí stroje a celý proces výroby řídí.
Tyhle budoucí systémy nebudou generovat nějaké povídání, či obrázek, ale konkrétní akce. A už to začíná.
Umělá inteligence je zatím závislá na naší řeči
Zatím rozumíme tomu, o čem a jak spolu tito AI agenti vyjednávají. Ale slyšel jsem obavu, že by si mohli vytvořit vlastní jazyk, kterému lidé nebudou rozumět a nebudou to pak moci kontrolovat.
Myslím, že k tomu je ještě hodně daleko, aby si takhle sami nastavili svůj jazyk. Proces vytváření jazyka je vždy spojen s jistým stupněm vědomí či sebeuvědomění, a to zatím v plném slova smyslu stroje nemají. Nakonec i jakýmkoliv velkým jazykovým modelem vlastně držíme jejich komunikaci a jejich uchovávání znalostí v podobě, která je nám srozumitelná.
Nechtějme připustit, aby si stroje sami generovaly svůj jazyk. Nový jazyk by znamenal možnost měnit způsob komunikace, a vlastně cokoli dalšího v jejich aktivitách. Toho bych se trochu bál.
Jaký je váš názor coby pedagoga vysoké školy na to, co by se měli lidé učit do budoucna. Jaká je ta schopnost, kterou by měli získat řekněme studenti vaší univerzity, aby obstáli v novém světě plném AI agentů?
Já se domnívám, že je zcela nezbytné, aby znali základy neuronových sítí, jak pracují a kam sahají jejich možnosti. Největší slabinou je jejich netransparentnost. Nedovedeme interpretovat nastavení jejich parametrů.
Pak by měli znát základy transparentní umělé inteligence, způsoby reprezentace znalostí, základy matematické logiky a vyvozování, základy multiagentních systémů a obecné teorie sítí a systémů.
Nejsou totiž jen neuronové sítě, které se trénují a učí. Jsou tu také komunikační sítě a znalostní struktury, které se snažíme měnit učením. Studenti by měli porozumět, jak probíhá komunikace mezi prvky, jak se tvoří integrovaný systém. Aby měli jasnou vizi toho, co lze, a co nelze těmito systémy dosáhnout.
To se hodí pro pochopení, jak funguje mobilní telefon, internet i toho, jak fungují informační bubliny v sociálních sítích. Pak by mělo navazovat, jak se tyto technologie využívají. Trénování v oblasti přirozeného jazyka, jazykové modely… A že je to pořád ta stará dobrá neuronová síť, ale s velkými výpočetními prostředky.
A taky musí vědět, že sítě nejsou všechno. Chceme-li dosáhnout prostě obecné inteligence v širším pohledu, potřebujeme začít pracovat se strukturami, strukturovanými znalostmi a znalostními grafy, které mohou dodat výsledkům sítí jasnou interpretaci. A to už jsme u základů znalostního inženýrství. I o tom je třeba studenty informovat.
A jakou radu byste měl pro lidi, kteří technickou univerzitu nestudují, ale stejně se chtějí v novém světě orientovat?
Dokončujeme s desítkami kolegů knihu s názvem „Proč se nebát umělé inteligence“. Děsí nás totiž, jak hluboko jsou v hlavách lidí zakořeněny nesprávné představy o umělé inteligenci. V knize, která vyjde hned po prázdninách, podrobně vysvětlujeme různé aspekty umělé inteligence. Probíráme samozřejmě i bezpečnost, protože i útočníci využívají tyto nástroje a jsou často o krok napřed před obránci.
Podle mého je podstatné ukazovat lidem konkrétní možná použití umělé inteligence. Ale také jak čelit jejímu zneužití. Myslím, že by měly vzniknout katalogy, kde budou jasně ukázané scénáře, kde a jak lze nové nástroje uplatnit. Lidé by se neměli umělé inteligence bát.