Hlavní obsah

Musíme se učit za pochodu, říká proděkanka. AI promění vědu a láká do pasti

S Michaelou Liegertovou, proděkankou Přírodovědecké fakulty Univerzity Jana Evangelisty Purkyně, o zapojení AI ve vědě.Video: Pavel Kasík, Seznam Zprávy

Článek

„Byla jsem v té době hodně aktivní ve výzkumu,“ vzpomíná bioložka Michaela Liegertová na svou první zkušenost s ChatGPT. „Tak jsem jako první položila chatbotovi docela specifickou otázku ohledně tématu, kterým jsem se zrovna zabývala. Dánie pruhované a systémová toxicita. K mému překvapení z toho chatbota vypadla téměř odborná konzultace k tomu mému tématu, i když to bylo trochu obecné,“ vybavuje si Liegertová. „Každopádně to byl ten můj aha moment, kdy jsem si říkala, že pro komunitu vědců to může být velký pomocník, který může přispět k demokratizaci vědecké práce.“

(V textu článku uvádíme jen stručný výběr z probíraných témat. Celý rozhovor najdete ve videu v úvodu článku. Podívejte se také na celou epizodu k tomuto tématu.)

Jak se učit za pochodu?

Michaela Liegertová není jen výzkumnice, ale také proděkanka Přírodovědecké fakulty Univerzity Jana Evangelisty Purkyně v Ústí nad Labem. „Takže s tím, jak jsem si uvědomila přínosy pro vědeckou komunitu, mne okamžitě napadly i ty negativní stránky. Chatbot může generovat texty, které jsou k nerozeznání od textů napsaných člověkem,“ vysvětluje proděkanka, proč hned svolali diskuzi v rámci fakulty na téma zapojení AI.

„Objevovaly se i názory, aby se o tom hlavně neříkalo studentům,“ popisuje Liegertová. Nakonec ale zvítězil postoj, že není možné spolehlivě detekovat, zda nějaký text napsal student s pomocí AI, a nemá cenu to postihovat. „Rozhodli jsme se, že nebudeme řešit, jak ten text vznikl, ale o to více a přísněji se zaměříme na to, jak student rozumí tomu, co napsal, a jak si to umí obhájit.“

Kromě toho Liegertová navrhuje, že by se do budoucna mohla stát povinnou součástí závěrečné práce i kapitola, kde student vysvětlí, jakým způsobem zapojil umělou inteligenci. To by přispělo nejen k sebereflexi autora, ale umožní to i spolužákům nebo kantorům, aby načerpali inspiraci.

„Pedagogové dnes vlastně nemají žádný přehled o tom, jak s AI studenti pracují. Tohle je způsob, jak bychom se mohli učit od sebe navzájem, my od studentů, studenti od sebe,“ nastínila proděkanka v našem rozhovoru. „A společně mohou přijít na to, jaké je to nejlepší využívání, co je etické, co už není. Hledat, jak začlenit umělou inteligenci do kontextu těch konkrétních oborů.“ Taková diskuze podle ní zatím chybí.

Tým asistentů pro každého vědce

Jak konkrétně umělá inteligence vědcům pomáhá? Poměrně dobrou ukázkou jsou specializované služby, jako třeba Nobelovou cenou čerstvě ověnčený Alpha Fold. Tam si může kdokoli z celého světa najít umělou inteligencí překvapivě přesně spočítanou 3D strukturu proteinů.

Jakou revoluci způsobil AlphaFold

Nástroj AlphaFold Protein Structure Database předpovídá trojrozměrnou strukturu bílkovin pomocí strojového učení. První verzi spustila společnost DeepMind (vlastněná společností Alphabet, která rovněž vlastní Google) ukázala v roce 2018. V roce 2022 pak DeepMind zveřejnil nasimulovanou strukturu více než dvě stě milionů proteinů. Výrazně se tak zlevnil proces „skládání proteinů“, který do té doby trval měsíce i roky.

Struktura proteinu je klíčová pro jeho funkci. Znalost struktury je tedy užitečná v řadě oblastí vědeckého výzkumu, od medicíny přes zemědělství až po výrobu nových syntetických materiálů.

„Ten AlphaFold je hezký příklad, protože pomáhá nejen urychlení vědeckého pokroku, ale také demokratizaci vědy,“ zdůraznila Liegertová. „Je teď otevřený všem vědeckým pracovníkům. Kdokoli má nyní po ruce nejmodernější technologii a může objevovat nové vztahy mezi proteiny. To myslím opravdu může vést k akceleraci vývoje nových léčebných postupů a léků.“

Největší výhodu zapojení generativní umělé inteligence vidí Liegertová v tom, že nyní každý – od studentů přes doktorandy až po zkušené vědecké pracovníky – má možnost zapojit do své činnosti celou řadu AI asistentů nebo nástrojů.

„Když začíná vědec řešit nějaké nové téma, může si jednoduše vytvořit celý tým AI expertů a různých agentů,“ vysvětluje Liegertová. Neznamená to, že by za vědce udělali veškerou práci, ale mohou pomoci s plánováním, programováním, přípravou experimentů nebo s řešením problémů. „Doktorandi už se nebudou muset trápit tím, že jsou na všechno sami. Nebudou se muset bát zeptat. Každý bude mít zázemí,“ vysvětluje Liegertová.

Pozor na erozi expertizy a kolaps publikací

Na uživatele generativní umělé inteligence ale čeká nejedna past. Tou asi nejčastěji opakovanou je fakt, že velké jazykové modely generují text bez ohledu na to, zda je výsledek pravdivý. „Vždycky každé školení o AI začínám tím, že ukazuji ty chyby, které chatboti dělají,“ připomíná Liegertová. Ukazuje to na jednoduchých a jasně odhalitelných chybách. „Pokud ale začnou řešit s chatbotem nějaká komplexnější témata, tak je jednoduché tyto halucinace odhalit.“

Tendence „kecat“ přitom není „chyba systému“, ale spíše jeho vlastnost: „Umožňuje to, aby generoval texty, které jsou originální,“ připomíná Liegertová. „Zodpovědnost za výstup je proto vždycky na člověku, který jej musí kriticky zhodnotit.“

Proč umělá inteligence „kecá“

Nástroje jako ChatGPT, Gemini nebo Copilot jsou založené na neuronových sítích a využívají tzv. velké jazykové modely (large language models, LLM). Tyto modely jsou natrénované na velkém množství textu a umí za sebe skládat slova a části slov tak, aby výsledek působil důvěryhodně. To ale neznamená, že jsou výsledky pravdivé.

Těmto nepravdám se obvykle říká „halucinace“ a jde o jednu z hlavních nevýhod, které brání nasazení velkých jazykových modelů do obchodní praxe.

Další past, která čeká nejen na vědce, je eroze expertizy. Pokud si všechno necháme vysvětlit od umělé inteligence, umožní nám to obsáhnout více různých témat a oborů. Zároveň nám to ale může zabránit proniknout do nějakého tématu skutečně do hloubky.

„Ta lidská expertiza bude stále kritická,“ podtrhuje Liegertová. „Pokud nemáte expertizu v tom daném oboru, tak nemůžete posoudit ten výstup na první pohled. Právě tady je role osvěty a gramotnosti. Musíme tu technologii prezentovat jako nástroj, který má sloužit jako podpora pro vlastní kritické rozhodování.“

„Ne všechno, co je technicky možné, bychom měli realizovat,“ zdůrazňuje Liegertová důležitost uváženého a etického přístupu. Historie technologií ovšem napovídá, že lidé mají často tendenci používat nové nástroje cestou nejmenšího odporu.

„Při nesprávném zapojení AI může docházet k akumulaci chyb,“ varuje Liegertová. „To může vést k erozi vědeckých domén nebo zničení integrity jednotlivých vědců.“ Připomíná také, že větší množství vědeckých studií může vést ke kolapsu už tak nabobtnalého systému vědeckých publikací.

Přesto – nebo právě proto – proděkanka doporučuje všem, aby se s možnostmi AI nástrojů co nejblíže seznámili: „Začněte experimentovat v oblastech, o kterých už něco víte. To vám umožní získat intuici v tom, v čem jsou ty modely dobré a v čem dobré nejsou. A postupně přecházejte do komplexnějších zadání a problémů. A hlavně se dobře seznamte s tím, jaké to má limity a proč ta současná AI v některých oblastech naprosto selhává.“

(V textu článku uvádíme jen stručný výběr z probíraných témat. Celý rozhovor najdete ve videu v úvodu článku. Podívejte se také na celou epizodu k tomuto tématu.)

Mozaika Pavla Kasíka

Osmidílná minisérie Seznam Zpráv o umělé inteligenci. Novinář Pavel Kasík s pomocí hostů popisuje současný stav technologického fenoménu. AI z různých perspektiv a bez přikrášlování. Mozaika Pavla Kasíka vychází každý čtvrtek jako video na webu Seznam Zpráv a v audio podobě na Podcasty.cz, Spotify, Apple. Následující sobotu pak vydáváme bonusový materiál v podobě celého rozhovoru s hosty pořadu.

Foto: Seznam Zprávy

Mozaika Pavla Kasíka – podcastová minisérie o umělé inteligenci.

Doporučované