Hlavní obsah

Nenápadné jako covid, smrtící jako ebola. Expert varuje před AI bez limitů

Jan Romportl je jedním z největších expertů na umělou inteligenci a zakladatel Elin.ai.Video: Zuzana Hodková, Seznam Zprávy

„Dnešní biotechnologie umožňují vytvořit něco, co je nakažlivé jako spalničky, nenápadné jako covid a smrtící jako ebola,“ říká Jan Romportl, který varuje, že umělá inteligence by takovou zbraň mohla dát do rukou i teroristům.

Článek

Rozhovor si také můžete poslechnout v audioverzi.

Evropa má vážný problém. Už brzy bude umělá inteligence kontrolovat obrovskou část světové ekonomiky a právě v této oblasti Evropě tak trochu „ujel vlak“. Celý vývoj se totiž koncentruje pod několik málo velkých firem mimo Evropu, myslí si expert na umělou inteligenci Jan Romportl.

„Většina aplikací umělé inteligence je postavená nad něčím, čemu jsme začali říkat foundation modely – tedy základové modely. To je jedna z důležitých částí podvozku veškeré budoucí AI. To je třeba známá GPT-4. Jsou to obrovské neuronové sítě, obrovský paralelní výpočetní algoritmus. Těchto modelů jsou stovky miliard a natrénovat takovouto neuronovou síť je něco naprosto gigantického. Toho jsou schopné jen ty opravdu Top největší firmy, které mají přístup ke grafickým procesorům(například Nvidia). Všichni ostatní mají absolutní smůlu,“ říká v pořadu Inside Talks Jan Romportl. Ten, kdo bude kontrolovat tento typ modelů, bude víceméně kontrolovat významnou část světové ekonomiky, myslí si.

„Jen pro představu, kolik takové natrénování modelu stojí – uvádí se, že u nejnovějšího modelu od Google Gemini 1.5 Ultra je to skoro 200 milionů dolarů. To není něco, co by si tu mohl kdokoliv dovolit,“ dodává Romportl. Kromě samotných systémů jsou podle něj navíc potřeba i distribuční kanály k lidem. „Ten kdo je má, vyhrává. Firmy jako Microsoft, Google či Amazon budou vládnout obrovskými modely, které nikdo jiný nenatrénuje, a zároveň je dokážou dostat k uživatelům,“ vysvětluje.

Evropa jako brzda

Evropa by však podle Romportla mohla v oblasti AI směřovat k roli brzdy a regulátora. „My si to možná neuvědomujeme, ale Evropa má obrovskou tradici ve smyslu bezpečnosti práce. Když si na evropském trhu berete lék, máte jistotu, že je nějakým způsobem validovaný. Při práci v továrně je pro nás samozřejmé, že přijdeme domů a budeme mít všechny končetiny. V Bangladéši či Indii jsou tyto standardy jinde,“ vysvětluje Romportl.

A právě to by mohlo dalšímu rozvoji AI pomoci, což Romportl ukazuje na příkladu lidského mozku. „Jedna část říká: Půjdu po tom hladově a půjdu do všeho naplno. Druhá brzdí a chce jít opatrně. To by mohla být role Spojených států, které jsou ten hladový dravec, a Evropy, která zase ztělesňuje nějaké důležité hodnoty,“ dodává s tím, že už dnes je ale v případě regulací a pravidel za minutu dvanáct.

Biologické zbraně s AI

Jedním z možných rizik mohou být podle Romportla i jazykové modely uváděné na trh zdarma a ještě jako open source, tedy s otevřeným zdrojovým kódem. To je sice pro firmy a startupy velmi přínosné, na druhou stranu to může být i nebezpečné.

Inside Talks

Pořad, ve kterém bude Zuzana Hodková se stálým týmem expertů rozebírat zákulisí byznysu. Tito insideři popíší, jakými tématy žijí průmysl, potravinářství, reality, startupy, finance, energetika nebo automobilový průmysl, a vysvětlí klíčové momenty a souvislosti.

Insidery je tato skupina šéfů:

  • Tomáš Kolář z Linetu
  • Petr Palička z realitní divize Penty
  • Petr Novák z divize automotive společnosti JTEKT
  • Tomáš Spurný z Moneta Money Bank
  • Ondřej Fryc z Reflex Capital
  • Martin Durčák z ČEPS
  • Karel Pilčík z MP Krásno
  • Jan Romportl z Elin.ai
Foto: Seznam Zprávy

Inside Talks. Každý pátek na SZ Byznys.

„Nevýhoda open source modelu je, že cokoliv jednou vypustíte na internet, nejde vzít zpět. I kdybyste model stáhli, protože váš tým zjistil nějaké bezpečnostní riziko – třeba to, že po nějakém jednoduchém doladění můžete ten model použít k vývoji biologických zbraní nebo usnadní přístup k nebezpečným věcem. Můžete si být jisti, že nějací teroristé už to mají, patrně i využívají a nikdy nevrátí zpátky. A to je velké riziko,“ říká Romportl. Podle něj obecně panuje názor, že společnost Meta, která své modely uvolnila veřejnosti, právě toto nebezpečí extrémně podceňuje.

Problém podle něj je, že před zveřejněním modelu Llama neměli etičtí hackeři možnost model takzvaně doladit a dotrénovat. „Meta tam sice zakázala škodlivé výstupy, ale nikdo neví, co to udělá, když model vezmete a natrénujete třeba na bakterio-biologických vědeckých publikacích,“ říká.

Nakažlivé jako spalničky, nenápadné jako covid

Teoretické riziko, které může být s open source modely spojené, je podle něj právě biologická hrozba. „Biologické zbraně a obecně Biotech jsou jedním velkým zdrojem problémů. Jako civilizace jsme proti tomu nesmírně křehcí. Viděli jsme to na covidu a teď si představte, že dnešní biotechnologie umožňují vytvořit něco, co je nakažlivé jako spalničky, nenápadné jako covid a smrtící jako ebola. Jediné, co nás od této katastrofy brání, je skutečnost, že zrealizovat něco takového je obrovsky finančně náročné,“ tvrdí expert.

Za normálních okolností samozřejmě běžná teroristická organizace nemá přístup ke špičkovým biotechnologům. Neošetřené opensourcové modely však mohou usnadnit přístup zlých aktérů k určitému typu informací, který pro ně zatím byl nedosažitelný.

„My to riziko v podstatě neznáme, ale rozhodně nedokážeme zabezpečit, že by se to nemohlo stát. Modely se stávají kompletnější a kompletnější. S dalšími generacemi už bych byl setsakramentsky opatrný. Přimlouval bych se za to, abychom raději dělali aplikace nad tím, co je, než vytvářeli víc a víc kompletnější jazykové modely, když je neumíme zabezpečit,“ dodává.

Inteligence člověka do pěti let

Zatím je umělá inteligence – tak jak ji známe – trochu zvláštní. Na jednu stranu dokáže skvěle tvořit a programovat, na druhou stranu dělá až nepochopitelné chyby.

„Já si myslím, že se to změní relativně rychle,“ říká Romportl. Už za poslední rok se například nesmírně zlepšily takzvané halucinace AI. Jde o případy, kdy modely umělé inteligence, zejména velké jazykové modely, generují informace, které se zdají být pravdivé, ale jsou nesprávné nebo nesouvisejí se vstupem.

„Jazykové modely jako takové zatím nejsou úplně postačující k tomu, aby se celý systém dostal na úroveň člověka, to bude muset mít ještě nějakou další komponentu. Ale v každodenních situacích, kdy ji lze použít jako asistenta, který vám dohledá informace, si myslím, že to bude připravené do roka. Za rok se budeme s úsměvem dívat na dnešní dobu, kdy ten model takto halucinoval,“ říká Romportl s tím, že do pěti let už by tu měly být první prototypy umělé inteligence, která je na úrovni člověka a ještě dál.

Doporučované