Článek
Pokročilé systémy umělé inteligence se stávají v některých ohledech stejně schopnými, jako lidé. Vývoj jde rychle kupředu, jen za jeden týden bylo představeno hned několik převratných novinek, včetně velkého jazykového modelu GPT-4. V řadě ohledů může tato umělá inteligence nečekaně dobře soupeřit s lidmi: třeba složitou zkoušku pro právníky zvládne lépe, než 90 % lidských řešitelů.
Stovky akademiků, expertů a podnikatelů zapojených do vývoje umělé inteligence (AI) ve svém otevřeném dopise volají po šestiměsíčním pozastavení vývoje nových modelů. Ne všech, jen těch, které by byly „mocnější, než GPT-4“.
Upozorňují na „významná rizika pro společnost a lidstvo“. Půlroční pauzu by měla společnost využít ke práci na bezpečnostních pravidlech a zavedení postupů vedoucích ke smysluplné a transparentní regulaci tohoto rychle se rozvíjejícího odvětví.
Otevřený dopis: Pozastavte vývoj umělé inteligence
(překlad z anglického originálu: Pause Giant AI Experiments)
Systémy umělé inteligence s inteligencí srovnatelnou s lidskou inteligencí mohou pro společnost a lidstvo představovat vážná rizika, jak ukázal rozsáhlý výzkum a jak ostatně uznávají i špičkové laboratoře umělé inteligence.
Jak se uvádí v široce přijímaných zásadách umělé inteligence z Asilomaru, pokročilá umělá inteligence by mohla představovat zásadní změnu v historii života na Zemi a měla by být plánována a řízena s odpovídající péčí a prostředky. Bohužel k takovému plánování a řízení nedochází, přestože v posledních měsících se laboratoře umělé inteligence ocitly v nekontrolovatelném závodě o vývoj a nasazení stále výkonnějších digitálních myslí, které nikdo - ani jejich tvůrci - nedokáže pochopit, předvídat ani spolehlivě kontrolovat.
V určitém okamžiku může být důležité získat nezávislý posudek před zahájením výcviku budoucích systémů a dohodnout se na omezení rychlosti růstu výpočetní kapacity.
Současné systémy umělé inteligence se nyní stávají v obecných úkolech konkurenceschopnými vůči lidem a my si musíme položit otázku: Měli bychom nechat stroje, aby zaplavily naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna zaměstnání, včetně těch, která člověka naplňují? Měli bychom vyvinout nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastoupit a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací?
Taková rozhodnutí nelze svěřovat nevoleným vedoucím pracovníkům v oblasti technologií. Výkonné systémy umělé inteligence bychom měli vyvíjet až poté, co si budeme jisti, že jejich účinky budou pozitivní a rizika zvládnutelná. Tato důvěra musí být dobře odůvodněná a musí se zvyšovat s rozsahem potenciálních účinků systému. V nedávném prohlášení organizace OpenAI týkajícím se obecné umělé inteligence se uvádí, že „v určitém okamžiku může být důležité získat nezávislý posudek před zahájením výcviku budoucích systémů a u nejpokročilejších snah se dohodnout na omezení rychlosti růstu výpočetní kapacity používané pro vytváření nových modelů.“. Souhlasíme. Tento okamžik nastal nyní.
Mezi signatáři dopisu jsou podnikatel Elon Musk, spoluzakladatel firmy Apple Steve Wozniak, šéf společnosti Stability AI Emad Mostaque, profesor informatiky Yoshua Bengio, filozof Yuval Noah Harari, profesor informatiky Stuart Russell, John Hopfield, vynálezce asociativních neuronových sítí nebo Rachel Bronsonová prezidentka neziskové organizace Bulletin of the Atomic Scientists.
Vývoj jde rychleji, než se čekalo
„Začíná tu velmi nebezpečný závod o vývoj umělé inteligence, v němž nám firmy jako OpenAI, Microsoft, Google, Meta a několik dalších startupů spálilo velkou část časového náskoku, který jsme měli k dispozici pro zajištění takzvaného sladění umělé inteligence s hodnotami lidstva,“ domnívá se Jan Romportl, český odborník na AI, který s obsahem dopisu souhlasí. „Během posledních 3 let se odhadovaná doba, za kterou se objeví tzv. obecná umělá inteligence, zkrátila desetkrát!“
Petice jasně ukazuje, že lidé, kteří oblasti umělé inteligence opravdu rozumějí, mají ze současného vývoje významné obavy.
Dopis přímo zmiňuje slova Sama Altmana, šéfa společnosti OpenAI, která je známá především jako provozovatel populární služby ChatGPT.
Co umí ChatGPT?
Bezplatná služba ChatGPT je konverzační generátor textu založený na velkém jazykovém modelu GPT-3.5 a GPT-4. Uživatelé mohou s „chatbotem“ komunikovat pomocí textu, a to prakticky na jakékoli téma.
ChatGPT ohromuje tím, že umí smysluplně odpovídat, vést debaty, psát články, básně nebo eseje přesně dle zadání, generovat funkční zdrojový kód… A také pořádně kecat, jak jsme popsali v tomto článku:
V praxi lze ChatGPT využít třeba ke generování textů, psaní e-mailů, překládání, vytváření různých nápadů, programování nebo rychlé analýze a přepsání textu. Více tipů v našem článku:
Cílem společnosti OpenAI ale od počátku bylo vyvinout nikoli jen velký jazykový model schopný odpovídat na otázky, ale podílet se na vývoji obecné umělé inteligence. Tedy takové, která by svými schopnostmi mnohonásobně překonala schopnosti jakéhokoli člověka. „Naším posláním je zajistit, aby umělá obecná inteligence - systémy umělé inteligence, které jsou obecně chytřejší než lidé - přinesla prospěch celému lidstvu,“ napsal nedávno Altman. „V určitém okamžiku může být důležité nechat si udělat nezávislý posudek, než se pustíme do výcviku budoucích systémů. A u nejpokročilejších snah se dohodnout na omezení rychlosti růstu výpočetní kapacity používané pro vytváření nových modelů.“
Je potřeba definovat a zajistit sladění
Právě na tuto větu reaguje otevřený dopis odborníků: Ten čas „omezit rychlost růstu“ nastal právě teď. Podle signatářů by měly laboratoře přestat – alespoň dočasně – vyvíjet modely „silnější než GPT-4“ a dát prostor k tomu, aby došlo k ustanovení jasných pravidel pro vývoj.
Upozorňují na to, že dopady překotného vývoje by mohly být nepříjemné pro lidi z celého světa, ať už kvůli rapidním změnám na pracovním trhu nebo existenciálním hrozbám na úrovni státních zřízení.
„Výzkum a vývoj umělé inteligence by se měl znovu zaměřit na to, aby dnešní výkonné a nejmodernější systémy byly přesnější, bezpečnější, interpretovatelnější, transparentnější, robustnější, sladěné se zadanými úkoly, důvěryhodnější a loajálnější,“ zdůrazňuje otevřený dopis koncept tzv. sladění (alignment). To v oboru strojového učení označuje schopnost „vetknout“ systému hodnoty odpovídající záměru tvůrců.
„Záruku toho, že umělá inteligence nepůjde zneužít, nemůžeme mít nikdy,“ připomíná Lukáš Kačena, ředitel spolku Prg.ai. Otevřený dopis podle něj vznáší do značné míry bezprecedentní požadavek. „Na druhou stranu regulace v oblasti umělé inteligence v Evropě vzniká. A jedna z největších v této souvislosti je, zda se kvůli tomu nezastaví inovace na starém kontinentě a my tak nebudeme dál ztrácet na USA a nebo třeba Čínu.“
Přestože vývzu za pozastavení vývoje podepsalo mnoho významných členů odborné veřejnosti, zastavit v mezinárodním vysoce konkurenčním prostředí vývoj něčeho s tak velkým dopadem se zdá těžko uskutečnitelné. „Myslím si, že je to utopický požadavek,“ řekl SZ Byznys Josef Šlerka, odborník na informační společnosti, který vede studijní obor nových médií na Filosofické fakultě Univerzity Karlovy. „Zároveň je ten dopis ale jasnou ukázkou toho, že lidé, kteří oblasti umělé inteligence opravdu rozumějí, mají ze současného vývoje opravdu významné obavy.“
Jak funguje neuronová síť
Strojové učení funguje na principu analýzy velkého množství dat a umožňuje tak nový přístup k řešení problému. Počítačové programy jsou sadou instrukcí a podle těchto instrukcí zpracovávají předložená data. Strojové učení sice také běží pomocí následování instrukcí, tvorba těchto instrukcí ale probíhá úplně jinak. Než aby programátor počítači napsal veškeré pokyny pro všechny eventuality jednotlivě, tak naprogramuje způsob, kterým se počítač sám učí na „trénovacích“ datech. Trénování probíhá pomocí sítí samostatných programů, tzv. umělých neuronů, proto se systému říká neuronová síť.
Obecně fungují umělé neuronové sítě dlouhým opakováním procesu učení a neustálým laděním ohromného množství parametrů. Ty neurony, které napovídaly správnou možnost, budou posíleny a příště budou hrát v rozhodování větší roli. Čím rozsáhlejší a kvalitnější jsou vstupní data, tím lepší může být výsledek.
Aktualizace: Do článku jsme doplnili další vyjádření a podrobnosti.