Článek
Společnost se snaží osvojit nástroje fungující za podpory AI snad na všech frontách, banky nebo třeba pojišťovny nevyjímaje. Právě finanční odvětví je v porovnání s mnoha dalšími sektory s přijetím různých podob umělé inteligence možná nejdál.
Odborníci se shodují, že má AI ve finančních službách potenciál například skokově zlepšovat zákaznickou zkušenost, a to navíc při zvyšování efektivity a snižování nákladů na poskytování těchto služeb.
Podle Michaely Bauer, manažerky ČSOB zodpovědné za inovace a technologie, už dnes umělá inteligence v bance zasahuje víceméně do všech oblastí, od interních procesů až po to, co vidí klienti.
„Díky AI teď klientům budeme schopni radit kdykoliv a kdekoliv,“ řekla členka představenstva ČSOB na konci října v Byznys Clubu Seznam Zpráv.
Expert na fintech Jakub Škrabánek, mimo jiné autor finanční aplikace Orbi, podtrhl obrovský potenciál v úspoře nákladů, ať už jde o procesování dokumentů, schvalování úvěrů anebo kontakt s klienty. „Možnosti vytváření nových způsobů interakce s bankou považuji za možná vůbec nejzajímavější příležitost, kterou nyní AI nabízí.“
Může být umělá inteligence zlá?
Pokud v současnosti něco brzdí ještě širší a rychlejší rozvoj využívání umělé inteligence, do značné míry, jsou to etické otázky.
„Umělá inteligence má potenciál zásadním způsobem ovlivňovat lidská rozhodnutí, aniž by byla schopna reflektovat etické, sociální a morální důsledky svých algoritmů. Může například systematicky zvýhodňovat nebo znevýhodňovat určité skupiny lidí kvůli předpojatým datům, ze kterých se učí,“ říká Ondřej Mikula, partner v advokátní kanceláří Finreg Partners. Kritickým rizikem je podle něj rovněž možnost zneužití AI k manipulaci veřejného mínění, šíření dezinformací či kybernetickým útokům.
Jan Pich, odborník na kyberbezpečnost a konzultant EY Česká republika v oborou technologií, navíc poukazuje i na riziko možných finančních ztrát. „Přílišné spoléhání na schopnost umělé inteligence zpracovat takzvaně tvrdá data bez ohledu na společenský kontext může například v oblasti investic vést ke ztrátovým rozhodnutím.“
Zakázané postupy v oblasti umělé inteligence
- Jde o systémy, jejichž používání je považováno za nepřijatelné zejména z důvodu rozporu s hodnotami EU. Například v důsledku porušování základních práv.
- To se týká například postupů založených na biometrické identifikaci nebo kategorizaci osob dle citlivých dat (politické, náboženské vyznání, sexuální orientace, rasa, apod.), sociálních scoringových systémů vyžívajících klasifikaci lidí dle jejich chování a dle socioekonomického statusu.
- Výjimkou bude užití pro potřeby státních orgánů, které by však mělo podléhat specifickým bezpečnostním opatřením.
Na potřebu nastavit pravidla hry, která nás budou chránit před systémovými riziky spojenými s využíváním umělé inteligence, reagovala Evropská unie nařízením o AI, známým jako AI Act. Obsáhlý dokument využívání umělé inteligence v základu rozděluje do tří kategorií, a to podle míry rizika, které je s danými technologiemi spojené. Účinnost jednotlivých částí nařízení, které je v platnosti od 1. srpna 2024, bude nabíhat postupně, právě podle míry rizika, která je daným technologiím, respektive způsobu jejich využívání, připisována.
„Od února 2025 začnou být vymahatelné povinnosti vztahující se k nejrizikovějším AI systémům. Ty nařízení zcela zakazuje, protože například porušují základní lidská práva. V srpnu 2025 naběhne účinnost povinností týkajících se obecných AI modelů, což je třeba i ChatGPT, a v srpnu 2026 již bude nutné řídit se celým nařízením,“ říká Ondřej Mikula.
Nástroje umělé inteligence popsané jako systémy s nepřijatelným rizikem, čeká úplný zákaz. Patří sem třeba biometrické identifikační systémy. Vysoce rizikové AI systémy sice budou povoleny, ale budou muset splňovat řadu přísných požadavků.
„Týká se to typicky systémů využívaných v kritické infrastruktuře, což mohou být třeba autonomní vlaky či automobily. Také ale dalších oblastí, například zaměstnanosti, kde mohou podporovat rozhodování v náboru, povyšování nebo ukončení pracovního poměru, nebo AI systémů ovlivňující přístup k základním službám jako je bydlení, zdravotní péče nebo bankovní služby a produkty,“ popisuje vedoucí partner advokátní kanceláře EY Law Ondřej Havránek.
Do kategorie vysoce rizikových AI systémů tedy AI Act řadí i problematiku posuzování úvěruschopnosti.
Cílem regulací je zabránit, aby systémy AI používané finančními institucemi například diskriminovaly určitou skupinu obyvatel v přístupu k úvěrům. „K tomu by mohlo dojít například na základě rasových, etnických, genderových nebo věkových charakteristik, které jsou v ‚předpojatých‘ datech skryté a algoritmus je při svém rozhodování nevědomky upřednostňuje,“ vysvětlil Ondřej Mikula z Finreg Partners.
AI je nejrychlejší likvidátor pojistných událostí
AI nástroje dnes nacházejí široké uplatnění i v pojišťovnách. Lze je využít třeba na vyhodnocování škod, kde umožňují přesnější analýzu a rozřazení dle typu škody.
„Díky AI už podklady od klientů automaticky roztřídíme na ta správná místa,“ souhlasí členka představenstva ČSOB Michaela Bauer. Umělá inteligence dokonce většinou pozná, pokud klient při vyplňování formuláře uvedl trochu jiný scénář, než se doopravdy stal.
„Naší ambicí ale je, abychom z fotodokumentace dokázali vše automaticky vyhodnocovat a jen v nějakých hraničních nebo sporných případech se na to potřeboval podívat i člověk. V pojišťovnictví je fotek poměrně hodně, a když nebudou čekat ve frontě na člověka, můžeme všechny procesy výrazně uspíšit,“ říká Michaela Bauer.
Jiným příběhem ale podle AI Act bude, má-li umělá inteligence vyhodnocovat pojistné riziko pro stanovení výše pojistného.
Jak nakládá AI s daty
AI nástroje jsou běžně využívány na bázi outsourcingu, tedy že část svých procesů nevykonává finanční instituce sama, ale zajišťuje je prostřednictvím svého dodavatele. Šetří to náklady, na druhou stranu ale zvyšuje rizika spojená s únikem dat nebo neoprávněným nakládáním s daty.
Dá se tedy předpokládat, že také v oblasti kybernetické bezpečnosti a ochrany citlivých bude mít AI Act na finanční instituce nebo třeba i fintechové startupy významné dopady.
Podle Romana Fabiánka ze společnosti Deloitte Legal to pro finanční instituce nepředstavuje nepřekonatelnou překážku, ale stejně jako využívání AI nástrojů také využívání cloudových služeb podléhá přísné sektorové regulaci.
„Zjednodušeně řečeno platí, že v takovém případě musí finanční instituce zajistit, aby i její dodavatel splnil všechny přísné podmínky, které stanovuje sektorová regulace,“ vysvětlil Fabiánek. To bude mít logicky dopad na výběr dodavatelů AI systémů a jejich hodnocení, například i z pohledu kybernetické bezpečnosti.
Jak upozorňuje Gregor Stojin, vedoucí Centra pro regulaci AI v Deloitte Legal pro střední a východní Evropu, nakládání s osobními údaji i nadále upravuje GDPR. Diskutovaný AI Act tato pravidla nenahrazuje a odkazuje právě na GDPR. „Dále AI Act formuluje požadavky na správu dat, a tedy i osobních údajů, v rámci systémů umělé inteligence, zejména v souvislosti s trénováním modelů AI,“ řekl Seznam Zprávám Stojin. Jako předseda Výboru pro umělou inteligenci Rady Evropy se v nedávné minulosti přímo podílel tvorbě AI Act.
Regulace porostou, zatím vede Evropa
Regulace AI logicky nerezonuje jen v Evropě. V USA to však doposud byla otázka spíš některých dílčích témat, které se AI dotýkají, případně sektorově specifických regulací (např. v dopravě).
„Dosavadní administrativa počítala s přijetím komplexnějších návrhů nové legislativy týkající se AI. Teď je ale otázka, jak se k tomu postaví prezident Trump,“ uvažuje Ondřej Mikula.
Jeho slova potvrzuje i Ondřej Havránek, když říká, že ve Spojených státech amerických zatím neexistuje právní předpis na federální úrovni, který by rozsáhle a komplexně upravoval používání a vývoj AI systémů s účinností ve všech státech.
„Administrativa prezidenta Bidena ale dosáhla právně nezávazné dohody se sedmi předními technologickými společnostmi, mezi kterými nechybí Google, Amazon, Meta a Mircrosoft s OpenAI. Tato dohoda založená na dobrovolných závazcích má zajistit například bezpečné testování AI systémů před uvedením na trh a sdílení informací o řízení rizik při využívání AI,“ říká Havránek.
V Číně došlo k přijetí určité regulace generativního AI (modely umožňující vytváření textu, obrázku, audia, apod.), která upravuje některé záležitosti podobně jako EU. Na pravidlech pro regulaci a správu AI systémů pracují také UNESCO, Mezinárodní organizace pro normalizaci (ISO) a Africká unie.
European AI Office
Orgán zřízený Evropskou komisí úřaduje od února 2024 a hraje klíčovou roli při zavádění a prosazování nařízení o umělé inteligenci (AI Act). V ČR v současné době není oficiálně stanovený konkrétní český úřad jako přímý partner European AI Office. Spolupráce mezi EU a Českou republikou v oblasti umělé inteligence tak probíhá především na úrovni České asociace pro umělou inteligenci, České akademie věd a příslušných ministerstev.
Oslovení odborníci se však shodují, že Evropská unie je v tomto ohledu jednoznačně leaderem. Jako jediná totiž nyní disponuje závazným právním rámcem komplexně upravujícím pravidla pro využití umělé inteligence nejenom na našem, a potažmo tedy unijním, území, ale v některých případech také mimo toto území.
„Můžeme předpokládat, že s ohledem na potenciál umělé inteligence i celospolečenský zájem o ni budou snahy regulovat její vývoj a využití nadále pokračovat, a to i po vzoru Evropské unie,“ uzavřel téma odborník na kyberbezpečnost Jan Pich.