Článek
Článek si také můžete poslechnout v audioverzi.
Místo pěšáků falešné profily, místo pušek klávesnice. Společnosti bojují o své klienty na sociálních sítích. A že to myslí vážně, dokazuje fakt, že se nebojí používat stejné nástroje, jaké používají vlády v reálných válkách. Rozmáhá se šíření dezinformací a polopravd, které má za cíl poškodit konkurenci, upozorňuje BBC.
Útočníci se snaží používat podobné taktiky, jako používají státy, aby proti konkurentům v podstatě vedli válku na sociálních sítích.
„Zdá se, že jsme na prahu éry dezinformací proti obchodním konkurentům,“ řekl BBC Lyric Jain, šéf společnosti Logically. Ta se zabývá monitoringem sociálních sítí Twitter, Facebook, Instagram a TikTok a pomocí umělé inteligence na nich hledá fake news – dezinformace a polopravdy.
Jain založil firmu ve Velké Británii v roce 2017 a přestože jejími hlavními zákazníky jsou britská, americká a indická vláda, stále častěji se na něj obracejí některé z největších světových značek. Žádají především o pomoc při ochraně před škodlivými útoky ze strany konkurence.
„Jsme svědky toho, že některé ze stejných praktik, které byly nasazeny státy, jako je Rusko a Čína, v rámci operací ovlivňování sociálních médií, nyní přebírají bezohlednější konkurenti některých hlavních společností z žebříčku Fortune 500 a FTSE 100.“ Ten zastupuje největší americké společnosti včetně Walmartu, Amazonu nebo Applu.
„Útočníci se snaží používat podobné taktiky, jako používají státy, aby proti konkurentům v podstatě vedli válku na sociálních sítích.“
Věříte všemu, co vidíte na sociálních sítích?
Podle Jaina je hlavní taktikou útoku používání falešných účtů k „podvodnému šíření a umělému posilování“ ať už skutečných, nebo vymyšlených negativních recenzí na produkty či služby.
Kromě toho mohou být boti – falešné profily – použiti k poškození širší pověsti konkurenta. Například pokud má prodejce v určitém kvartálu špatné finanční výsledky, může se je konkurent pokusit ještě zveličit.
Jain říká, že takové útoky sice vedou „zahraniční konkurenti“ západních značek, například čínské firmy, ale nevylučuje, že totéž dělají i některé menší západní podniky proti svým konkurentům. „Ano, dělají to zahraniční konkurenti. Potenciálně toho mohou využívat ale i některé domácí značky, které kolem svých prodejů nemají stejné standardy jako zbytek trhu,“ řekl BBC. „Obvykle je to nově vznikající společnost, která jde po zavedeném podniku právě těmito prostředky.“
„Nepřekvapilo by mě, pokud by některé zavedené západní značky také používaly tuto taktiku,“ dodává Jain.
Smazat příspěvek nebo rovnou účet
Aby se společnosti mohly proti takovým útokům bránit, prochází umělá inteligence společnosti Logically na sociálních sítích denně více než 20 milionů příspěvků a vyhledává ty, které jsou podezřelé. Zaměstnanci pak označené příspěvky procházejí a ověřují, že neobsahují lživé informace.
Když najdou dezinformace nebo polopravdy, upozorní příslušnou sociální síť, aby se jimi zabývala. „Některé sítě odstraní účet rovnou, zatímco některé pouze smažou příspěvek, ale účet ne,“ říká Jain. „Je na platformě, aby toto rozhodnutí učinila sama.“
Naším skutečným cílem je nevkládat mezi umělou inteligenci a výsledky žádné lidi.
Dodává, že pokud jde o útoky na firmy, škodlivé příspěvky nebo účty jsou obvykle odstraněny do dvou hodin. Pro srovnání, v případě příspěvků, které jsou považovány za „větší společenskou hrozbu“ nebo za hrozbu násilím, je to jen několik minut.
Zatímco umělá inteligence firmy „zvyšuje rychlost a efektivitu“ jejích operací, klíčových zůstává 175 zaměstnanců společnosti ve Velké Británii, USA a Indii. „Přístup založený pouze na technologii má jasná omezení…, a proto si také zachováváme odborné znalosti, které jsou lidští kontroloři faktů schopni do problému vnést,“ říká šéf společnosti. „Podle našeho názoru je nezbytné, aby odborníci byli vždy ústředním prvkem našeho rozhodování.“
Umělá inteligence jako objektivní pomocník
Factmata, další britská společnost zaměřující se na vyhledávání dezinformací, které by mohly poškodit její klienty, volí jiný přístup.
Její výkonný ředitel Antony Cousins pro BBC říká, že ačkoli může do monitorovací práce zapojit lidi, pokud ho o to klient požádá, umělá inteligence může být objektivnější. „Naším skutečným cílem je nevkládat mezi umělou inteligenci a výsledky žádné lidi. Jinak hrozí, že do zjištění budeme uplatňovat vlastní předsudky,“ řekl BBC. Podle něj totiž dokáže umělá inteligence rozlišit i třeba mezi lží a satirou a humorem.
Umělá inteligence společnosti Factmata, která byla založena v roce 2016, používá 19 různých algoritmů, které jsou podle Cousinse „vyškoleny k identifikaci různých aspektů obsahu, za účelem odstranění špatných věcí a vyloučení falešně pozitivních, dobrých věcí“.
Falešně pozitivním obsahem má na mysli obsah, který by na první pohled mohl být považován za falešný, ale ve skutečnosti jde o „humor, satiru, ironii a obsah, který by mohl upozorňovat na problémy z dobrého důvodu“. Ty podle něj firma nechce označovat jako závadné.
Její umělá inteligence se podle něj totiž tolik nezabývá vyhledáváním falešných tweetů nebo jiných příspěvků, které je třeba odstranit, ale pátrá hlouběji a snaží se najít zdroj, první účet nebo účty, které lež nebo fámu vypustily, a u nich se pak zaměřuje na jejich odstranění.
Dodává, že stále více značek si musí uvědomit rostoucí riziko, kterému čelí kvůli falešným zprávám na sociálních sítích. „Pokud je značka falešně obviněna z rasismu nebo sexismu, může ji to skutečně poškodit. Lidé generace Z se mohou snadno rozhodnout, že u ní nebudou nakupovat.“
Má to háček
Profesorka Sandra Wachterová, vedoucí výzkumná pracovnice v oblasti umělé inteligence na Oxfordské univerzitě, BBC řekla, že využití této technologie v boji proti falešným zprávám na sociálních sítích je komplikovaná záležitost.
„Vzhledem k všudypřítomnosti a objemu falešných informací a dezinformací kolujících po webu je naprosto pochopitelné, že se při řešení tohoto problému obracíme na technologie, jako je umělá inteligence,“ řekla profesorka BBC.
Podle ní může být umělá inteligence řešením tohoto problému, ale pouze za předpokladu, že se dokážeme dohodnout, co je to falešná informace, která by měla být odstraněna. „Bohužel, od nalezení shody v této otázce nemůžeme být dále,“ říká.
„Je tento obsah falešný, nebo pravý? Co když je to můj názor? Co když to byl vtip? A kdo o tom má rozhodovat? Jak si s tím má poradit algoritmus, když se my lidé nedokážeme shodnout ani v této otázce?“
A dodává: „Lidská řeč má navíc mnoho jemností a nuancí, které algoritmy – a v mnoha případech ani lidé – nemusí být schopny odhalit. Výzkumy například naznačují, že algoritmy, stejně jako lidé, jsou schopny rozpoznat sarkasmus a satiru jen asi v 60 procentech případů.“
Zástupce společnosti Factmata proto upřesňuje, že jeho společnost „nevystupuje jako strážce pravdy“, a dodává: „Naší úlohou není rozhodovat o tom, co je pravda, nebo ne, ale identifikovat pro naše klienty obsah, o kterém si myslíme, že by mohl být falešný nebo škodlivý, a to s určitou mírou jistoty.“