Vědci prokázali, že umělá inteligence (AI) by mohla být cenným nástrojem v boji proti konspiračním teoriím. Vyvinuli chatbota, který dokáže vyvrátit nepravdivé informace a povzbudit lidi, aby zpochybňovali svůj způsob myšlení.

Ve studii zveřejněné 12. září vVědabyla zveřejněna 1, účastníci strávili několik minut s chatbotem poskytováním podrobných odpovědí a argumentů, což vedlo k posunu v myšlení, který trval několik měsíců. Tento výsledek naznačuje, že fakta a důkazy mohou skutečně změnit myšlení lidí.

„Tato práce zpochybnila mnoho existující literatury, která předpokládá, že žijeme v post-pravdivé společnosti,“ říká Katherine FitzGerald, která se zabývá výzkumem konspiračních teorií a dezinformací na Queensland University of Technology v Brisbane v Austrálii.

Předchozí analýza naznačovala, že lidé jsou přitahováni ke konspiračním teoriím, protože hledají bezpečí a jistotu v turbulentním světě. Ale „to, co jsme objevili v této práci, je v rozporu s tímto tradičním vysvětlením,“ říká spoluautor Thomas Costello, výzkumník psychologie na Americké univerzitě ve Washingtonu DC. "Jednou z potenciálně vzrušujících aplikací tohoto výzkumu je, že umělá inteligence by mohla být použita k odhalení konspiračních teorií v reálném životě."

Škodlivé nápady

Ačkoli mnoho konspiračních teorií má malý společenský dopad, ty, které získají popularitu, mohou „způsobit skutečnou škodu,“ říká FitzGerald. Poukazuje například na útok na Kapitol USA 6. ledna 2021, který byl částečně podpořen tvrzeními o zmanipulovaných prezidentských volbách v roce 2020, stejně jako antivakcinační rétorikou, která poškozuje přijetí očkování proti COVID-19.

Je možné přesvědčit lidi, aby změnili názor, ale dělat to může být časově náročné a stresující – a naprostý počet a rozmanitost konspiračních teorií ztěžuje řešení problému ve větším měřítku. Ale Costello a jeho kolegové chtěli prozkoumat potenciál velkých jazykových modelů (LLM) – které dokážou rychle zpracovat velké množství informací a generovat reakce podobné lidem – v boji proti konspiračním teoriím. "Byli vyškoleni na internetu a znají všechny konspirační teorie a jejich protiargumenty, takže se to zdálo jako velmi přirozené," říká Costello.

Věřte tomu nebo ne

Výzkumníci vyvinuli vlastního chatbota pomocí GPT-4 Turbo – nejnovějšího LLM ze San Francisca, kalifornského tvůrce ChatGPT OpenAI – který byl vycvičen, aby přesvědčivě argumentoval proti konspiracím. Poté naverbovali přes 1 000 účastníků, jejichž demografické údaje odpovídaly americkému sčítání lidu na základě charakteristik, jako je pohlaví a etnický původ. Costello říká, že díky náboru „lidí s různými životními zkušenostmi a vlastní perspektivou“ byl tým schopen posoudit schopnost chatbota odhalit různé konspirace.

Každý účastník byl požádán, aby popsal konspirační teorii, vysvětlil, proč věřil, že je pravdivá, a vyjádřil sílu svého přesvědčení v procentech. Tyto podrobnosti byly sdíleny s chatbotem, který se poté zapojil do rozhovoru s účastníkem, citoval informace a důkazy, které podkopaly nebo vyvrátily spiknutí, a odpověděl na otázky účastníka. Odpovědi chatbota byly důkladné a podrobné, často dosahovaly stovek slov. V průměru trval každý rozhovor asi 8 minut.

Tento přístup se ukázal jako účinný: důvěra účastníků ve zvolenou konspirační teorii klesla po interakci s chatbotem v průměru o 21 %. A 25 % účastníků přešlo z vysoké důvěry (přes 50 %) k nejistotě. U kontrolních skupin, které mluvily se stejným chatbotem na podobné téma, však změna byla sotva patrná. Následná studie o dva měsíce později ukázala, že změna perspektivy u mnoha účastníků pokračovala.

Ačkoli jsou výsledky studie slibné, vědci poznamenávají, že účastníci byli placenými účastníky průzkumu a nemusí reprezentovat lidi hluboce ponořené do konspiračních teorií.

Efektivní zásah

FitzGerald je nadšený z potenciálu umělé inteligence v boji proti konspiracím. „Pokud dokážeme najít způsob, jak předcházet násilí offline, je to vždy dobrá věc,“ říká. Navrhuje, že následný výzkum by mohl prozkoumat různé metriky k posouzení účinnosti chatbota, nebo by se studie mohla opakovat pomocí LLM s méně pokročilými bezpečnostními opatřeními, aby se zajistilo, že neposílí konspirativní myšlení.

Předchozí studie vyvolaly obavy ohledně tendence AI chatbotů „halucinovat“ nepravdivé informace. Studie však byla opatrná, aby se této možnosti vyhnula – Costellův tým požádal profesionálního ověřovatele faktů, aby posoudil správnost informací poskytnutých chatbotem, který potvrdil, že žádné z prohlášení nebylo nepravdivé nebo politicky zaujaté.

Costello říká, že tým plánuje další experimenty k testování různých strategií chatbota, jako je například studium toho, co se stane, když jsou odpovědi chatbota hrubé. Doufají, že identifikováním „experimentů, kde víra již nefunguje“, dozvědí se více o tom, proč byla tato konkrétní studie tak úspěšná.