Vedci ukázali, že umelá inteligencia (AI) by mohla byť cenným nástrojom v boji proti konšpiračným teóriám. Vyvinuli chatbota, ktorý dokáže vyvrátiť nepravdivé informácie a povzbudiť ľudí, aby spochybňovali svoj spôsob myslenia.
V štúdii zverejnenej 12. septembra vVedabola zverejnená 1, účastníci strávili niekoľko minút s chatbotom poskytovaním podrobných odpovedí a argumentov, výsledkom čoho bol posun v myslení, ktorý trval niekoľko mesiacov. Tento výsledok naznačuje, že fakty a dôkazy môžu skutočne zmeniť myslenie ľudí.
„Táto práca spochybnila množstvo existujúcej literatúry, ktorá predpokladá, že žijeme v post-pravdivej spoločnosti,“ hovorí Katherine FitzGerald, ktorá skúma konšpiračné teórie a dezinformácie na Queensland University of Technology v Brisbane v Austrálii.
Predchádzajúca analýza naznačila, že ľudí priťahujú konšpiračné teórie, pretože hľadajú istotu a istotu v turbulentnom svete. Ale „to, čo sme objavili v tejto práci, je v rozpore s týmto tradičným vysvetlením,“ hovorí spoluautor Thomas Costello, výskumník psychológie na Americkej univerzite vo Washingtone DC. „Jednou z potenciálne vzrušujúcich aplikácií tohto výskumu je, že AI by mohla byť použitá na odhalenie konšpiračných teórií v reálnom živote.“
Škodlivé nápady
Hoci mnohé konšpiračné teórie majú malý sociálny dopad, tie, ktoré si získajú popularitu, môžu „spôsobiť skutočnú škodu,“ hovorí FitzGerald. Poukazuje napríklad na útok na Kapitol USA zo 6. januára 2021, ktorý bol čiastočne podporený tvrdeniami o zmanipulovaných prezidentských voľbách v roku 2020, ako aj antivakcinačnou rétorikou, ktorá poškodzuje prijatie očkovania proti COVID-19.
Je možné presvedčiť ľudí, aby zmenili názor, ale môže to byť časovo náročné a stresujúce – a obrovské množstvo a rôznorodosť konšpiračných teórií sťažuje riešenie problému vo väčšom meradle. Costello a jeho kolegovia však chceli preskúmať potenciál veľkých jazykových modelov (LLM) – ktoré dokážu rýchlo spracovať veľké množstvo informácií a generovať reakcie podobné ľuďom – na boj proti konšpiračným teóriám. "Boli vyškolení na internete a poznajú všetky konšpiračné teórie a ich protiargumenty, takže sa to zdalo veľmi prirodzené," hovorí Costello.
Verte tomu alebo nie
Výskumníci vyvinuli vlastného chatbota pomocou GPT-4 Turbo – najnovšieho LLM zo San Francisca, tvorcu ChatGPT OpenAI so sídlom v Kalifornii – ktorý bol vycvičený, aby presvedčivo argumentoval proti konšpiráciám. Potom prijali viac ako 1 000 účastníkov, ktorých demografické údaje sa zhodovali s americkým sčítaním ľudu v charakteristikách, ako je pohlavie a etnická príslušnosť. Costello hovorí, že náborom „ľudí s rôznymi životnými skúsenosťami a vlastnými perspektívami“ bol tím schopný posúdiť schopnosť chatbota odhaliť rôzne konšpirácie.
Každý účastník bol požiadaný, aby opísal konšpiračnú teóriu, vysvetlil, prečo veril, že je pravdivá, a vyjadril silu svojho presvedčenia v percentách. Tieto podrobnosti boli zdieľané s chatbotom, ktorý sa potom zapojil do rozhovoru s účastníkom, pričom uviedol informácie a dôkazy, ktoré podkopali alebo vyvrátili sprisahanie, a odpovedal na otázky účastníka. Odpovede chatbota boli dôkladné a podrobné, často dosahovali stovky slov. V priemere každý rozhovor trval približne 8 minút.
Tento prístup sa ukázal ako účinný: dôvera účastníkov vo zvolenú konšpiračnú teóriu klesla po interakcii s chatbotom v priemere o 21 %. A 25 % účastníkov prešlo z vysokej istoty (vyše 50 %) do neistoty. Pre kontrolné skupiny, ktoré hovorili s rovnakým chatbotom na podobnú tému, však táto zmena bola sotva znateľná. Následná štúdia o dva mesiace neskôr ukázala, že zmena perspektívy u mnohých účastníkov pokračovala.
Hoci sú výsledky štúdie sľubné, výskumníci poznamenávajú, že účastníci boli platenými účastníkmi prieskumu a nemusia reprezentovať ľudí hlboko ponorených do konšpiračných teórií.
Účinný zásah
FitzGerald je nadšený z potenciálu AI v boji proti konšpiráciám. „Ak dokážeme nájsť spôsob, ako zabrániť násiliu offline, je to vždy dobrá vec,“ hovorí. Navrhuje, že následný výskum by mohol preskúmať rôzne metriky na posúdenie účinnosti chatbota, alebo by sa štúdia mohla zopakovať pomocou LLM s menej pokročilými bezpečnostnými opatreniami, aby sa zabezpečilo, že neposilnia konšpiračné myslenie.
Predchádzajúce štúdie vyvolali obavy z tendencie chatbotov AI „halucinovať“ falošné informácie. Štúdia však bola opatrná, aby sa tejto možnosti vyhla – Costellov tím požiadal profesionálneho overovateľa faktov, aby posúdil presnosť informácií poskytnutých chatbotom, ktorý potvrdil, že žiadne z vyhlásení nebolo nepravdivé alebo politicky zaujaté.
Costello hovorí, že tím plánuje ďalšie experimenty na testovanie rôznych stratégií chatbota, ako je napríklad štúdium toho, čo sa stane, keď sú odpovede chatbota hrubé. Dúfajú, že identifikáciou „experimentov, v ktorých viera už nefunguje“, dozvedia sa viac o tom, prečo bola táto konkrétna štúdia taká úspešná.