I ricercatori hanno dimostrato che l’intelligenza artificiale (AI) potrebbe essere uno strumento prezioso nella lotta contro le teorie del complotto. Hanno sviluppato un chatbot in grado di confutare le informazioni false e incoraggiare le persone a mettere in discussione il loro modo di pensare.

In uno studio pubblicato il 12 settembre inScienzaè stato pubblicato 1, i partecipanti hanno trascorso alcuni minuti con il chatbot fornendo risposte e argomentazioni dettagliate, determinando un cambiamento di pensiero che è durato diversi mesi. Questo risultato suggerisce che i fatti e le prove possono effettivamente cambiare la mente delle persone.

"Questo lavoro ha messo in discussione gran parte della letteratura esistente che presuppone che viviamo in una società della post-verità", afferma Katherine FitzGerald, che ricerca teorie del complotto e disinformazione presso la Queensland University of Technology di Brisbane, in Australia.

Analisi precedenti hanno suggerito che le persone sono attratte dalle teorie del complotto perché cercano sicurezza e certezza in un mondo turbolento. Ma "ciò che abbiamo scoperto in questo lavoro contraddice questa spiegazione tradizionale", afferma il coautore Thomas Costello, ricercatore di psicologia presso l'American University di Washington DC. “Una delle applicazioni potenzialmente interessanti di questa ricerca è che l’intelligenza artificiale potrebbe essere utilizzata per sfatare le teorie del complotto nella vita reale”.

Idee dannose

Sebbene molte teorie del complotto abbiano uno scarso impatto sociale, quelle che guadagnano popolarità possono "causare danni reali", afferma FitzGerald. Indica, come esempi, l’attacco al Campidoglio degli Stati Uniti del 6 gennaio 2021, che è stato alimentato in parte dalle accuse di elezioni presidenziali truccate del 2020, nonché dalla retorica anti-vaccini che ha danneggiato l’accettazione della vaccinazione COVID-19.

È possibile persuadere le persone a cambiare idea, ma farlo può richiedere molto tempo ed è stressante, e l’enorme numero e varietà di teorie del complotto rende difficile affrontare il problema su scala più ampia. Ma Costello e i suoi colleghi volevano esplorare il potenziale dei modelli linguistici di grandi dimensioni (LLM), che possono elaborare rapidamente grandi quantità di informazioni e generare risposte di tipo umano, per combattere le teorie del complotto. "Sono stati formati su Internet e conoscono tutte le teorie del complotto e le loro controargomentazioni, quindi è sembrata una scelta molto naturale", afferma Costello.

Che tu ci creda o no

I ricercatori hanno sviluppato un chatbot personalizzato utilizzando GPT-4 Turbo, l'ultimo LLM di OpenAI, creatore di ChatGPT con sede a San Francisco, in California, addestrato a argomentare in modo convincente contro le cospirazioni. Hanno quindi reclutato oltre 1.000 partecipanti i cui dati demografici corrispondevano al censimento statunitense su caratteristiche quali genere ed etnia. Costello afferma che reclutando “persone con esperienze di vita e prospettive diverse”, il team è stato in grado di valutare la capacità del chatbot di sfatare una serie di cospirazioni.

A ogni partecipante è stato chiesto di descrivere una teoria del complotto, spiegare perché credeva che fosse vera ed esprimere la forza della propria convinzione in percentuale. Questi dettagli sono stati condivisi con il chatbot, che ha poi avviato una conversazione con il partecipante, citando informazioni e prove che indebolivano o smentivano la cospirazione, e ha risposto alle domande del partecipante. Le risposte del chatbot erano approfondite e dettagliate, raggiungendo spesso centinaia di parole. In media, ogni conversazione è durata circa 8 minuti.

L'approccio si è rivelato efficace: la fiducia dei partecipanti nella teoria del complotto scelta è diminuita in media del 21% dopo aver interagito con il chatbot. E il 25% dei partecipanti è passato da un’elevata fiducia (oltre il 50%) all’incertezza. Tuttavia, il cambiamento è stato appena percettibile per i gruppi di controllo che hanno parlato con lo stesso chatbot su un argomento simile. Uno studio di follow-up effettuato due mesi dopo ha dimostrato che il cambiamento di prospettiva continuava per molti partecipanti.

Sebbene i risultati dello studio siano promettenti, i ricercatori notano che i partecipanti erano partecipanti a sondaggi retribuiti e potrebbero non essere rappresentativi di persone profondamente immerse nelle teorie del complotto.

Intervento efficace

FitzGerald è entusiasta del potenziale dell’intelligenza artificiale per combattere le cospirazioni. “Se riusciamo a trovare un modo per prevenire la violenza offline, è sempre una buona cosa”, afferma. Suggerisce che la ricerca di follow-up potrebbe esaminare diversi parametri per valutare l’efficacia del chatbot, oppure lo studio potrebbe essere ripetuto utilizzando LLM con misure di sicurezza meno avanzate per garantire che non rafforzino il pensiero cospiratorio.

Studi precedenti hanno sollevato preoccupazioni sulla tendenza dei chatbot basati sull’intelligenza artificiale ad “allucinare” false informazioni. Tuttavia, lo studio è stato attento a evitare questa possibilità: il team di Costello ha chiesto a un fact-checker professionista di valutare l'accuratezza delle informazioni fornite dal chatbot, il quale ha confermato che nessuna delle dichiarazioni era falsa o politicamente parziale.

Costello afferma che il team prevede ulteriori esperimenti per testare diverse strategie del chatbot, come studiare cosa succede quando le risposte del chatbot sono scortesi. Identificando “gli esperimenti in cui la convinzione non funziona più”, sperano di saperne di più su ciò che ha reso questo particolare studio così efficace.