Des chercheurs ont montré que l’intelligence artificielle (IA) pourrait être un outil précieux dans la lutte contre les théories du complot. Ils ont développé un chatbot capable de réfuter les fausses informations et d’encourager les gens à remettre en question leur façon de penser.
Dans une étude publiée le 12 septembre dansSciencea été publié 1, les participants ont passé quelques minutes avec le chatbot pour fournir des réponses et des arguments détaillés, ce qui a entraîné un changement de réflexion qui a duré plusieurs mois. Ce résultat suggère que les faits et les preuves peuvent effectivement changer d'avis.
"Ces travaux remettent en question une grande partie de la littérature existante qui suppose que nous vivons dans une société post-vérité", déclare Katherine FitzGerald, qui fait des recherches sur les théories du complot et la désinformation à l'Université de technologie du Queensland à Brisbane, en Australie.
Des analyses antérieures ont suggéré que les gens sont attirés par les théories du complot parce qu’ils recherchent la sécurité et la certitude dans un monde turbulent. Mais "ce que nous avons découvert dans ces travaux contredit cette explication traditionnelle", déclare le co-auteur Thomas Costello, chercheur en psychologie à l'American University de Washington DC. « L’une des applications potentiellement intéressantes de cette recherche est que l’IA pourrait être utilisée pour démystifier les théories du complot dans la vie réelle. »
Idées nuisibles
Même si de nombreuses théories du complot ont peu d'impact social, celles qui gagnent en popularité peuvent « causer de réels dommages », explique FitzGerald. Elle cite comme exemples l’attaque contre le Capitole américain le 6 janvier 2021, qui a été alimentée en partie par les allégations d’élections présidentielles truquées en 2020, ainsi que la rhétorique anti-vaccin qui a nui à l’acceptation de la vaccination contre le COVID-19.
Il est possible de persuader les gens de changer d’avis, mais cela peut prendre du temps et être stressant – et le grand nombre et la variété des théories du complot rendent difficile une approche du problème à plus grande échelle. Mais Costello et ses collègues voulaient explorer le potentiel des grands modèles de langage (LLM) – capables de traiter rapidement de grandes quantités d’informations et de générer des réponses de type humain – pour lutter contre les théories du complot. "Ils ont été formés sur Internet et connaissent toutes les théories du complot et leurs contre-arguments, donc cela semblait être un choix très naturel", explique Costello.
Croyez-le ou non
Les chercheurs ont développé un chatbot personnalisé utilisant GPT-4 Turbo, le dernier LLM du créateur OpenAI de ChatGPT, basé à San Francisco, en Californie, qui a été formé pour argumenter de manière convaincante contre les complots. Ils ont ensuite recruté plus de 1 000 participants dont les données démographiques correspondaient à celles du recensement américain sur des caractéristiques telles que le sexe et l’origine ethnique. Costello affirme qu’en recrutant « des personnes ayant des expériences de vie différentes et leurs propres perspectives », l’équipe a pu évaluer la capacité du chatbot à démystifier diverses conspirations.
Chaque participant a été invité à décrire une théorie du complot, à expliquer pourquoi il la croyait vraie et à exprimer la force de sa croyance en pourcentage. Ces détails ont été partagés avec le chatbot, qui a ensuite engagé une conversation avec le participant, citant des informations et des preuves qui ont miné ou réfuté le complot, et a répondu aux questions du participant. Les réponses du chatbot étaient complètes et détaillées, atteignant souvent des centaines de mots. En moyenne, chaque conversation durait environ 8 minutes.
L'approche s'est avérée efficace : la confiance des participants dans la théorie du complot qu'ils ont choisie a chuté en moyenne de 21 % après avoir interagi avec le chatbot. Et 25 % des participants sont passés d’une confiance élevée (plus de 50 %) à une incertitude. Cependant, le changement était à peine perceptible pour les groupes témoins qui parlaient au même chatbot sur un sujet similaire. Une étude de suivi effectuée deux mois plus tard a montré que le changement de perspective se poursuivait pour de nombreux participants.
Bien que les résultats de l’étude soient prometteurs, les chercheurs notent que les participants étaient des enquêteurs rémunérés et ne sont peut-être pas représentatifs de personnes profondément immergées dans les théories du complot.
Intervention efficace
FitzGerald est enthousiasmé par le potentiel de l’IA pour lutter contre les complots. « Si nous pouvons trouver un moyen de prévenir la violence hors ligne, c’est toujours une bonne chose », dit-elle. Elle suggère que des recherches de suivi pourraient examiner différentes mesures pour évaluer l'efficacité du chatbot, ou que l'étude pourrait être répétée en utilisant des LLM avec des mesures de sécurité moins avancées pour garantir qu'elles ne renforcent pas la pensée conspiratrice.
Des études antérieures ont soulevé des inquiétudes quant à la tendance des chatbots IA à « halluciner » de fausses informations. Cependant, l'étude a pris soin d'éviter cette possibilité : l'équipe de Costello a demandé à un vérificateur de faits professionnel d'évaluer l'exactitude des informations fournies par le chatbot, qui a confirmé qu'aucune des déclarations n'était fausse ou politiquement biaisée.
Costello dit que l'équipe prévoit d'autres expériences pour tester différentes stratégies du chatbot, comme étudier ce qui se passe lorsque les réponses du chatbot sont grossières. En identifiant « les expériences dans lesquelles la croyance ne fonctionne plus », ils espèrent en apprendre davantage sur ce qui a fait le succès de cette étude particulière.