研究人员表明,人工智能(AI)可能成为对抗阴谋论的宝贵工具。他们开发了一个聊天机器人,可以反驳虚假信息并鼓励人们质疑他们的思维方式。
9 月 12 日发表的一项研究显示科学已发表 1参与者花了几分钟与聊天机器人一起提供详细的答案和论点,导致了持续几个月的思维转变。这一结果表明事实和证据确实可以改变人们的想法。
“这项工作对许多现有文献提出了挑战,这些文献假设我们生活在一个后真相社会,”澳大利亚布里斯班昆士兰科技大学研究阴谋论和错误信息的凯瑟琳·菲茨杰拉德 (Katherine FitzGerald) 说。
之前的分析表明,人们之所以被阴谋论所吸引,是因为他们在动荡的世界中寻求安全和确定性。但“我们在这项工作中发现的内容与这种传统的解释相矛盾,”合著者、华盛顿特区美利坚大学心理学研究员托马斯·科斯特洛说。 “这项研究潜在的令人兴奋的应用之一是人工智能可以用来揭穿现实生活中的阴谋论。”
有害的想法
菲茨杰拉德说,尽管许多阴谋论几乎没有社会影响,但那些流行的阴谋论可能“造成真正的伤害”。她以 2021 年 1 月 6 日针对美国国会大厦的袭击为例,部分原因是 2020 年总统选举被操纵的指控,以及损害了人们对 COVID-19 疫苗接种接受度的反疫苗言论。
说服人们改变主意是可能的,但这样做可能既耗时又压力大——而且阴谋论的数量和种类繁多,使得很难在更大范围内解决这个问题。但科斯特洛和他的同事希望探索大型语言模型(LLM)的潜力——它可以快速处理大量信息并产生类似人类的反应——以对抗阴谋论。 “他们接受过互联网培训,了解所有阴谋论及其反驳,所以这似乎是一个非常自然的选择,”科斯特洛说。
不管你信不信
研究人员使用 GPT-4 Turbo(加利福尼亚州旧金山 ChatGPT 创建者 OpenAI 的最新法学硕士)开发了一个定制聊天机器人,该机器人经过训练可以令人信服地反驳阴谋论。然后,他们招募了 1000 多名参与者,他们的人口统计数据在性别和种族等特征上与美国人口普查相匹配。科斯特洛表示,通过招募“具有不同生活经历和自己观点的人”,团队能够评估聊天机器人揭穿各种阴谋的能力。
每位参与者都被要求描述一个阴谋论,解释为什么他们相信这是真的,并以百分比的形式表达他们的信念强度。这些细节被分享给聊天机器人,然后聊天机器人与参与者进行对话,引用破坏或反驳阴谋的信息和证据,并回答参与者的问题。聊天机器人的回答彻底而详细,常常达到数百字。平均每次谈话持续约 8 分钟。
该方法被证明是有效的:在与聊天机器人互动后,参与者对自己选择的阴谋论的信心平均下降了 21%。 25% 的参与者从高度自信(超过 50%)转变为不确定。然而,对于就类似主题与同一个聊天机器人交谈的对照组来说,这种变化几乎不明显。两个月后的一项后续研究表明,许多参与者的观点仍在发生变化。
尽管这项研究的结果令人鼓舞,但研究人员指出,参与者是付费调查者,可能不能代表深陷阴谋论的人们。
有效干预
菲茨杰拉德对人工智能打击阴谋的潜力感到兴奋。 “如果我们能找到一种方法来防止线下暴力,那总是一件好事,”她说。她建议后续研究可以检查不同的指标来评估聊天机器人的有效性,或者可以使用具有不太先进安全措施的法学硕士来重复该研究,以确保它们不会强化阴谋思维。
此前的研究引起了人们对人工智能聊天机器人“产生幻觉”虚假信息倾向的担忧。然而,该研究小心翼翼地避免了这种可能性——科斯特洛的团队请专业事实核查员评估聊天机器人提供的信息的准确性,后者确认所有陈述均不虚假或存在政治偏见。
科斯特洛表示,该团队计划进一步进行实验来测试聊天机器人的不同策略,例如研究当聊天机器人的反应粗鲁时会发生什么。通过确定“信念不再起作用的实验”,他们希望更多地了解是什么让这项特定的研究如此成功。
