Forskare har visat att artificiell intelligens (AI) kan vara ett värdefullt verktyg i kampen mot konspirationsteorier. De utvecklade en chatbot som kan motbevisa falsk information och uppmuntra människor att ifrågasätta sitt sätt att tänka.

I en studie publicerad den 12 september iVetenskappublicerades 1, tillbringade deltagarna några minuter med chatboten och gav detaljerade svar och argument, vilket resulterade i en förändring i tänkandet som varade i flera månader. Detta resultat tyder på att fakta och bevis verkligen kan förändra människors uppfattning.

"Detta arbete utmanade mycket av den befintliga litteraturen som antar att vi lever i ett post-sanningssamhälle", säger Katherine FitzGerald, som forskar om konspirationsteorier och desinformation vid Queensland University of Technology i Brisbane, Australien.

Tidigare analyser har föreslagit att människor dras till konspirationsteorier eftersom de söker trygghet och säkerhet i en turbulent värld. Men "det vi upptäckte i det här arbetet motsäger denna traditionella förklaring", säger medförfattaren Thomas Costello, en psykologiforskare vid American University i Washington DC. "En av de potentiellt spännande tillämpningarna av denna forskning är att AI skulle kunna användas för att avslöja konspirationsteorier i verkligheten."

Skadliga idéer

Även om många konspirationsteorier har liten social påverkan, kan de som vinner popularitet "orsaka verklig skada", säger FitzGerald. Hon pekar på attacken mot U.S.C. Capitol den 6 januari 2021, som delvis underblåstes av påståenden om ett riggat presidentval 2020, såväl som retoriken mot vaccin som skadade acceptansen av COVID-19-vaccination, som exempel.

Det är möjligt att övertala människor att ändra uppfattning, men att göra det kan vara tidskrävande och stressande – och det stora antalet och variationen av konspirationsteorier gör det svårt att ta itu med problemet i en större skala. Men Costello och hans kollegor ville utforska potentialen hos stora språkmodeller (LLM) – som snabbt kan bearbeta stora mängder information och generera mänskliga svar – för att bekämpa konspirationsteorier. "De har utbildats på internet och känner till alla konspirationsteorier och deras motargument, så det verkade som en väldigt naturlig passform", säger Costello.

Tro det eller ej

Forskarna utvecklade en anpassad chatbot med GPT-4 Turbo – den senaste LLM från San Francisco, Kalifornien-baserade ChatGPT-skaparen OpenAI – som tränades för att argumentera övertygande mot konspirationer. De rekryterade sedan över 1 000 deltagare vars demografi matchade den amerikanska folkräkningen på egenskaper som kön och etnicitet. Costello säger att genom att rekrytera "människor med olika livserfarenheter och sina egna perspektiv" kunde teamet bedöma chatbotens förmåga att avslöja en mängd olika konspirationer.

Varje deltagare ombads beskriva en konspirationsteori, förklara varför de trodde att den var sann och uttrycka styrkan i sin tro i procent. Dessa detaljer delades med chatboten, som sedan inledde en konversation med deltagaren, citerade information och bevis som undergrävde eller motbevisade konspirationen, och svarade på deltagarens frågor. Chatbotens svar var noggranna och detaljerade och nådde ofta hundratals ord. I genomsnitt varade varje konversation cirka 8 minuter.

Tillvägagångssättet visade sig vara effektivt: deltagarnas förtroende för sin valda konspirationsteori sjönk i genomsnitt med 21 % efter att ha interagerat med chatboten. Och 25 % av deltagarna gick från högt självförtroende (över 50 %) till osäkerhet. Förändringen var dock knappast märkbar för kontrollgrupperna som pratade med samma chatbot om ett liknande ämne. En uppföljningsstudie två månader senare visade att perspektivförändringen fortsatte för många deltagare.

Även om studiens resultat är lovande, noterar forskare att deltagarna var betalda undersökningstagare och kanske inte är representativa för människor som är djupt nedsänkta i konspirationsteorier.

Effektiv intervention

FitzGerald är exalterad över potentialen hos AI för att bekämpa konspirationer. "Om vi ​​kan hitta ett sätt att förhindra våld offline är det alltid bra", säger hon. Hon föreslår att uppföljningsforskning skulle kunna undersöka olika mätetal för att bedöma effektiviteten hos chatboten, eller så kan studien upprepas med hjälp av LLM med mindre avancerade säkerhetsåtgärder för att säkerställa att de inte förstärker konspiratoriskt tänkande.

Tidigare studier har väckt oro över AI-chatbotarnas tendens att "hallucinera" falsk information. Studien var dock noga med att undvika denna möjlighet – Costellos team bad en professionell faktagranskare att bedöma riktigheten av informationen från chatboten, som bekräftade att inget av påståendena var falska eller politiskt partiska.

Costello säger att teamet planerar ytterligare experiment för att testa olika strategier för chatboten, som att studera vad som händer när chatbotens svar är oförskämda. Genom att identifiera "experimenten där tron ​​inte längre fungerar" hoppas de lära sig mer om vad som gjorde just denna studie så framgångsrik.