Onderzoekers hebben aangetoond dat kunstmatige intelligentie (AI) een waardevol instrument kan zijn in de strijd tegen complottheorieën. Ze ontwikkelden een chatbot die valse informatie kan weerleggen en mensen kan aanmoedigen hun manier van denken in twijfel te trekken.
In een studie gepubliceerd op 12 september inWetenschapwerd gepubliceerd 1brachten de deelnemers een paar minuten door met de chatbot en gaven ze gedetailleerde antwoorden en argumenten, wat resulteerde in een verschuiving in het denken die enkele maanden duurde. Dit resultaat suggereert dat feiten en bewijsmateriaal inderdaad de gedachten van mensen kunnen veranderen.
“Dit werk daagde een groot deel van de bestaande literatuur uit die ervan uitgaat dat we in een post-truth-samenleving leven”, zegt Katherine FitzGerald, die onderzoek doet naar complottheorieën en desinformatie aan de Queensland University of Technology in Brisbane, Australië.
Eerdere analyses hebben gesuggereerd dat mensen zich aangetrokken voelen tot complottheorieën omdat ze veiligheid en zekerheid zoeken in een turbulente wereld. Maar "wat we in dit werk ontdekten is in tegenspraak met deze traditionele verklaring", zegt co-auteur Thomas Costello, een psychologieonderzoeker aan de American University in Washington DC. “Een van de potentieel opwindende toepassingen van dit onderzoek is dat AI kan worden gebruikt om complottheorieën in het echte leven te ontkrachten.”
Schadelijke ideeën
Hoewel veel complottheorieën weinig sociale impact hebben, kunnen degenen die aan populariteit winnen ‘echte schade aanrichten’, zegt FitzGerald. Ze wijst als voorbeelden op de aanval op het Amerikaanse Capitool op 6 januari 2021, die gedeeltelijk werd aangewakkerd door beweringen over vervalste presidentsverkiezingen in 2020, en op de anti-vaccinretoriek die de acceptatie van de vaccinatie tegen COVID-19 schaadde.
Het is mogelijk om mensen ervan te overtuigen van gedachten te veranderen, maar dat kan tijdrovend en stressvol zijn – en het enorme aantal en de verscheidenheid aan complottheorieën maakt het moeilijk om het probleem op grotere schaal aan te pakken. Maar Costello en zijn collega's wilden het potentieel onderzoeken van grote taalmodellen (LLM's) – die snel grote hoeveelheden informatie kunnen verwerken en mensachtige reacties kunnen genereren – om complottheorieën te bestrijden. "Ze zijn getraind op internet en kennen alle complottheorieën en hun tegenargumenten, dus het leek een heel natuurlijke combinatie", zegt Costello.
Geloof het of niet
De onderzoekers ontwikkelden een aangepaste chatbot met behulp van GPT-4 Turbo – de nieuwste LLM van de in San Francisco, Californië gevestigde ChatGPT-maker OpenAI – die was getraind om overtuigend te argumenteren tegen samenzweringen. Vervolgens rekruteerden ze meer dan 1.000 deelnemers wier demografische gegevens overeenkwamen met de Amerikaanse volkstelling wat betreft kenmerken zoals geslacht en etniciteit. Costello zegt dat door het rekruteren van “mensen met verschillende levenservaringen en hun eigen perspectieven”, het team in staat was om het vermogen van de chatbot te beoordelen om een verscheidenheid aan samenzweringen te ontkrachten.
Elke deelnemer werd gevraagd een complottheorie te beschrijven, uit te leggen waarom zij geloofden dat deze waar was, en de kracht van hun overtuiging uit te drukken als een percentage. Deze details werden gedeeld met de chatbot, die vervolgens een gesprek met de deelnemer aanging, waarbij informatie en bewijsmateriaal werd aangehaald die de samenzwering ondermijnden of weerlegden, en reageerde op de vragen van de deelnemer. De antwoorden van de chatbot waren grondig en gedetailleerd, en bereikten vaak honderden woorden. Gemiddeld duurde elk gesprek ongeveer 8 minuten.
De aanpak bleek effectief: het vertrouwen van deelnemers in de door hen gekozen complottheorie daalde gemiddeld met 21% na interactie met de chatbot. En 25% van de deelnemers ging van groot vertrouwen (meer dan 50%) naar onzekerheid. De verandering was echter nauwelijks merkbaar voor de controlegroepen die met dezelfde chatbot over een soortgelijk onderwerp spraken. Uit een vervolgonderzoek twee maanden later bleek dat de perspectiefverandering bij veel deelnemers aanhield.
Hoewel de resultaten van het onderzoek veelbelovend zijn, merken onderzoekers op dat de deelnemers betaalde enquêtedeelnemers waren en mogelijk niet representatief zijn voor mensen die diep verdiept zijn in complottheorieën.
Effectieve interventie
FitzGerald is enthousiast over het potentieel van AI om samenzweringen te bestrijden. “Als we een manier kunnen vinden om geweld offline te voorkomen, is dat altijd een goede zaak”, zegt ze. Ze suggereert dat vervolgonderzoek verschillende maatstaven zou kunnen onderzoeken om de effectiviteit van de chatbot te beoordelen, of dat het onderzoek zou kunnen worden herhaald met behulp van LLM's met minder geavanceerde beveiligingsmaatregelen om ervoor te zorgen dat ze het samenzweerderige denken niet versterken.
Eerdere studies hebben zorgen geuit over de neiging van AI-chatbots om valse informatie te ‘hallucineren’. Het onderzoek heeft deze mogelijkheid echter zorgvuldig vermeden: het team van Costello vroeg een professionele factchecker om de juistheid van de door de chatbot verstrekte informatie te beoordelen, die bevestigde dat geen van de uitspraken vals of politiek bevooroordeeld was.
Costello zegt dat het team verdere experimenten plant om verschillende strategieën van de chatbot te testen, zoals het bestuderen van wat er gebeurt als de reacties van de chatbot onbeleefd zijn. Door ‘de experimenten te identificeren waarbij geloof niet langer werkt’, hopen ze meer te weten te komen over wat deze specifieke studie zo succesvol maakte.