Forskere har vist at kunstig intelligens (AI) kan være et verdifullt verktøy i kampen mot konspirasjonsteorier. De utviklet en chatbot som kan tilbakevise falsk informasjon og oppmuntre folk til å stille spørsmål ved deres måte å tenke på.

I en studie publisert 12. september iVitenskapble publisert 1, brukte deltakerne noen minutter sammen med chatboten og ga detaljerte svar og argumenter, noe som resulterte i et tankeskifte som varte i flere måneder. Dette resultatet antyder at fakta og bevis faktisk kan forandre folks sinn.

"Dette arbeidet utfordret mye av den eksisterende litteraturen som antar at vi lever i et post-sannhetssamfunn," sier Katherine FitzGerald, som forsker på konspirasjonsteorier og feilinformasjon ved Queensland University of Technology i Brisbane, Australia.

Tidligere analyser har antydet at folk blir tiltrukket av konspirasjonsteorier fordi de søker trygghet og sikkerhet i en turbulent verden. Men "det vi oppdaget i dette arbeidet motsier denne tradisjonelle forklaringen," sier medforfatter Thomas Costello, en psykologiforsker ved American University i Washington DC. "En av de potensielt spennende anvendelsene av denne forskningen er at AI kan brukes til å avkrefte konspirasjonsteorier i det virkelige liv."

Skadelige ideer

Selv om mange konspirasjonsteorier har liten sosial innvirkning, kan de som vinner popularitet «forårsake virkelig skade», sier FitzGerald. Hun peker på angrepet på U.S. Capitol 6. januar 2021, som delvis ble drevet av påstander om et rigget presidentvalg i 2020, samt anti-vaksine-retorikken som skadet aksept for covid-19-vaksinasjon, som eksempler.

Det er mulig å overtale folk til å ombestemme seg, men å gjøre det kan være tidkrevende og stressende – og det store antallet og variasjonen av konspirasjonsteorier gjør det vanskelig å ta tak i problemet i større skala. Men Costello og kollegene hans ønsket å utforske potensialet til store språkmodeller (LLM) – som raskt kan behandle store mengder informasjon og generere menneskelignende svar – for å bekjempe konspirasjonsteorier. "De har blitt opplært på internett og kjenner alle konspirasjonsteoriene og deres motargumenter, så det virket som en veldig naturlig passform," sier Costello.

Tro det eller ei

Forskerne utviklet en tilpasset chatbot ved å bruke GPT-4 Turbo – den siste LLM fra San Francisco, California-baserte ChatGPT-skaper OpenAI – som ble opplært til å argumentere overbevisende mot konspirasjoner. De rekrutterte deretter over 1000 deltakere hvis demografi samsvarte med den amerikanske folketellingen på egenskaper som kjønn og etnisitet. Costello sier at ved å rekruttere "mennesker med forskjellige livserfaringer og deres egne perspektiver," var teamet i stand til å vurdere chatbotens evne til å avkrefte en rekke konspirasjoner.

Hver deltaker ble bedt om å beskrive en konspirasjonsteori, forklare hvorfor de trodde den var sann, og uttrykke styrken i deres tro i prosent. Disse detaljene ble delt med chatboten, som deretter engasjerte seg i en samtale med deltakeren, siterte informasjon og bevis som undergravde eller tilbakeviste konspirasjonen, og svarte på deltakerens spørsmål. Chatbotens svar var grundige og detaljerte, og nådde ofte hundrevis av ord. I gjennomsnitt varte hver samtale omtrent 8 minutter.

Tilnærmingen viste seg å være effektiv: deltakernes tillit til deres valgte konspirasjonsteori falt i gjennomsnitt med 21 % etter interaksjon med chatboten. Og 25 % av deltakerne gikk fra høy selvtillit (over 50 %) til usikkerhet. Endringen var imidlertid knapt merkbar for kontrollgruppene som snakket med samme chatbot om et lignende tema. En oppfølgingsstudie to måneder senere viste at endringen i perspektiv fortsatte for mange deltakere.

Selv om studiens resultater er lovende, bemerker forskerne at deltakerne var betalte undersøkelsestakere og kanskje ikke er representative for mennesker som er dypt fordypet i konspirasjonsteorier.

Effektiv intervensjon

FitzGerald er begeistret for potensialet til AI for å bekjempe konspirasjoner. "Hvis vi kan finne en måte å forhindre vold offline, er det alltid en god ting," sier hun. Hun foreslår at oppfølgingsforskning kan undersøke ulike beregninger for å vurdere effektiviteten til chatboten, eller studien kan gjentas ved å bruke LLM-er med mindre avanserte sikkerhetstiltak for å sikre at de ikke forsterker konspiratorisk tenkning.

Tidligere studier har reist bekymringer om tendensen til AI-chatboter til å "hallusinere" falsk informasjon. Studien var imidlertid nøye med å unngå denne muligheten – Costellos team ba en profesjonell faktasjekker vurdere nøyaktigheten av informasjonen gitt av chatboten, som bekreftet at ingen av utsagnene var falske eller politisk partiske.

Costello sier at teamet planlegger ytterligere eksperimenter for å teste ulike strategier for chatboten, for eksempel å studere hva som skjer når chatbotens svar er frekke. Ved å identifisere «eksperimentene der tro ikke lenger fungerer», håper de å lære mer om hva som gjorde denne studien så vellykket.