Forskere har vist, at kunstig intelligens (AI) kan være et værdifuldt værktøj i kampen mod konspirationsteorier. De udviklede en chatbot, der kan tilbagevise falsk information og tilskynde folk til at stille spørgsmålstegn ved deres måde at tænke på.
I en undersøgelse offentliggjort den 12. september iVidenskabblev offentliggjort 1, tilbragte deltagerne et par minutter med chatbotten med at give detaljerede svar og argumenter, hvilket resulterede i et tankeskifte, der varede i flere måneder. Dette resultat tyder på, at fakta og beviser faktisk kan ændre folks sind.
"Dette arbejde udfordrede meget af den eksisterende litteratur, der antager, at vi lever i et post-sandhedssamfund," siger Katherine FitzGerald, der forsker i konspirationsteorier og misinformation ved Queensland University of Technology i Brisbane, Australien.
Tidligere analyser har antydet, at folk er tiltrukket af konspirationsteorier, fordi de søger sikkerhed og vished i en turbulent verden. Men "det, vi opdagede i dette arbejde, modsiger denne traditionelle forklaring," siger medforfatter Thomas Costello, en psykologiforsker ved American University i Washington DC. "En af de potentielt spændende anvendelser af denne forskning er, at kunstig intelligens kan bruges til at afsløre konspirationsteorier i det virkelige liv."
Skadelige ideer
Selvom mange konspirationsteorier har ringe social indvirkning, kan de, der vinder popularitet, "forvolde reel skade," siger FitzGerald. Hun peger på angrebet på U.S.C. Capitol den 6. januar 2021, som delvist blev drevet af påstande om et manipuleret præsidentvalg i 2020, såvel som anti-vaccineretorikken, der skadede accepten af COVID-19-vaccination, som eksempler.
Det er muligt at overtale folk til at ombestemme sig, men det kan være tidskrævende og stressende – og det store antal og mangfoldighed af konspirationsteorier gør det svært at løse problemet i større skala. Men Costello og hans kolleger ønskede at udforske potentialet i store sprogmodeller (LLM'er) - som hurtigt kan behandle store mængder information og generere menneskelignende svar - for at bekæmpe konspirationsteorier. "De er blevet trænet på internettet og kender alle konspirationsteorierne og deres modargumenter, så det virkede som en meget naturlig pasform," siger Costello.
Tro det eller ej
Forskerne udviklede en brugerdefineret chatbot ved hjælp af GPT-4 Turbo - den seneste LLM fra San Francisco, Californien-baserede ChatGPT-skaber OpenAI - der blev trænet til at argumentere overbevisende imod konspirationer. De rekrutterede derefter over 1.000 deltagere, hvis demografi matchede den amerikanske folketælling på karakteristika som køn og etnicitet. Costello siger, at ved at rekruttere "mennesker med forskellige livserfaringer og deres egne perspektiver", var holdet i stand til at vurdere chatbotens evne til at afsløre en række forskellige konspirationer.
Hver deltager blev bedt om at beskrive en konspirationsteori, forklare, hvorfor de troede, den var sand, og udtrykke styrken af deres tro i procent. Disse detaljer blev delt med chatbotten, som derefter engagerede sig i en samtale med deltageren, citerede oplysninger og beviser, der underminerede eller afkræftede sammensværgelsen, og svarede på deltagerens spørgsmål. Chatbottens svar var grundige og detaljerede og nåede ofte op på hundredvis af ord. I gennemsnit varede hver samtale omkring 8 minutter.
Tilgangen viste sig at være effektiv: Deltagernes tillid til deres valgte konspirationsteori faldt i gennemsnit med 21 % efter interaktion med chatbotten. Og 25 % af deltagerne gik fra høj tillid (over 50 %) til usikkerhed. Ændringen var dog næppe mærkbar for kontrolgrupperne, der talte med den samme chatbot om et lignende emne. En opfølgende undersøgelse to måneder senere viste, at ændringen i perspektiv fortsatte for mange deltagere.
Selvom undersøgelsens resultater er lovende, bemærker forskere, at deltagerne var betalte undersøgelsestagere og måske ikke er repræsentative for mennesker, der er dybt fordybet i konspirationsteorier.
Effektiv intervention
FitzGerald er begejstret for AI's potentiale til at bekæmpe konspirationer. "Hvis vi kan finde en måde at forhindre vold offline, er det altid en god ting," siger hun. Hun foreslår, at opfølgende forskning kunne undersøge forskellige målinger for at vurdere effektiviteten af chatbotten, eller undersøgelsen kunne gentages ved hjælp af LLM'er med mindre avancerede sikkerhedsforanstaltninger for at sikre, at de ikke forstærker konspiratorisk tænkning.
Tidligere undersøgelser har rejst bekymringer om AI-chatbots tendens til at "hallucinere" falsk information. Undersøgelsen var dog omhyggelig med at undgå denne mulighed – Costellos team bad en professionel faktatjekker om at vurdere nøjagtigheden af oplysningerne fra chatbotten, som bekræftede, at ingen af udsagnene var falske eller politisk forudindtaget.
Costello siger, at holdet planlægger yderligere eksperimenter for at teste forskellige strategier for chatbotten, såsom at studere, hvad der sker, når chatbottens svar er uhøflige. Ved at identificere "eksperimenterne, hvor tro ikke længere virker", håber de at lære mere om, hvad der gjorde netop denne undersøgelse så vellykket.