Raziskovalci so pokazali, da bi lahko bila umetna inteligenca (AI) dragoceno orodje v boju proti teorijam zarote. Razvili so klepetalnega robota, ki lahko ovrže lažne informacije in spodbudi ljudi k dvomu o njihovem načinu razmišljanja.
V študiji, objavljeni 12. septembra vZnanostje bil objavljen 1, so udeleženci preživeli nekaj minut s klepetalnim robotom, ki je zagotavljal podrobne odgovore in argumente, kar je povzročilo premik v razmišljanju, ki je trajal več mesecev. Ta rezultat nakazuje, da lahko dejstva in dokazi dejansko spremenijo mišljenje ljudi.
»To delo je izpodbijalo veliko obstoječe literature, ki domneva, da živimo v družbi post-resnice,« pravi Katherine FitzGerald, ki raziskuje teorije zarote in dezinformacije na Tehnološki univerzi Queensland v Brisbanu v Avstraliji.
Prejšnje analize so pokazale, da ljudi privlačijo teorije zarote, ker iščejo varnost in gotovost v turbulentnem svetu. Toda "kar smo odkrili v tem delu, je v nasprotju s to tradicionalno razlago," pravi soavtor Thomas Costello, raziskovalec psihologije na ameriški univerzi v Washingtonu DC. "Ena od potencialno vznemirljivih aplikacij te raziskave je, da bi lahko umetno inteligenco uporabili za razbijanje teorij zarote v resničnem življenju."
Škodljive ideje
Čeprav ima veliko teorij zarote majhen družbeni vpliv, lahko tiste, ki postanejo priljubljene, »povzročijo resnično škodo«, pravi FitzGerald. Kot primera izpostavlja napad na prestolnico ZDA 6. januarja 2021, ki so ga deloma spodbudile trditve o prirejenih predsedniških volitvah leta 2020, pa tudi retoriko proti cepivom, ki je škodila sprejemanju cepljenja proti COVID-19.
Ljudi je mogoče prepričati, da si premislijo, vendar je to početje lahko dolgotrajno in stresno – zaradi velikega števila in raznolikosti teorij zarote pa je težko obravnavati problem v širšem obsegu. Toda Costello in njegovi kolegi so želeli raziskati potencial velikih jezikovnih modelov (LLM) - ki lahko hitro obdelajo velike količine informacij in ustvarijo odzive, podobne človeškim - za boj proti teorijam zarote. »Urili so se na internetu in poznajo vse teorije zarote ter njihove protiargumente, zato se je zdelo zelo naravno,« pravi Costello.
Verjemite ali ne
Raziskovalci so razvili klepetalnega robota po meri z uporabo GPT-4 Turbo – najnovejšega LLM-ja ustvarjalca ChatGPT iz San Francisca v Kaliforniji OpenAI – ki je bil usposobljen za prepričljivo argumentiranje proti zarotam. Nato so zaposlili več kot 1000 udeležencev, katerih demografija se je ujemala s popisom prebivalstva v ZDA glede značilnosti, kot sta spol in etnična pripadnost. Costello pravi, da je ekipa z novačenjem "ljudi z različnimi življenjskimi izkušnjami in lastnimi perspektivami" lahko ocenila sposobnost chatbota, da razkrinka različne zarote.
Vsak udeleženec je bil pozvan, da opiše teorijo zarote, pojasni, zakaj verjame, da je resnična, in izrazi moč svojega prepričanja v odstotkih. Te podrobnosti so bile posredovane chatbotu, ki se je nato vključil v pogovor z udeležencem, pri čemer je navedel informacije in dokaze, ki so spodkopavali ali ovrgli zaroto, in odgovarjal na vprašanja udeleženca. Odgovori klepetalnega robota so bili temeljiti in podrobni ter so pogosto dosegli na stotine besed. V povprečju je vsak pogovor trajal približno 8 minut.
Pristop se je izkazal za učinkovitega: zaupanje udeležencev v njihovo izbrano teorijo zarote je po interakciji s chatbotom padlo v povprečju za 21 %. In 25 % udeležencev je prešlo iz visokega zaupanja (več kot 50 %) v negotovost. Vendar je bila sprememba komaj opazna za kontrolne skupine, ki so se pogovarjale z istim chatbotom o podobni temi. Nadaljnja študija dva meseca pozneje je pokazala, da se je sprememba perspektive pri mnogih udeležencih nadaljevala.
Čeprav so rezultati študije obetavni, raziskovalci ugotavljajo, da so bili udeleženci plačani anketarji in morda ne predstavljajo ljudi, ki so globoko pogreznjeni v teorije zarote.
Učinkovita intervencija
FitzGerald je navdušen nad potencialom umetne inteligence v boju proti zarotam. »Če lahko najdemo način za preprečevanje nasilja brez povezave, je to vedno dobro,« pravi. Predlaga, da bi nadaljnje raziskave lahko preučile različne meritve za oceno učinkovitosti chatbota ali pa bi študijo lahko ponovili z uporabo LLM z manj naprednimi varnostnimi ukrepi, da bi zagotovili, da ne krepijo zarotniškega razmišljanja.
Prejšnje študije so sprožile zaskrbljenost glede težnje klepetalnih robotov z umetno inteligenco, da »halucinirajo« lažne informacije. Vendar je bila študija previdna, da bi se izognila tej možnosti – Costellova ekipa je prosila profesionalnega preverjevalca dejstev, da oceni točnost informacij, ki jih je posredoval chatbot, ki je potrdil, da nobena od izjav ni lažna ali politično pristranska.
Costello pravi, da ekipa načrtuje nadaljnje eksperimente za preizkušanje različnih strategij klepetalnega robota, na primer preučevanje, kaj se zgodi, ko so odgovori klepetalnega bota nevljudni. Z identifikacijo "poskusov, pri katerih prepričanje ne deluje več", upajo, da bodo izvedeli več o tem, zakaj je bila ta študija tako uspešna.