Istraživači su pokazali da bi umjetna inteligencija (AI) mogla biti vrijedan alat u borbi protiv teorija zavjere. Razvili su chatbot koji može opovrgnuti lažne informacije i potaknuti ljude da preispitaju njihov način razmišljanja.

U studiji objavljenoj 12. rujna uZnanostobjavljena je 1, sudionici su proveli nekoliko minuta s chatbotom dajući detaljne odgovore i argumente, što je rezultiralo pomakom u razmišljanju koji je trajao nekoliko mjeseci. Ovaj rezultat sugerira da činjenice i dokazi doista mogu promijeniti mišljenje ljudi.

“Ovaj rad doveo je u pitanje veliki dio postojeće literature koja pretpostavlja da živimo u društvu post-istine”, kaže Katherine FitzGerald, koja istražuje teorije zavjere i dezinformacije na Tehnološkom sveučilištu Queensland u Brisbaneu, Australija.

Prethodne analize sugerirale su da su ljudi privučeni teorijama zavjere jer traže sigurnost i izvjesnost u turbulentnom svijetu. Ali "ono što smo otkrili u ovom radu proturječi ovom tradicionalnom objašnjenju", kaže koautor Thomas Costello, istraživač psihologije na Američkom sveučilištu u Washingtonu DC. "Jedna od potencijalno uzbudljivih primjena ovog istraživanja je da bi se AI mogla koristiti za razotkrivanje teorija zavjere u stvarnom životu."

Štetne ideje

Iako mnoge teorije zavjere imaju mali društveni utjecaj, one koje steknu popularnost mogu "prouzročiti pravu štetu", kaže FitzGerald. Kao primjere ističe napad na američki Kapitol 6. siječnja 2021., koji je djelomično potaknut tvrdnjama o namještenim predsjedničkim izborima 2020., kao i retoriku protiv cjepiva koja je naštetila prihvaćanju cijepljenja protiv COVID-19.

Moguće je uvjeriti ljude da se predomisle, ali to može biti dugotrajno i stresno - a sama brojnost i raznolikost teorija zavjere otežava rješavanje problema u širim razmjerima. Ali Costello i njegovi kolege željeli su istražiti potencijal velikih jezičnih modela (LLM)—koji mogu brzo obraditi velike količine informacija i generirati ljudske odgovore—za borbu protiv teorija zavjere. "Prošli su obuku na internetu i poznaju sve teorije zavjere i njihove protuargumente, pa se to činilo kao vrlo prirodno uklapanje", kaže Costello.

vjerovali ili ne

Istraživači su razvili prilagođeni chatbot koristeći GPT-4 Turbo — najnoviji LLM iz San Francisca, kalifornijskog kreatora ChatGPT-a OpenAI — koji je bio obučen da se uvjerljivo bori protiv zavjera. Zatim su regrutirali više od 1000 sudionika čija je demografija odgovarala popisu stanovništva u SAD-u po karakteristikama kao što su spol i etnička pripadnost. Costello kaže da je regrutiranjem "ljudi s različitim životnim iskustvima i vlastitim perspektivama" tim uspio procijeniti sposobnost chatbota da razotkrije razne zavjere.

Svaki je sudionik zamoljen da opiše teoriju zavjere, objasni zašto vjeruje da je istinita i izrazi snagu svog uvjerenja u postotku. Ti su detalji podijeljeni s chatbotom, koji se zatim uključio u razgovor sa sudionikom, navodeći informacije i dokaze koji potkopavaju ili opovrgavaju zavjeru, te je odgovarao na pitanja sudionika. Odgovori chatbota bili su temeljiti i detaljni, često dosežući stotine riječi. U prosjeku je svaki razgovor trajao oko 8 minuta.

Pristup se pokazao učinkovitim: povjerenje sudionika u odabranu teoriju zavjere palo je u prosjeku za 21% nakon interakcije s chatbotom. A 25% sudionika prešlo je s visokog povjerenja (preko 50%) na nesigurnost. Međutim, promjena je bila jedva primjetna za kontrolne skupine koje su razgovarale s istim chatbotom o sličnoj temi. Naknadna studija dva mjeseca kasnije pokazala je da se promjena perspektive nastavila za mnoge sudionike.

Iako su rezultati studije obećavajući, istraživači napominju da su sudionici bili plaćeni anketari i da možda nisu predstavnici ljudi koji su duboko uronjeni u teorije zavjere.

Učinkovita intervencija

FitzGerald je uzbuđen zbog potencijala umjetne inteligencije u borbi protiv zavjera. "Ako možemo pronaći način da spriječimo nasilje izvan mreže, to je uvijek dobra stvar", kaže ona. Predlaže da bi naknadno istraživanje moglo ispitati različite metrike za procjenu učinkovitosti chatbota ili bi se studija mogla ponoviti korištenjem LLM-a s manje naprednim sigurnosnim mjerama kako bi se osiguralo da ne jačaju zavjereničko razmišljanje.

Prethodne studije izazvale su zabrinutost zbog sklonosti AI chatbota da "halucinira" lažne informacije. Međutim, studija je bila oprezna kako bi se izbjegla ova mogućnost – Costellov tim je zamolio profesionalnog provjerivača činjenica da procijeni točnost informacija koje je pružio chatbot, koji je potvrdio da nijedna od izjava nije lažna ili politički pristrana.

Costello kaže da tim planira daljnje eksperimente za testiranje različitih strategija chatbota, poput proučavanja što se događa kada su odgovori chatbota nepristojni. Identificirajući "eksperimente u kojima vjerovanje više ne funkcionira", nadaju se saznati više o tome što je ovu studiju učinilo tako uspješnom.