Pētnieki ir pierādījuši, ka mākslīgais intelekts (AI) varētu būt vērtīgs līdzeklis cīņā pret sazvērestības teorijām. Viņi izstrādāja tērzēšanas robotu, kas var atspēkot nepatiesu informāciju un mudināt cilvēkus apšaubīt savu domāšanas veidu.
Pētījumā, kas publicēts 12. septembrīZinātnetika publicēts 1, dalībnieki pavadīja dažas minūtes ar tērzēšanas robotu, sniedzot detalizētas atbildes un argumentus, kā rezultātā notika domāšanas maiņa, kas ilga vairākus mēnešus. Šis rezultāts liek domāt, ka fakti un pierādījumi patiešām var mainīt cilvēku domas.
"Šis darbs apstrīdēja lielu daļu esošās literatūras, kurā tiek pieņemts, ka mēs dzīvojam pēcpatiesības sabiedrībā," saka Ketrīna Ficdžeralda, kura pēta sazvērestības teorijas un dezinformāciju Kvīnslendas Tehnoloģiju universitātē Brisbenā, Austrālijā.
Iepriekšējā analīze liecina, ka cilvēkus piesaista sazvērestības teorijas, jo viņi meklē drošību un noteiktību nemierīgajā pasaulē. Bet "tas, ko mēs atklājām šajā darbā, ir pretrunā ar šo tradicionālo skaidrojumu," saka līdzautors Tomass Kostello, psiholoģijas pētnieks Amerikas Universitātē Vašingtonā. "Viens no šī pētījuma potenciāli aizraujošajiem pielietojumiem ir tas, ka AI var izmantot, lai reālajā dzīvē atspēkotu sazvērestības teorijas."
Kaitīgas idejas
Lai gan daudzām sazvērestības teorijām ir maza sociālā ietekme, tās, kas iegūst popularitāti, var "nodarīt reālu kaitējumu", saka Ficdžeralds. Viņa kā piemērus norāda uz uzbrukumu ASV Kapitolijam 2021. gada 6. janvārī, ko daļēji veicināja apgalvojumi par viltotām 2020. gada prezidenta vēlēšanām, kā arī pret vakcināciju vērstā retorika, kas kaitēja Covid-19 vakcinācijas pieņemšanai.
Ir iespējams pārliecināt cilvēkus mainīt savas domas, taču šāda rīcība var būt laikietilpīga un saspringta – un sazvērestības teoriju milzīgais skaits un dažādība apgrūtina problēmas risināšanu plašākā mērogā. Taču Kostello un viņa kolēģi vēlējās izpētīt lielo valodu modeļu (LLM) potenciālu, kas var ātri apstrādāt lielu informācijas daudzumu un radīt cilvēkiem līdzīgas atbildes, lai cīnītos pret sazvērestības teorijām. "Viņi ir apmācīti internetā un zina visas sazvērestības teorijas un to pretargumentus, tāpēc tas šķita ļoti dabiski," saka Kostello.
Tici vai nē
Pētnieki izstrādāja pielāgotu tērzēšanas robotu, izmantojot GPT-4 Turbo — jaunāko LLM no Sanfrancisko, Kalifornijā bāzētā ChatGPT radītāja OpenAI, kas tika apmācīts pārliecinoši iebilst pret sazvērestībām. Pēc tam viņi pieņēma darbā vairāk nekā 1000 dalībnieku, kuru demogrāfiskie dati atbilst ASV tautas skaitīšanas datiem par tādām pazīmēm kā dzimums un etniskā piederība. Kostello saka, ka, pieņemot darbā "cilvēkus ar dažādu dzīves pieredzi un savām perspektīvām", komanda varēja novērtēt tērzēšanas robota spēju atmaskot dažādas sazvērestības.
Katram dalībniekam tika lūgts aprakstīt sazvērestības teoriju, paskaidrot, kāpēc viņi uzskatīja, ka tā ir patiesība, un izteikt savas pārliecības stiprumu procentos. Šī informācija tika kopīgota ar tērzēšanas robotu, kas pēc tam iesaistījās sarunā ar dalībnieku, atsaucoties uz informāciju un pierādījumiem, kas grauj vai atspēkoja sazvērestību, un atbildēja uz dalībnieka jautājumiem. Tērzēšanas robota atbildes bija izsmeļošas un detalizētas, bieži vien sasniedzot simtiem vārdu. Vidēji katra saruna ilga aptuveni 8 minūtes.
Šī pieeja izrādījās efektīva: dalībnieku pārliecība par viņu izvēlēto sazvērestības teoriju samazinājās vidēji par 21% pēc mijiedarbības ar tērzēšanas robotu. Un 25% dalībnieku pārcēlās no augstas pārliecības (vairāk nekā 50%) uz nenoteiktību. Tomēr izmaiņas nebija pamanāmas kontroles grupām, kas runāja ar vienu un to pašu tērzēšanas robotu par līdzīgu tēmu. Pēc diviem mēnešiem veikts papildu pētījums parādīja, ka daudziem dalībniekiem perspektīvas izmaiņas turpinājās.
Lai gan pētījuma rezultāti ir daudzsološi, pētnieki atzīmē, ka dalībnieki bija apmaksāti aptauju dalībnieki un, iespējams, nepārstāv cilvēkus, kuri ir dziļi iegrimuši sazvērestības teorijās.
Efektīva iejaukšanās
Ficdžeralds ir sajūsmā par AI potenciālu apkarot sazvērestības. "Ja mēs varam atrast veidu, kā novērst vardarbību bezsaistē, tas vienmēr ir labi," viņa saka. Viņa ierosina, ka turpmākajos pētījumos varētu pārbaudīt dažādus rādītājus, lai novērtētu tērzēšanas robota efektivitāti, vai arī pētījumu varētu atkārtot, izmantojot LLM ar mazāk uzlabotiem drošības pasākumiem, lai nodrošinātu, ka tie nepastiprina sazvērestības domāšanu.
Iepriekšējie pētījumi ir radījuši bažas par AI tērzēšanas robotu tendenci "halucinēt" nepatiesu informāciju. Tomēr pētījums tika veikts piesardzīgi, lai izvairītos no šādas iespējas – Kostello komanda lūdza profesionālu faktu pārbaudītāju novērtēt tērzēšanas robota sniegtās informācijas precizitāti, kurš apstiprināja, ka neviens no apgalvojumiem nav nepatiess vai politiski neobjektīvs.
Kostello saka, ka komanda plāno turpmākus eksperimentus, lai pārbaudītu dažādas tērzēšanas robota stratēģijas, piemēram, izpētītu, kas notiek, ja tērzēšanas robota atbildes ir rupjas. Nosakot "eksperimentus, kuros ticība vairs nedarbojas", viņi cer uzzināt vairāk par to, kas padarīja šo konkrēto pētījumu tik veiksmīgu.