Teadlased on näidanud, et tehisintellekt (AI) võib olla väärtuslik vahend võitluses vandenõuteooriate vastu. Nad töötasid välja vestlusroboti, mis suudab ümber lükata valeinformatsiooni ja julgustada inimesi oma mõtteviisi kahtluse alla seadma.

12. septembril aastal avaldatud uuringusTeadusavaldati 1, veetsid osalejad mõne minuti vestlusrobotiga, pakkudes üksikasjalikke vastuseid ja argumente, mille tulemuseks oli mitu kuud kestnud mõttemuutus. See tulemus viitab sellele, et faktid ja tõendid võivad tõepoolest inimeste meelt muuta.

"See töö esitas väljakutse paljudele olemasolevatele kirjandustele, mis eeldavad, et elame tõejärgses ühiskonnas," ütleb Katherine FitzGerald, kes uurib vandenõuteooriaid ja valeinformatsiooni Queenslandi tehnikaülikoolis Brisbane'is, Austraalias.

Varasemad analüüsid on näidanud, et inimesi tõmbavad vandenõuteooriad, sest nad otsivad rahutust ja kindlustunnet rahutu maailmas. Kuid "see, mida me selles töös avastasime, on selle traditsioonilise seletusega vastuolus," ütleb kaasautor Thomas Costello, Washingtoni Ameerika ülikooli psühholoogiauurija. "Üks selle uurimistöö potentsiaalselt põnevaid rakendusi on see, et tehisintellekti saaks kasutada vandenõuteooriate ümberlükkamiseks päriselus."

Kahjulikud ideed

Kuigi paljudel vandenõuteooriatel on väike sotsiaalne mõju, võivad populaarsust koguvad teooriad "põhjustada tõelist kahju", ütleb FitzGerald. Ta toob näidetena välja rünnaku USA Kapitooliumi vastu 6. jaanuaril 2021, mida osaliselt õhutasid väited võltsitud 2020. aasta presidendivalimiste kohta, aga ka vaktsiinivastane retoorika, mis kahjustas COVID-19 vaktsineerimise vastuvõtmist.

Inimesi on võimalik veenda meelt muutma, kuid see võib olla aeganõudev ja stressirohke – ning vandenõuteooriate suur hulk ja mitmekesisus muudab probleemi suuremas plaanis käsitlemise keeruliseks. Kuid Costello ja tema kolleegid soovisid vandenõuteooriate vastu võitlemiseks uurida suurte keelemudelite (LLM-ide) potentsiaali, mis suudavad kiiresti töödelda suuri teabekoguseid ja genereerida inimlikke vastuseid. "Nad on saanud Internetis koolituse ja teavad kõiki vandenõuteooriaid ja nende vastuargumente, nii et see tundus olevat väga loomulik," ütleb Costello.

Uskuge või mitte

Teadlased töötasid välja kohandatud vestlusroti, kasutades GPT-4 Turbo – uusimat LLM-i San Franciscos, Californias asuvast ChatGPT loojast OpenAI –, mida õpetati veenvalt vandenõu vastu vaieldama. Seejärel värbasid nad üle 1000 osaleja, kelle demograafia ühtis USA rahvaloendusega selliste tunnuste osas nagu sugu ja etniline kuuluvus. Costello ütleb, et värvates "erineva elukogemuse ja oma vaatenurgaga inimesi", suutis meeskond hinnata vestlusroboti võimet mitmesuguseid vandenõusid ümber lükata.

Igal osalejal paluti kirjeldada vandenõuteooriat, selgitada, miks nad seda tõeks pidasid, ja väljendada oma veendumuse tugevust protsentides. Neid üksikasju jagati vestlusbotiga, kes seejärel osales vestluses osalejaga, tsiteerides vandenõu õõnestanud või ümber lükanud teavet ja tõendeid, ning vastas osaleja küsimustele. Vestlusroboti vastused olid põhjalikud ja üksikasjalikud, ulatudes sageli sadade sõnadeni. Keskmiselt kestis iga vestlus umbes 8 minutit.

Lähenemine osutus tõhusaks: osalejate usaldus valitud vandenõuteooria vastu langes pärast vestlusbotiga suhtlemist keskmiselt 21%. Ja 25% osalejatest liikus kõrge enesekindluse (üle 50%) asemel ebakindluse poole. Kontrollrühmade puhul, kes rääkisid sama vestlusbotiga sarnasel teemal, muutus muutus aga vaevalt märgatavaks. Kaks kuud hiljem tehtud järeluuring näitas, et perspektiivi muutus jätkus paljude osalejate jaoks.

Kuigi uuringu tulemused on paljulubavad, märgivad teadlased, et osalejad olid küsitluses tasulised ja ei pruugi esindada vandenõuteooriatesse sügavalt sukeldunud inimesi.

Tõhus sekkumine

FitzGerald tunneb põnevust tehisintellekti potentsiaalist vandenõu vastu võidelda. "Kui leiame viisi vägivalla vältimiseks võrguühenduseta, on see alati hea," ütleb ta. Ta soovitab, et järeluuringud võiksid uurida erinevaid mõõdikuid, et hinnata vestlusroti tõhusust, või uuringut korrata, kasutades vähem arenenud turvameetmetega LLM-e, et need ei tugevdaks vandenõulist mõtlemist.

Varasemad uuringud on tekitanud muret tehisintellekti vestlusrobotite kalduvuse pärast "hallutsineerida" valeinfot. Uuring oli aga ettevaatlik, et seda võimalust vältida – Costello meeskond palus vestlusroti edastatud teabe õigsust hinnata professionaalsel faktikontrollijal, kes kinnitas, et ükski väidetest ei olnud vale ega poliitiliselt kallutatud.

Costello sõnul plaanib meeskond täiendavaid katseid, et testida vestlusroti erinevaid strateegiaid, näiteks uurida, mis juhtub, kui vestlusroti vastused on ebaviisakad. Tuvastades "katsed, kus usk enam ei tööta", loodavad nad rohkem teada saada, mis tegi selle konkreetse uuringu nii edukaks.