Mokslininkai įrodė, kad dirbtinis intelektas (AI) gali būti vertinga priemonė kovojant su sąmokslo teorijomis. Jie sukūrė pokalbių robotą, kuris gali paneigti klaidingą informaciją ir paskatinti žmones suabejoti savo mąstymo būdu.
Tyrime, paskelbtame rugsėjo 12 dMokslasbuvo paskelbta 1, dalyviai keletą minučių praleido su pokalbių robotu, pateikdami išsamius atsakymus ir argumentus, todėl mąstymas pasikeitė kelis mėnesius. Šis rezultatas rodo, kad faktai ir įrodymai iš tiesų gali pakeisti žmonių nuomonę.
„Šis darbas metė iššūkį daugeliui esamos literatūros, kurioje daroma prielaida, kad gyvename potiesos visuomenėje“, – sako Katherine FitzGerald, tyrinėjanti sąmokslo teorijas ir klaidingą informaciją Kvinslando technologijos universitete Brisbene, Australijoje.
Ankstesnė analizė parodė, kad žmones traukia sąmokslo teorijos, nes jie ieško saugumo ir tikrumo neramiame pasaulyje. Tačiau „tai, ką atradome šiame darbe, prieštarauja šiam tradiciniam paaiškinimui“, – sako bendraautorius Thomas Costello, Vašingtono Amerikos universiteto psichologijos tyrinėtojas. „Viena iš potencialiai įdomių šio tyrimo taikymo sričių yra ta, kad AI gali būti panaudotas sąmokslo teorijoms paneigti realiame gyvenime.
Žalingos idėjos
Nors daugelis sąmokslo teorijų turi nedidelį socialinį poveikį, populiarėjančios gali „pridaryti tikros žalos“, sako FitzGeraldas. Kaip pavyzdžius ji atkreipia dėmesį į 2021 m. sausio 6 d. JAV Kapitolijaus išpuolį, kurį iš dalies paskatino teiginiai apie suklastotus 2020 m. prezidento rinkimus, taip pat antivakcininė retorika, kuri pažeidžia COVID-19 vakcinacijos priėmimą.
Galima įtikinti žmones persigalvoti, tačiau tai gali atimti daug laiko ir sukelti stresą – o dėl daugybės ir įvairių sąmokslo teorijų sunku spręsti problemą platesniu mastu. Tačiau Costello ir jo kolegos norėjo ištirti didelių kalbos modelių (LLM), kurie gali greitai apdoroti didelius informacijos kiekius ir generuoti į žmones panašius atsakymus, potencialą kovoti su sąmokslo teorijomis. „Jie buvo apmokyti internete ir žino visas sąmokslo teorijas bei jų kontrargumentus, todėl atrodė, kad tai labai natūralu“, – sako Costello.
Tikėkite ar ne
Tyrėjai sukūrė pasirinktinį pokalbių robotą, naudodami GPT-4 Turbo – naujausią LLM iš San Francisko, Kalifornijoje įsikūrusio ChatGPT kūrėjo OpenAI, kuris buvo išmokytas įtikinamai ginčytis prieš sąmokslus. Tada jie įdarbino daugiau nei 1000 dalyvių, kurių demografiniai rodikliai atitiko JAV surašymo duomenis, pavyzdžiui, lytį ir etninę kilmę. Costello sako, kad įdarbindama „žmones, turinčius skirtingą gyvenimo patirtį ir savo perspektyvas“, komanda galėjo įvertinti pokalbių roboto gebėjimą paneigti įvairius sąmokslus.
Kiekvienas dalyvis turėjo apibūdinti sąmokslo teoriją, paaiškinti, kodėl jie tikėjo, kad tai tiesa, ir išreikšti savo įsitikinimo stiprumą procentais. Šia informacija buvo pasidalinta su pokalbių robotu, kuris vėliau pradėjo pokalbį su dalyviu, nurodydamas informaciją ir įrodymus, kurie sumenkino arba paneigia sąmokslą, ir atsakė į dalyvio klausimus. Pokalbių roboto atsakymai buvo išsamūs ir išsamūs, dažnai siekdami šimtus žodžių. Vidutiniškai kiekvienas pokalbis trukdavo apie 8 minutes.
Metodas pasirodė veiksmingas: dalyvių pasitikėjimas pasirinkta sąmokslo teorija po bendravimo su pokalbių robotu sumažėjo vidutiniškai 21%. Ir 25% dalyvių perėjo nuo didelio pasitikėjimo (daugiau nei 50%) prie netikrumo. Tačiau pokytis buvo sunkiai pastebimas kontrolinėse grupėse, kurios kalbėjosi su tuo pačiu pokalbių robotu panašia tema. Po dviejų mėnesių atliktas tolesnis tyrimas parodė, kad daugelio dalyvių perspektyvos pasikeitimas tęsėsi.
Nors tyrimo rezultatai yra daug žadantys, mokslininkai pastebi, kad dalyviai buvo apmokami apklausos dalyviai ir galbūt neatspindi žmonių, giliai pasinėrusių į sąmokslo teorijas.
Veiksminga intervencija
FitzGeraldas džiaugiasi AI potencialu kovoti su sąmokslu. „Jei galime rasti būdą, kaip užkirsti kelią smurtui neprisijungus, tai visada yra gerai“, - sako ji. Ji siūlo, kad tolesniuose tyrimuose būtų galima ištirti įvairias metrikas, kad būtų galima įvertinti pokalbių roboto veiksmingumą, arba tyrimą būtų galima pakartoti naudojant LLM su mažiau pažangiomis saugumo priemonėmis, siekiant užtikrinti, kad jie nestiprintų konspiracinio mąstymo.
Ankstesni tyrimai kėlė susirūpinimą dėl AI pokalbių robotų tendencijos „haliucinuoti“ klaidingą informaciją. Tačiau tyrime buvo stengiamasi išvengti tokios galimybės – Costello komanda paprašė profesionalaus faktų tikrintojo įvertinti pokalbių roboto pateiktos informacijos tikslumą, kuris patvirtino, kad nė vienas iš teiginių nebuvo melagingas ar politiškai šališkas.
Costello sako, kad komanda planuoja tolesnius eksperimentus, kad išbandytų skirtingas pokalbių roboto strategijas, pavyzdžiui, tirtų, kas nutinka, kai pokalbių roboto atsakymai yra grubūs. Nustatydami „eksperimentus, kuriuose tikėjimas nebeveikia“, jie tikisi sužinoti daugiau apie tai, dėl ko šis tyrimas buvo toks sėkmingas.
