Cercetătorii au arătat că inteligența artificială (AI) ar putea fi un instrument valoros în lupta împotriva teoriilor conspirației. Ei au dezvoltat un chatbot care poate respinge informații false și încurajează oamenii să-și pună la îndoială modul de gândire.

Într-un studiu publicat pe 12 septembrie înŞtiinţăa fost publicat 1, participanții au petrecut câteva minute cu chatbot-ul oferind răspunsuri și argumente detaliate, ceea ce a dus la o schimbare în gândire care a durat câteva luni. Acest rezultat sugerează că faptele și dovezile pot într-adevăr să schimbe mințile oamenilor.

„Această lucrare a provocat o mare parte din literatura existentă care presupune că trăim într-o societate post-adevăr”, spune Katherine FitzGerald, care cercetează teoriile conspirației și dezinformarea la Universitatea de Tehnologie Queensland din Brisbane, Australia.

Analizele anterioare au sugerat că oamenii sunt atrași de teoriile conspirației pentru că caută securitate și certitudine într-o lume agitată. Dar „ceea ce am descoperit în această lucrare contrazice această explicație tradițională”, spune coautorul Thomas Costello, cercetător în psihologie la Universitatea Americană din Washington DC. „Una dintre aplicațiile potențial interesante ale acestei cercetări este că AI ar putea fi folosită pentru a dezminți teoriile conspirației în viața reală.”

Idei nocive

Deși multe teorii ale conspirației au un impact social redus, cele care câștigă popularitate pot „provoca un rău real”, spune FitzGerald. Ea arată ca exemple atacul asupra Capitoliului SUA din 6 ianuarie 2021, care a fost alimentat parțial de afirmațiile privind alegerile prezidențiale frauduloase din 2020, precum și retorica anti-vaccin care a afectat acceptarea vaccinării împotriva COVID-19.

Este posibil să convingi oamenii să se răzgândească, dar a face acest lucru poate fi consumator de timp și stresant - iar numărul mare și varietatea teoriilor conspirației fac dificilă abordarea problemei la scară mai largă. Dar Costello și colegii săi au vrut să exploreze potențialul modelelor de limbaj mari (LLM) – care pot procesa rapid cantități mari de informații și pot genera răspunsuri asemănătoare oamenilor – pentru a combate teoriile conspirației. „Au fost instruiți pe internet și cunosc toate teoriile conspirației și contraargumentele lor, așa că mi s-a părut o potrivire foarte naturală”, spune Costello.

Crezi sau nu

Cercetătorii au dezvoltat un chatbot personalizat folosind GPT-4 Turbo — cel mai recent LLM de la OpenAI, creator de ChatGPT din San Francisco, California — care a fost antrenat să argumenteze convingător împotriva conspirațiilor. Apoi au recrutat peste 1.000 de participanți ale căror date demografice se potriveau cu recensământul din SUA în ceea ce privește caracteristici precum genul și etnia. Costello spune că prin recrutarea „oameni cu experiențe de viață diferite și cu propriile lor perspective”, echipa a reușit să evalueze capacitatea chatbot-ului de a dezminți o varietate de conspirații.

Fiecare participant a fost rugat să descrie o teorie a conspirației, să explice de ce au crezut că aceasta este adevărată și să exprime puterea credinței lor ca procent. Aceste detalii au fost împărtășite cu chatbot-ul, care s-a angajat apoi într-o conversație cu participantul, citând informații și dovezi care au subminat sau infirmat conspirația și a răspuns la întrebările participantului. Răspunsurile chatbot-ului au fost amănunțite și detaliate, ajungând adesea la sute de cuvinte. În medie, fiecare conversație a durat aproximativ 8 minute.

Abordarea sa dovedit eficientă: încrederea participanților în teoria conspirației aleasă a scăzut în medie cu 21% după interacțiunea cu chatbot-ul. Și 25% dintre participanți au trecut de la încrederea ridicată (peste 50%) la incertitudine. Cu toate acestea, schimbarea a fost cu greu observabilă pentru grupurile de control care au vorbit cu același chatbot pe un subiect similar. Un studiu de urmărire două luni mai târziu a arătat că schimbarea de perspectivă a continuat pentru mulți participanți.

Deși rezultatele studiului sunt promițătoare, cercetătorii observă că participanții au fost plătiți la sondaj și ar putea să nu fie reprezentativi pentru oameni profund cufundați în teoriile conspirației.

Intervenție eficientă

FitzGerald este încântat de potențialul AI de a combate conspirațiile. „Dacă putem găsi o modalitate de a preveni violența offline, acesta este întotdeauna un lucru bun”, spune ea. Ea sugerează că cercetările ulterioare ar putea examina diferite valori pentru a evalua eficiența chatbot-ului sau studiul ar putea fi repetat folosind LLM-uri cu măsuri de securitate mai puțin avansate pentru a se asigura că nu întăresc gândirea conspirativă.

Studiile anterioare au ridicat îngrijorări cu privire la tendința chatbot-urilor AI de a „halucina” informații false. Totuși, studiul a avut grijă să evite această posibilitate – echipa lui Costello a cerut unui verificator profesionist de fapte să evalueze acuratețea informațiilor furnizate de chatbot, care a confirmat că niciuna dintre declarații nu era falsă sau părtinitoare din punct de vedere politic.

Costello spune că echipa plănuiește experimente suplimentare pentru a testa diferite strategii ale chatbot-ului, cum ar fi studierea a ceea ce se întâmplă atunci când răspunsurile chatbot-ului sunt nepoliticoase. Prin identificarea „experimentelor în care credința nu mai funcționează”, ei speră să afle mai multe despre ce a făcut acest studiu atât de reușit.