Naukowcy wykazali, że sztuczna inteligencja (AI) może być cennym narzędziem w walce z teoriami spiskowymi. Opracowali chatbota, który może obalać fałszywe informacje i zachęcać ludzi do kwestionowania ich sposobu myślenia.

W badaniu opublikowanym 12 września brNaukazostał opublikowany 1uczestnicy spędzili kilka minut z chatbotem, udzielając szczegółowych odpowiedzi i argumentów, co zaowocowało zmianą w sposobie myślenia, która trwała kilka miesięcy. Wynik ten sugeruje, że fakty i dowody rzeczywiście mogą zmienić zdanie ludzi.

„Ta praca podważyła wiele z istniejącej literatury, która zakłada, że ​​żyjemy w społeczeństwie postprawdy” – mówi Katherine FitzGerald, która bada teorie spiskowe i dezinformację na Uniwersytecie Technologicznym Queensland w Brisbane w Australii.

Poprzednia analiza sugerowała, że ​​ludzie lgną do teorii spiskowych, ponieważ szukają bezpieczeństwa i pewności w niespokojnym świecie. Jednak „to, co odkryliśmy w tej pracy, zaprzecza temu tradycyjnemu wyjaśnieniu” – mówi współautor Thomas Costello, badacz psychologii na Uniwersytecie Amerykańskim w Waszyngtonie. „Jednym z potencjalnie ekscytujących zastosowań tych badań jest to, że sztuczną inteligencję można wykorzystać do obalania teorii spiskowych w prawdziwym życiu”.

Szkodliwe pomysły

Chociaż wiele teorii spiskowych ma niewielki wpływ społeczny, te, które zyskują popularność, mogą „wyrządzić realną krzywdę” – twierdzi FitzGerald. Jako przykłady podaje atak na Kapitol Stanów Zjednoczonych 6 stycznia 2021 r., podsycany częściowo twierdzeniami o sfałszowaniu wyborów prezydenckich w 2020 r., a także retoryką antyszczepionkową, która zaszkodziła akceptacji szczepień przeciwko Covid-19.

Można przekonać ludzi do zmiany zdania, ale może to być czasochłonne i stresujące, a sama liczba i różnorodność teorii spiskowych utrudnia zajęcie się problemem na większą skalę. Jednak Costello i jego współpracownicy chcieli zbadać potencjał dużych modeli językowych (LLM), które mogą szybko przetwarzać duże ilości informacji i generować reakcje podobne do ludzkich, w zwalczaniu teorii spiskowych. „Zostali przeszkoleni przez Internet i znają wszystkie teorie spiskowe i ich kontrargumenty, więc wydawało się to bardzo naturalnym dopasowaniem” – mówi Costello.

Wierz lub nie

Badacze opracowali niestandardowego chatbota, korzystając z GPT-4 Turbo – najnowszego LLM twórcy ChatGPT OpenAI z siedzibą w San Francisco w Kalifornii – który został przeszkolony, aby przekonująco argumentować przeciwko spiskom. Następnie zrekrutowali ponad 1000 uczestników, których dane demograficzne odpowiadały amerykańskiemu spisowi ludności pod względem takich cech, jak płeć i pochodzenie etniczne. Costello twierdzi, że rekrutując „ludzi z różnymi doświadczeniami życiowymi i własnymi perspektywami”, zespół był w stanie ocenić zdolność chatbota do obalania różnych spisków.

Każdy uczestnik został poproszony o opisanie teorii spiskowej, wyjaśnienie, dlaczego uważa ją za prawdziwą, i wyrażenie siły swojego przekonania w procentach. Szczegóły te zostały udostępnione chatbotowi, który następnie nawiązał rozmowę z uczestnikiem, powołując się na informacje i dowody podważające lub obalające spisek, a także odpowiadał na pytania uczestnika. Odpowiedzi chatbota były dokładne i szczegółowe, często sięgające setek słów. Każda rozmowa trwała średnio około 8 minut.

Podejście okazało się skuteczne: po interakcji z chatbotem zaufanie uczestników do wybranej przez nich teorii spiskowej spadło średnio o 21%. A 25% uczestników przeszło od wysokiego poziomu pewności (ponad 50%) do niepewności. Jednak zmiana była ledwie zauważalna dla grup kontrolnych, które rozmawiały z tym samym chatbotem na podobny temat. Badanie kontrolne przeprowadzone dwa miesiące później wykazało, że w przypadku wielu uczestników zmiana perspektywy nadal się utrzymywała.

Chociaż wyniki badania są obiecujące, badacze zauważają, że uczestnicy byli płatnymi ankieterami i mogą nie być reprezentatywni dla osób głęboko zanurzonych w teoriach spiskowych.

Skuteczna interwencja

FitzGerald jest podekscytowany potencjałem sztucznej inteligencji w zwalczaniu spisków. „Jeśli uda nam się znaleźć sposób na zapobieganie przemocy w trybie offline, to zawsze dobrze” – mówi. Sugeruje, że w dalszych badaniach można sprawdzić różne wskaźniki w celu oceny skuteczności chatbota lub można je powtórzyć, stosując narzędzia LLM z mniej zaawansowanymi środkami bezpieczeństwa, aby upewnić się, że nie wzmacniają one myślenia konspiracyjnego.

Poprzednie badania wzbudziły obawy dotyczące tendencji chatbotów AI do „halucynacji” fałszywych informacji. W badaniu starano się jednak uniknąć takiej możliwości – zespół Costello poprosił profesjonalnego weryfikatora faktów o ocenę prawdziwości informacji dostarczonych przez chatbota, który potwierdził, że żadne ze stwierdzeń nie było fałszywe ani stronnicze politycznie.

Costello twierdzi, że zespół planuje dalsze eksperymenty, aby przetestować różne strategie chatbota, takie jak badanie, co się dzieje, gdy odpowiedzi chatbota są niegrzeczne. Identyfikując „eksperymenty, w których wiara już nie działa”, mają nadzieję dowiedzieć się więcej o tym, co sprawiło, że to konkretne badanie odniosło taki sukces.