Os pesquisadores mostraram que a inteligência artificial (IA) pode ser uma ferramenta valiosa na luta contra as teorias da conspiração. Eles desenvolveram um chatbot que pode refutar informações falsas e encorajar as pessoas a questionarem sua forma de pensar.

Em um estudo publicado em 12 de setembro emCiênciafoi publicado 1, os participantes passaram alguns minutos com o chatbot fornecendo respostas e argumentos detalhados, resultando numa mudança de pensamento que durou vários meses. Este resultado sugere que os factos e as evidências podem, de facto, mudar a opinião das pessoas.

“Este trabalho desafiou grande parte da literatura existente que pressupõe que vivemos numa sociedade pós-verdade”, diz Katherine FitzGerald, que investiga teorias da conspiração e desinformação na Universidade de Tecnologia de Queensland, em Brisbane, Austrália.

Análises anteriores sugeriram que as pessoas são atraídas pelas teorias da conspiração porque procuram segurança e certeza num mundo turbulento. Mas “o que descobrimos neste trabalho contradiz esta explicação tradicional”, diz o coautor Thomas Costello, pesquisador de psicologia da Universidade Americana em Washington DC. “Uma das aplicações potencialmente interessantes desta pesquisa é que a IA poderia ser usada para desmascarar teorias da conspiração na vida real.”

Ideias prejudiciais

Embora muitas teorias da conspiração tenham pouco impacto social, aquelas que ganham popularidade podem “causar danos reais”, diz FitzGerald. Ela aponta o ataque ao Capitólio dos EUA em 6 de janeiro de 2021, que foi alimentado em parte por alegações de uma eleição presidencial fraudulenta em 2020, bem como pela retórica antivacina que prejudicou a aceitação da vacinação contra a COVID-19, como exemplos.

É possível persuadir as pessoas a mudarem de ideias, mas fazê-lo pode ser demorado e stressante – e o grande número e variedade de teorias da conspiração tornam difícil abordar o problema numa escala maior. Mas Costello e os seus colegas queriam explorar o potencial dos grandes modelos de linguagem (LLMs) – que podem processar rapidamente grandes quantidades de informação e gerar respostas semelhantes às humanas – para combater as teorias da conspiração. “Eles foram treinados na internet e conhecem todas as teorias da conspiração e seus contra-argumentos, então pareceu uma escolha muito natural”, diz Costello.

Acredite ou não

Os pesquisadores desenvolveram um chatbot personalizado usando GPT-4 Turbo – o mais recente LLM do OpenAI, criador do ChatGPT com sede em São Francisco, Califórnia – que foi treinado para argumentar de forma convincente contra conspirações. Eles então recrutaram mais de 1.000 participantes cujos dados demográficos correspondiam ao Censo dos EUA em características como gênero e etnia. Costello diz que ao recrutar “pessoas com diferentes experiências de vida e perspectivas próprias”, a equipe conseguiu avaliar a capacidade do chatbot de desmascarar uma variedade de conspirações.

Cada participante foi solicitado a descrever uma teoria da conspiração, explicar por que acreditavam que ela era verdadeira e expressar a força de sua crença em porcentagem. Esses detalhes foram compartilhados com o chatbot, que então conversou com o participante, citando informações e evidências que minaram ou refutaram a conspiração, e respondeu às perguntas do participante. As respostas do chatbot foram completas e detalhadas, chegando muitas vezes a centenas de palavras. Em média, cada conversa durou cerca de 8 minutos.

A abordagem revelou-se eficaz: a confiança dos participantes na teoria da conspiração escolhida caiu, em média, 21% após interagirem com o chatbot. E 25% dos participantes passaram de uma confiança elevada (mais de 50%) para uma incerteza. No entanto, a mudança foi quase imperceptível para os grupos de controle que falaram com o mesmo chatbot sobre um tema semelhante. Um estudo de acompanhamento dois meses depois mostrou que a mudança de perspectiva continuou para muitos participantes.

Embora os resultados do estudo sejam promissores, os investigadores observam que os participantes eram respondedores pagos e podem não ser representativos de pessoas profundamente imersas em teorias da conspiração.

Intervenção eficaz

FitzGerald está entusiasmado com o potencial da IA ​​para combater conspirações. “Se conseguirmos encontrar uma forma de prevenir a violência offline, isso é sempre bom”, diz ela. Ela sugere que a investigação de acompanhamento poderia examinar diferentes métricas para avaliar a eficácia do chatbot, ou o estudo poderia ser repetido utilizando LLMs com medidas de segurança menos avançadas para garantir que não reforçam o pensamento conspiratório.

Estudos anteriores levantaram preocupações sobre a tendência dos chatbots de IA de “alucinar” informações falsas. No entanto, o estudo teve o cuidado de evitar esta possibilidade – a equipa de Costello pediu a um verificador de factos profissional para avaliar a veracidade das informações fornecidas pelo chatbot, que confirmou que nenhuma das declarações era falsa ou politicamente tendenciosa.

Costello diz que a equipe planeja novos experimentos para testar diferentes estratégias do chatbot, como estudar o que acontece quando as respostas do chatbot são rudes. Ao identificar “as experiências em que a crença já não funciona”, esperam aprender mais sobre o que tornou este estudo específico tão bem-sucedido.