Ferramenta de IA promove diálogo entre pessoas com opiniões opostas

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Uma ferramenta apoiada por IA ajuda pessoas com opiniões diferentes a encontrar pontos de vista comuns e, assim, promove o diálogo.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Uma ferramenta apoiada por IA ajuda pessoas com opiniões diferentes a encontrar pontos de vista comuns e, assim, promove o diálogo.

Ferramenta de IA promove diálogo entre pessoas com opiniões opostas

Uma ferramenta semelhante a um chatbot alimentada por inteligência artificial (IA) pode ajudar pessoas com pontos de vista diferentes a encontrar áreas de acordo. Isto é demonstrado por uma experiência com grupos de discussão online.

O modelo, desenvolvido pelo Google DeepMind em Londres, foi capaz de sintetizar opiniões divergentes e produzir resumos da posição de cada grupo que levaram em conta diferentes perspectivas. Os participantes preferiram os resumos gerados por IA aos escritos por mediadores humanos. Isto sugere que tais ferramentas poderiam ser utilizadas para apoiar consultas complexas. O estudo foi publicado em 17 de outubro na revista Science 1.

“Você pode ver isso como uma prova de conceito de que é possível usar IA, especialmente modelos de linguagem de grande porte, para desempenhar algumas das funções atualmente desempenhadas por assembleias de cidadãos e pesquisas deliberativas”, diz Christopher Summerfield, coautor do estudo e diretor de pesquisa do UK AI Safety Institute. “As pessoas precisam de encontrar um terreno comum porque a acção colectiva requer consentimento.”

Máquina de compromisso

Iniciativas democráticas, como reuniões municipais, onde grupos de pessoas são convidados a partilhar as suas opiniões sobre questões políticas, asseguram que os políticos ouvem uma variedade de perspectivas. No entanto, ampliar estas iniciativas pode ser difícil porque estas discussões são muitas vezes limitadas a pequenos grupos para garantir que todas as vozes sejam ouvidas.

Curiosos sobre a pesquisa sobre as possibilidades de grandes modelos de linguagem (LLMs), Summerfield e seus colegas desenvolveram um estudo para avaliar como a IA poderia ajudar pessoas com opiniões opostas a chegar a um acordo.

Eles implantaram uma versão aprimorada do DeepMind LLM Chinchilla pré-treinado, que chamaram de “Máquina Habermas”, em homenagem ao filósofo Jürgen Habermas, que desenvolveu uma teoria de como discussões racionais podem ajudar a resolver conflitos.

Para testar o seu modelo, os investigadores recrutaram 439 residentes britânicos, que foram divididos em grupos mais pequenos. Cada grupo discutiu três questões sobre questões políticas britânicas e partilhou as suas opiniões pessoais sobre elas. Essas opiniões foram então inseridas no mecanismo de IA, que gerou declarações abrangentes que combinaram as perspectivas de todos os participantes. Os participantes puderam avaliar e criticar cada afirmação, que a IA então incorporou em um resumo final da visão coletiva do grupo.

“O modelo é treinado para produzir uma declaração que tenha o máximo apoio de um grupo de pessoas que deram suas opiniões voluntariamente”, diz Summerfield. “À medida que o modelo aprende quais são suas preferências em relação a essas declarações, ele pode então produzir uma declaração que provavelmente satisfará a todos.”

Além da IA, foi selecionado um participante como mediador. Ele também foi solicitado a criar um resumo que melhor incorporasse as opiniões de todos os participantes. Os participantes viram os resumos da IA ​​e do mediador e foram solicitados a avaliá-los.

A maioria dos participantes classificou os resumos escritos pela IA como melhores do que aqueles escritos pelo mediador. 56% dos participantes preferiram o desempenho da IA, em comparação com 44% que preferiram o resumo humano. Revisores externos também foram solicitados a avaliar os resumos e deram aos resumos de IA classificações mais altas em termos de justiça, qualidade e clareza.

A equipe de pesquisa recrutou então um grupo de participantes demograficamente representativos da população do Reino Unido para uma reunião virtual na prefeitura. Neste cenário, o acordo do grupo sobre questões controversas aumentou depois de interagirem com a IA. Esta conclusão sugere que as ferramentas de IA, quando integradas numa verdadeira assembleia de cidadãos, poderiam facilitar aos líderes o desenvolvimento de propostas políticas que tenham em conta diversas perspetivas.

“O LLM poderia ser usado de várias maneiras para apoiar deliberações e assumir funções anteriormente reservadas a facilitadores humanos”, diz Ethan Busby, que estuda como as ferramentas de IA poderiam melhorar as sociedades democráticas na Universidade Brigham Young em Provo, Utah. “Vejo isto como o auge do trabalho nesta área, que tem um grande potencial para abordar questões sociais e políticas urgentes.” Summerfield acrescenta que a IA pode até ajudar a tornar os processos de resolução de conflitos mais rápidos e eficientes.

Conexões perdidas

“Na verdade, aplicar estas tecnologias a experiências e processos deliberativos é realmente gratificante”, diz Sammy McKinney, que estuda a democracia deliberativa e as suas interfaces com a inteligência artificial na Universidade de Cambridge, no Reino Unido. Mas acrescenta que os investigadores devem considerar cuidadosamente o impacto potencial da IA ​​no aspecto humano da deliberação. “Uma das principais razões para apoiar as deliberações dos cidadãos é que elas criam espaços específicos nos quais as pessoas podem relacionar-se umas com as outras”, diz ele. “O que perdemos ao remover cada vez mais o contato humano e a facilitação humana?”

Summerfield reconhece as limitações associadas a tecnologias de IA como estas. “Não treinamos o modelo para intervir na deliberação”, diz ele, o que significa que a declaração do modelo também pode conter crenças extremistas ou outras crenças problemáticas. Ele acrescenta que a investigação rigorosa sobre o impacto da IA ​​na sociedade é crucial para compreender o seu valor.

“Parece-me importante proceder com cautela”, diz McKinney, “e depois tomar medidas para mitigar essas preocupações sempre que possível”.

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Acadêmico

Baixar bibliografia