Un outil d'IA favorise le dialogue entre des personnes ayant des opinions opposées

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Un outil basé sur l’IA aide les personnes ayant des opinions différentes à trouver des points de vue communs et favorise ainsi le dialogue.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Un outil basé sur l’IA aide les personnes ayant des opinions différentes à trouver des points de vue communs et favorise ainsi le dialogue.

Un outil d'IA favorise le dialogue entre des personnes ayant des opinions opposées

Un outil de type chatbot alimenté par l’intelligence artificielle (IA) peut aider les personnes ayant des points de vue différents à trouver des points d’accord. Ceci est démontré par une expérience avec des groupes de discussion en ligne.

Le modèle, développé par Google DeepMind à Londres, a pu synthétiser des opinions divergentes et produire des résumés de la position de chaque groupe prenant en compte différentes perspectives. Les participants ont préféré les résumés générés par l’IA à ceux rédigés par des médiateurs humains. Cela suggère que de tels outils pourraient être utilisés pour soutenir des consultations complexes. L'étude a été publiée le 17 octobre dans la revue Science 1.

"Vous pouvez y voir une preuve de concept selon laquelle vous pouvez utiliser l'IA, en particulier les grands modèles de langage, pour remplir certaines des fonctions actuellement remplies par les assemblées citoyennes et les sondages délibératifs", déclare Christopher Summerfield, co-auteur de l'étude et directeur de recherche à l'AI Safety Institute du Royaume-Uni. « Les gens doivent trouver un terrain d’entente car l’action collective nécessite le consentement. »

Machine à compromis

Les initiatives démocratiques telles que les assemblées publiques, où des groupes de personnes sont invitées à partager leurs opinions sur des questions politiques, garantissent que les politiciens entendent une variété de points de vue. Cependant, l'intensification de ces initiatives peut s'avérer difficile car ces discussions se limitent souvent à de petits groupes pour garantir que toutes les voix soient entendues.

Curieux de connaître les possibilités des grands modèles de langage (LLM), Summerfield et ses collègues ont développé une étude pour évaluer comment l'IA pourrait aider les personnes ayant des opinions opposées à parvenir à un compromis.

Ils ont déployé une version affinée du DeepMind LLM Chinchilla pré-entraîné, qu'ils ont appelé la « Machine Habermas », du nom du philosophe Jürgen Habermas, qui a développé une théorie sur la façon dont les discussions rationnelles peuvent aider à résoudre les conflits.

Pour tester leur modèle, les chercheurs ont recruté 439 résidents britanniques répartis en petits groupes. Chaque groupe a discuté de trois questions sur les problèmes politiques britanniques et a partagé ses opinions personnelles à ce sujet. Ces opinions ont ensuite été introduites dans le moteur d’IA, qui a généré des déclarations globales combinant les points de vue de tous les participants. Les participants ont pu évaluer et critiquer chaque déclaration, que l'IA a ensuite intégrée dans un résumé final du point de vue collectif du groupe.

"Le modèle est formé pour produire une déclaration qui bénéficie du soutien maximum d'un groupe de personnes qui ont donné leur avis", explique Summerfield. "Au fur et à mesure que le modèle apprend quelles sont vos préférences concernant ces déclarations, il peut alors produire une déclaration qui est la plus susceptible de satisfaire tout le monde."

En plus de l'IA, un participant a été sélectionné comme médiateur. Il lui a également été demandé de créer un résumé intégrant au mieux les points de vue de tous les participants. Les participants ont vu à la fois les résumés de l'IA et du médiateur et ont été invités à les évaluer.

La plupart des participants ont jugé meilleurs les résumés rédigés par l’IA que ceux rédigés par le médiateur. 56 % des participants préféraient les performances de l’IA, contre 44 % qui préféraient la synthèse humaine. Des évaluateurs externes ont également été invités à évaluer les résumés et ont attribué aux résumés de l'IA des notes plus élevées en termes d'équité, de qualité et de clarté.

L’équipe de recherche a ensuite recruté un groupe de participants démographiquement représentatifs de la population britannique pour une réunion publique virtuelle. Dans ce scénario, l’accord du groupe sur les questions litigieuses s’est accru après leur interaction avec l’IA. Cette découverte suggère que les outils d'IA, lorsqu'ils sont intégrés dans une véritable assemblée de citoyens, pourraient permettre aux dirigeants d'élaborer plus facilement des propositions politiques prenant en compte diverses perspectives.

"Le LLM pourrait être utilisé de nombreuses manières pour soutenir les délibérations et assumer des rôles auparavant réservés aux facilitateurs humains", explique Ethan Busby, qui étudie comment les outils d'IA pourraient améliorer les sociétés démocratiques à l'Université Brigham Young de Provo, dans l'Utah. « Je considère qu’il s’agit là du summum du travail dans ce domaine, qui offre un grand potentiel pour répondre à des questions sociales et politiques urgentes. » Summerfield ajoute que l’IA pourrait même contribuer à rendre les processus de résolution des conflits plus rapides et plus efficaces.

Connexions perdues

« Appliquer ces technologies à des expériences et à des processus délibératifs est vraiment gratifiant », déclare Sammy McKinney, qui étudie la démocratie délibérative et ses interfaces avec l'intelligence artificielle à l'Université de Cambridge, au Royaume-Uni. Mais il ajoute que les chercheurs devraient examiner attentivement l’impact potentiel de l’IA sur l’aspect humain de la délibération. « L’une des principales raisons de soutenir les délibérations citoyennes est qu’elles créent des espaces spécifiques dans lesquels les gens peuvent communiquer les uns avec les autres », dit-il. « Que perdons-nous en supprimant de plus en plus les contacts humains et la facilitation humaine ?

Summerfield reconnaît les limites associées à de telles technologies d’IA. « Nous n’avons pas entraîné le modèle à intervenir dans les délibérations », dit-il, ce qui signifie que la déclaration du modèle pourrait également contenir des croyances extrémistes ou problématiques. Il ajoute qu’une recherche rigoureuse sur l’impact de l’IA sur la société est essentielle pour comprendre sa valeur.

"Il me semble important de procéder avec prudence", déclare McKinney, "et ensuite de prendre des mesures pour atténuer ces inquiétudes lorsque cela est possible."

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Scholar

Télécharger la bibliographie