AI инструментът насърчава диалога между хора с противоположни мнения
Поддържан от AI инструмент помага на хората с различни мнения да намерят общи гледни точки и по този начин насърчава диалога.

AI инструментът насърчава диалога между хора с противоположни мнения
Инструмент, подобен на чатбот, захранван от изкуствен интелект (AI), може да помогне на хората с различни възгледи да намерят области на съгласие. Това показва експеримент с онлайн дискусионни групи.
Моделът, разработен от Google DeepMind в Лондон, успя да синтезира различни мнения и да създаде обобщения на позициите на всяка група, които взеха предвид различни гледни точки. Участниците предпочетоха обобщенията, генерирани от AI, пред тези, написани от човешки медиатори. Това предполага, че подобни инструменти могат да се използват за подпомагане на сложни консултации. Проучването е публикувано на 17 октомври в списание Science 1.
„Можете да го видите като доказателство за концепцията, че можете да използвате AI, особено големи езикови модели, за изпълнение на някои от функциите, изпълнявани в момента от граждански събрания и съвещателни анкети“, казва Кристофър Съмърфийлд, съавтор на изследването и директор на изследванията в Института за безопасност на AI на Обединеното кралство. „Хората трябва да намерят общ език, защото колективните действия изискват съгласие.“
Машина за компромиси
Демократични инициативи, като срещи на кметството, където групи хора са помолени да споделят мненията си по политически въпроси, гарантират, че политиците чуват различни гледни точки. Въпреки това, разширяването на тези инициативи може да бъде трудно, тъй като тези дискусии често са ограничени до малки групи, за да се гарантира, че всички гласове се чуват.
Любопитни относно изследването на възможностите на големите езикови модели (LLM), Summerfield и неговите колеги разработиха проучване, за да оценят как AI може да помогне на хора с противоположни мнения да постигнат компромис.
Те внедриха фино настроена версия на предварително обучената DeepMind LLM Chinchilla, която нарекоха „машината на Хабермас“, кръстена на философа Юрген Хабермас, който разработи теория за това как рационалните дискусии могат да помогнат за разрешаването на конфликти.
За да тестват своя модел, изследователите набират 439 британски жители, които са разделени на по-малки групи. Всяка група обсъди три въпроса относно британски политически проблеми и сподели личното си мнение по тях. След това тези мнения бяха въведени в AI машината, която генерира всеобхватни изявления, които комбинираха гледните точки на всички участници. Участниците успяха да оценят и критикуват всяко твърдение, което AI след това включи в окончателно резюме на колективния възглед на групата.
„Моделът е обучен да произвежда изявление, което има максимална подкрепа от група хора, които доброволно са изразили мнението си“, казва Съмърфийлд. „Докато моделът научи какви са вашите предпочитания относно тези изявления, той може да създаде изявление, което най-вероятно ще задоволи всички.“
Освен ИИ, беше избран и участник за медиатор. Той също така беше помолен да създаде резюме, което най-добре включва възгледите на всички участници. На участниците бяха показани както ИИ, така и резюметата на медиатора и бяха помолени да ги оценят.
Повечето участници оцениха резюметата, написани от AI, като по-добри от тези, написани от медиатора. 56% от участниците са предпочели изпълнението на AI, в сравнение с 44%, които са предпочели обобщаването от човека. Външни рецензенти също бяха помолени да оценят резюметата и дадоха на резюметата на AI по-високи оценки за справедливост, качество и яснота.
След това изследователският екип набра група участници, демографски представителни за населението на Обединеното кралство, за виртуална среща в кметството. При този сценарий груповото съгласие по спорните въпроси се увеличи след взаимодействието им с ИИ. Тази констатация предполага, че когато са интегрирани в истинско гражданско събрание, инструментите за изкуствен интелект могат да улеснят лидерите при разработването на политически предложения, които вземат предвид различни гледни точки.
„LLM може да се използва по много начини за подпомагане на обсъжданията и за поемане на роли, които преди са били запазени за човешки фасилитатори“, казва Итън Бъзби, който проучва как инструментите на ИИ могат да подобрят демократичните общества в университета Бригъм Йънг в Прово, Юта. „Виждам това като върха на работата в тази област, която има голям потенциал за справяне с належащи социални и политически проблеми.“ Съмърфийлд добавя, че изкуственият интелект може дори да помогне процесите за разрешаване на конфликти да станат по-бързи и по-ефективни.
Загубени връзки
„Всъщност прилагането на тези технологии към съвещателни експерименти и процеси е наистина удовлетворяващо“, казва Сами Маккини, който изучава съвещателната демокрация и нейните интерфейси с изкуствения интелект в университета в Кеймбридж, Обединеното кралство. Но той добавя, че изследователите трябва внимателно да обмислят потенциалното въздействие на ИИ върху човешкия аспект на обсъждането. „Основна причина да подкрепяме гражданските обсъждания е, че те създават специфични пространства, в които хората могат да се свържат един с друг“, казва той. „Какво губим, като все повече премахваме човешкия контакт и човешката помощ?“
Summerfield признава ограниченията, свързани с AI технологии като тези. „Не обучихме модела да се намесва в обсъждането“, казва той, което означава, че изявлението на модела може също да съдържа екстремистки или други проблематични вярвания. Той добавя, че стриктното изследване на въздействието на ИИ върху обществото е от решаващо значение за разбирането на неговата стойност.
„Струва ми се важно да продължа предпазливо“, казва Маккини, „и след това да предприема стъпки за смекчаване на тези опасения, където е възможно.“
-
Tessler, M.H. et al., Science 386, eadq2852 (2024).