AI rīks veicina dialogu starp cilvēkiem ar pretējiem viedokļiem
Ar AI atbalstīts rīks palīdz cilvēkiem ar dažādiem viedokļiem atrast kopīgus viedokļus un tādējādi veicina dialogu.

AI rīks veicina dialogu starp cilvēkiem ar pretējiem viedokļiem
Tērzēšanas robotam līdzīgs rīks, ko darbina mākslīgais intelekts (AI), var palīdzēt cilvēkiem ar dažādiem uzskatiem atrast vienošanās jomas. Par to liecina eksperiments ar tiešsaistes diskusiju grupām.
Modelis, ko izstrādāja Google DeepMind Londonā, spēja sintezēt atšķirīgus viedokļus un sagatavot kopsavilkumus par katras grupas nostāju, kurā tika ņemtas vērā dažādas perspektīvas. Dalībnieki deva priekšroku AI ģenerētajiem kopsavilkumiem, nevis tiem, ko rakstījuši cilvēku starpnieki. Tas liecina, ka šādus rīkus varētu izmantot, lai atbalstītu sarežģītas konsultācijas. Pētījums tika publicēts 17. oktobrī žurnālā Science 1.
"Jūs varat uzskatīt to par koncepcijas pierādījumu, ka varat izmantot AI, jo īpaši lielus valodu modeļus, lai veiktu dažas funkcijas, kuras pašlaik veic pilsoņu sapulces un apspriežu aptaujas," saka Kristofers Samerfīlds, Apvienotās Karalistes AI drošības institūta pētījuma un pētniecības direktors līdzautors. "Cilvēkiem ir jāatrod kopīgs pamats, jo kolektīvai rīcībai ir nepieciešama piekrišana."
Kompromisa mašīna
Demokrātiskas iniciatīvas, piemēram, rātsnama sanāksmes, kurās cilvēku grupām tiek lūgts dalīties savos viedokļos par politiskiem jautājumiem, nodrošina, ka politiķi sadzird dažādus viedokļus. Tomēr šo iniciatīvu paplašināšana var būt sarežģīta, jo šīs diskusijas bieži notiek tikai nelielās grupās, lai nodrošinātu, ka tiek sadzirdētas visas balsis.
Vēloties izpētīt lielo valodu modeļu (LLM) iespējas, Samerfīlds un viņa kolēģi izstrādāja pētījumu, lai novērtētu, kā mākslīgais intelekts varētu palīdzēt cilvēkiem ar pretējiem viedokļiem panākt kompromisu.
Viņi izvietoja iepriekš apmācītās DeepMind LLM Chinchilla pilnveidotu versiju, ko viņi sauca par “Habermas mašīnu”, kas nosaukta filozofa Jirgena Hābermasa vārdā, kurš izstrādāja teoriju par to, kā racionālas diskusijas var palīdzēt atrisināt konfliktus.
Lai pārbaudītu savu modeli, pētnieki pieņēma darbā 439 Lielbritānijas iedzīvotājus, kuri tika sadalīti mazākās grupās. Katra grupa apsprieda trīs jautājumus par Lielbritānijas politiskajām problēmām un dalījās ar saviem personīgajiem viedokļiem par tiem. Pēc tam šie viedokļi tika ievadīti AI dzinējā, kas radīja visaptverošus paziņojumus, kas apvienoja visu dalībnieku perspektīvas. Dalībnieki varēja novērtēt un kritizēt katru paziņojumu, ko AI pēc tam iekļāva grupas kolektīvā viedokļa galīgajā kopsavilkumā.
"Modelis ir apmācīts, lai sagatavotu paziņojumu, kam ir maksimāls atbalsts no cilvēku grupas, kas brīvprātīgi pauduši savu viedokli," saka Samerfīlds. "Kad modelis uzzina, kādas ir jūsu izvēles attiecībā uz šiem apgalvojumiem, tas var radīt paziņojumu, kas, visticamāk, apmierinās visus."
Papildus AI kā starpnieks tika izvēlēts dalībnieks. Viņam arī tika lūgts izveidot kopsavilkumu, kurā vislabāk būtu iekļauti visu dalībnieku viedokļi. Dalībniekiem tika parādīti gan AI, gan starpnieka kopsavilkumi, un viņiem tika lūgts tos novērtēt.
Lielākā daļa dalībnieku AI rakstītos kopsavilkumus novērtēja kā labākus nekā starpnieka rakstītos. 56% dalībnieku deva priekšroku AI veiktspējai, salīdzinot ar 44%, kas deva priekšroku cilvēku apkopojumam. Ārējiem recenzentiem arī tika lūgts novērtēt kopsavilkumus un piešķīra AI kopsavilkumiem augstākus vērtējumus par godīgumu, kvalitāti un skaidrību.
Pēc tam pētnieku grupa pieņēma darbā dalībnieku grupu, kas demogrāfiski pārstāv Apvienotās Karalistes iedzīvotājus virtuālai rātsnama sanāksmei. Šajā scenārijā grupas vienošanās par strīdīgiem jautājumiem palielinājās pēc mijiedarbības ar AI. Šis atklājums liecina, ka mākslīgā intelekta rīki, ja tie ir integrēti reālā pilsoņu asamblejā, varētu atvieglot vadītājiem tādu politikas priekšlikumu izstrādi, kuros ņemtas vērā dažādas perspektīvas.
"LLM varētu izmantot daudzos veidos, lai atbalstītu apspriedes un uzņemtos lomas, kas iepriekš bija rezervētas cilvēku koordinatoriem," saka Ītans Busbijs, kurš pēta, kā AI rīki varētu uzlabot demokrātiskas sabiedrības Brigama Janga universitātē Provo, Jūtā. "Es to redzu kā darba virsotni šajā jomā, kurai ir liels potenciāls risināt aktuālas sociālās un politiskās problēmas." Summerfield piebilst, ka AI varētu pat palīdzēt padarīt konfliktu risināšanas procesus ātrākus un efektīvākus.
Zaudēti savienojumi
"Faktiski šo tehnoloģiju pielietošana apspriežamiem eksperimentiem un procesiem ir patiesi iepriecinoši," saka Samijs Makkinijs, kurš Kembridžas Universitātē, Apvienotajā Karalistē, pēta deliberatīvo demokrātiju un tās saskarnes ar mākslīgo intelektu. Taču viņš piebilst, ka pētniekiem rūpīgi jāapsver AI iespējamā ietekme uz pārdomu cilvēka aspektu. "Galvenais iemesls, lai atbalstītu pilsoņu apspriedes, ir tas, ka tie rada īpašas telpas, kurās cilvēki var sazināties viens ar otru," viņš saka. "Ko mēs zaudējam, arvien vairāk pārtraucot cilvēku kontaktus un cilvēku atvieglojumus?"
Summerfield atzīst ierobežojumus, kas saistīti ar AI tehnoloģijām, piemēram, šīm. "Mēs nemācījām modeli iejaukties apspriedē," viņš saka, kas nozīmē, ka modeļa paziņojumā var būt arī ekstrēmistiski vai citi problemātiski uzskati. Viņš piebilst, ka stingra AI ietekmes uz sabiedrību izpēte ir ļoti svarīga, lai izprastu tā vērtību.
"Man šķiet svarīgi rīkoties piesardzīgi," saka Makkinijs, "un pēc tam veikt pasākumus, lai pēc iespējas mazinātu šīs bažas."
-
Teslers, M.H. et al., Science 386, eadq2852 (2024).