Το εργαλείο AI προωθεί τον διάλογο μεταξύ ανθρώπων με αντίθετες απόψεις

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Ένα εργαλείο που υποστηρίζεται από AI βοηθά τους ανθρώπους με διαφορετικές απόψεις να βρουν κοινές απόψεις και έτσι προωθεί τον διάλογο.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Ένα εργαλείο που υποστηρίζεται από AI βοηθά τους ανθρώπους με διαφορετικές απόψεις να βρουν κοινές απόψεις και έτσι προωθεί τον διάλογο.

Το εργαλείο AI προωθεί τον διάλογο μεταξύ ανθρώπων με αντίθετες απόψεις

Ένα εργαλείο που μοιάζει με chatbot που υποστηρίζεται από τεχνητή νοημοσύνη (AI) μπορεί να βοηθήσει άτομα με διαφορετικές απόψεις να βρουν σημεία συμφωνίας. Αυτό φαίνεται από ένα πείραμα με διαδικτυακές ομάδες συζήτησης.

Το μοντέλο, που αναπτύχθηκε από την Google DeepMind στο Λονδίνο, ήταν σε θέση να συνθέσει διαφορετικές απόψεις και να παράγει περιλήψεις της θέσης κάθε ομάδας που λάμβαναν υπόψη διαφορετικές οπτικές γωνίες. Οι συμμετέχοντες προτίμησαν τις περιλήψεις που δημιουργήθηκαν από την τεχνητή νοημοσύνη έναντι εκείνων που γράφτηκαν από ανθρώπους μεσολαβητές. Αυτό υποδηλώνει ότι τέτοια εργαλεία θα μπορούσαν να χρησιμοποιηθούν για την υποστήριξη πολύπλοκων διαβουλεύσεων. Η μελέτη δημοσιεύτηκε στις 17 Οκτωβρίου στο περιοδικό Science 1.

«Μπορείτε να το δείτε ως απόδειξη της ιδέας ότι μπορείτε να χρησιμοποιήσετε την τεχνητή νοημοσύνη, ιδιαίτερα μεγάλα γλωσσικά μοντέλα, για να εκτελέσετε ορισμένες από τις λειτουργίες που εκτελούνται επί του παρόντος από συνελεύσεις πολιτών και διαβουλευτικές δημοσκοπήσεις», λέει ο Christopher Summerfield, συν-συγγραφέας της μελέτης και διευθυντής έρευνας στο Ινστιτούτο Ασφάλειας AI του Ηνωμένου Βασιλείου. «Οι άνθρωποι πρέπει να βρουν κοινό έδαφος γιατί η συλλογική δράση απαιτεί συναίνεση».

Συμβιβαστική μηχανή

Δημοκρατικές πρωτοβουλίες όπως οι συνεδριάσεις του δημαρχείου, όπου ζητείται από ομάδες ανθρώπων να μοιραστούν τις απόψεις τους για πολιτικά ζητήματα, διασφαλίζουν ότι οι πολιτικοί ακούν μια ποικιλία απόψεων. Ωστόσο, η κλιμάκωση αυτών των πρωτοβουλιών μπορεί να είναι δύσκολη, επειδή αυτές οι συζητήσεις συχνά περιορίζονται σε μικρές ομάδες για να διασφαλιστεί ότι όλες οι φωνές ακούγονται.

Ο Summerfield και οι συνεργάτες του, με περιέργεια για την έρευνα σχετικά με τις δυνατότητες μεγάλων γλωσσικών μοντέλων (LLM), ανέπτυξαν μια μελέτη για να αξιολογήσουν πώς η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει άτομα με αντίθετες απόψεις να επιτύχουν συμβιβασμό.

Ανέπτυξαν μια τελειοποιημένη έκδοση του προεκπαιδευμένου τσιντσιλά DeepMind LLM, το οποίο ονόμασαν «Habermas Machine», που πήρε το όνομά του από τον φιλόσοφο Jürgen Habermas, ο οποίος ανέπτυξε μια θεωρία για το πώς οι ορθολογικές συζητήσεις μπορούν να βοηθήσουν στην επίλυση συγκρούσεων.

Για να δοκιμάσουν το μοντέλο τους, οι ερευνητές στρατολόγησαν 439 Βρετανούς κατοίκους που χωρίστηκαν σε μικρότερες ομάδες. Κάθε ομάδα συζήτησε τρεις ερωτήσεις σχετικά με τα βρετανικά πολιτικά ζητήματα και μοιράστηκε τις προσωπικές της απόψεις για αυτά. Αυτές οι απόψεις στη συνέχεια τροφοδοτήθηκαν στη μηχανή AI, η οποία δημιούργησε γενικές δηλώσεις που συνδύαζαν τις προοπτικές όλων των συμμετεχόντων. Οι συμμετέχοντες ήταν σε θέση να βαθμολογήσουν και να ασκήσουν κριτική σε κάθε δήλωση, την οποία η AI στη συνέχεια ενσωμάτωσε σε μια τελική περίληψη της συλλογικής άποψης της ομάδας.

«Το μοντέλο έχει εκπαιδευτεί να παράγει μια δήλωση που έχει τη μέγιστη υποστήριξη από μια ομάδα ανθρώπων που έχουν εκφράσει εθελοντικά τις απόψεις τους», λέει ο Summerfield. «Καθώς το μοντέλο μαθαίνει ποιες είναι οι προτιμήσεις σας για αυτές τις δηλώσεις, μπορεί στη συνέχεια να παράγει μια δήλωση που είναι πολύ πιθανό να ικανοποιήσει όλους».

Εκτός από το AI, ένας συμμετέχων επιλέχθηκε ως διαμεσολαβητής. Του ζητήθηκε επίσης να δημιουργήσει μια περίληψη που να ενσωματώνει καλύτερα τις απόψεις όλων των συμμετεχόντων. Στους συμμετέχοντες παρουσιάστηκαν τόσο η τεχνητή νοημοσύνη όσο και οι περιλήψεις του διαμεσολαβητή και κλήθηκαν να τους βαθμολογήσουν.

Οι περισσότεροι συμμετέχοντες αξιολόγησαν τις περιλήψεις που γράφτηκαν από το AI ως καλύτερες από αυτές που έγραψε ο διαμεσολαβητής. Το 56% των συμμετεχόντων προτίμησε την απόδοση της τεχνητής νοημοσύνης, σε σύγκριση με το 44% που προτιμούσε την ανθρώπινη περίληψη. Ζητήθηκε επίσης από εξωτερικούς αναθεωρητές να αξιολογήσουν τις περιλήψεις και έδωσαν στις περιλήψεις AI υψηλότερες βαθμολογίες για δικαιοσύνη, ποιότητα και σαφήνεια.

Στη συνέχεια, η ερευνητική ομάδα στρατολόγησε μια ομάδα συμμετεχόντων που αντιπροσωπεύουν δημογραφικά τον πληθυσμό του Ηνωμένου Βασιλείου για μια εικονική συνάντηση στο δημαρχείο. Σε αυτό το σενάριο, η ομαδική συμφωνία για επίμαχα ζητήματα αυξήθηκε μετά την αλληλεπίδραση με το AI. Αυτό το εύρημα υποδηλώνει ότι τα εργαλεία τεχνητής νοημοσύνης, όταν ενσωματωθούν σε μια πραγματική συνέλευση πολιτών, θα μπορούσαν να διευκολύνουν τους ηγέτες να αναπτύξουν προτάσεις πολιτικής που λαμβάνουν υπόψη διαφορετικές προοπτικές.

«Το LLM θα μπορούσε να χρησιμοποιηθεί με πολλούς τρόπους για να υποστηρίξει τις συζητήσεις και να αναλάβει ρόλους που προηγουμένως προέβλεπαν ανθρώπινους συντονιστές», λέει ο Ethan Busby, ο οποίος μελετά πώς τα εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να βελτιώσουν τις δημοκρατικές κοινωνίες στο Πανεπιστήμιο Brigham Young στο Provo της Γιούτα. «Το βλέπω αυτό ως την κορυφή της δουλειάς σε αυτόν τον τομέα, ο οποίος έχει μεγάλες δυνατότητες να αντιμετωπίσει πιεστικά κοινωνικά και πολιτικά ζητήματα». Ο Summerfield προσθέτει ότι η τεχνητή νοημοσύνη θα μπορούσε ακόμη και να βοηθήσει να γίνουν οι διαδικασίες επίλυσης συγκρούσεων ταχύτερες και πιο αποτελεσματικές.

Χαμένες συνδέσεις

«Στην πραγματικότητα, η εφαρμογή αυτών των τεχνολογιών σε διαβουλευτικά πειράματα και διαδικασίες είναι πραγματικά ευχάριστη», λέει ο Sammy McKinney, ο οποίος μελετά τη διαβουλευτική δημοκρατία και τις διασυνδέσεις της με την τεχνητή νοημοσύνη στο Πανεπιστήμιο του Cambridge, UK. Αλλά προσθέτει ότι οι ερευνητές θα πρέπει να εξετάσουν προσεκτικά τον πιθανό αντίκτυπο της τεχνητής νοημοσύνης στην ανθρώπινη πτυχή της σκέψης. «Ένας βασικός λόγος για την υποστήριξη των διαβουλεύσεων των πολιτών είναι ότι δημιουργούν συγκεκριμένους χώρους στους οποίους οι άνθρωποι μπορούν να σχετίζονται μεταξύ τους», λέει. «Τι χάνουμε αφαιρώντας όλο και περισσότερο την ανθρώπινη επαφή και την ανθρώπινη διευκόλυνση;»

Η Summerfield αναγνωρίζει τους περιορισμούς που σχετίζονται με τεχνολογίες τεχνητής νοημοσύνης όπως αυτές. «Δεν εκπαιδεύσαμε το μοντέλο να επεμβαίνει κατά τη συζήτηση», λέει, που σημαίνει ότι η δήλωση του μοντέλου θα μπορούσε επίσης να περιέχει εξτρεμιστικές ή άλλες προβληματικές πεποιθήσεις. Προσθέτει ότι η αυστηρή έρευνα για τον αντίκτυπο της τεχνητής νοημοσύνης στην κοινωνία είναι ζωτικής σημασίας για την κατανόηση της αξίας της.

«Μου φαίνεται σημαντικό να προχωρήσω προσεκτικά», λέει ο McKinney, «και στη συνέχεια να λάβω μέτρα για να μετριάσεις αυτές τις ανησυχίες όπου είναι δυνατόν».

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Scholar

Κατεβάστε βιβλιογραφία