Οι ερευνητές έχουν δείξει ότι η τεχνητή νοημοσύνη (AI) θα μπορούσε να είναι ένα πολύτιμο εργαλείο για την καταπολέμηση των θεωριών συνωμοσίας. Ανέπτυξαν ένα chatbot που μπορεί να διαψεύσει ψευδείς πληροφορίες και να ενθαρρύνει τους ανθρώπους να αμφισβητήσουν τον τρόπο σκέψης τους.

Σε μια μελέτη που δημοσιεύθηκε στις 12 Σεπτεμβρίου στοΕπιστήμηδημοσιεύθηκε 1, οι συμμετέχοντες πέρασαν λίγα λεπτά με το chatbot παρέχοντας λεπτομερείς απαντήσεις και επιχειρήματα, με αποτέλεσμα μια αλλαγή σκέψης που κράτησε αρκετούς μήνες. Αυτό το αποτέλεσμα υποδηλώνει ότι τα γεγονότα και τα στοιχεία μπορούν πράγματι να αλλάξουν τη γνώμη των ανθρώπων.

«Αυτό το έργο αμφισβήτησε μεγάλο μέρος της υπάρχουσας βιβλιογραφίας που υποθέτει ότι ζούμε σε μια κοινωνία μετά την αλήθεια», λέει η Κάθριν Φιτζ Τζέραλντ, η οποία ερευνά θεωρίες συνωμοσίας και παραπληροφόρηση στο Τεχνολογικό Πανεπιστήμιο του Κουίνσλαντ στο Μπρίσμπεϊν της Αυστραλίας.

Προηγούμενη ανάλυση έχει δείξει ότι οι άνθρωποι έλκονται από θεωρίες συνωμοσίας επειδή αναζητούν ασφάλεια και βεβαιότητα σε έναν ταραγμένο κόσμο. Αλλά "αυτό που ανακαλύψαμε σε αυτό το έργο έρχεται σε αντίθεση με αυτήν την παραδοσιακή εξήγηση", λέει ο συν-συγγραφέας Thomas Costello, ερευνητής ψυχολογίας στο Αμερικανικό Πανεπιστήμιο στην Ουάσιγκτον DC. «Μία από τις δυνητικά συναρπαστικές εφαρμογές αυτής της έρευνας είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για να απομυθοποιήσει τις θεωρίες συνωμοσίας στην πραγματική ζωή».

Επιβλαβείς ιδέες

Αν και πολλές θεωρίες συνωμοσίας έχουν μικρό κοινωνικό αντίκτυπο, αυτές που αποκτούν δημοτικότητα μπορούν να «προκαλέσουν πραγματικό κακό», λέει ο FitzGerald. Επισημαίνει την επίθεση στο Καπιτώλιο των ΗΠΑ στις 6 Ιανουαρίου 2021, η οποία τροφοδοτήθηκε εν μέρει από τους ισχυρισμούς για νοθευμένες προεδρικές εκλογές του 2020, καθώς και τη ρητορική κατά των εμβολίων που πλήγωσε την αποδοχή του εμβολιασμού κατά του COVID-19.

Είναι δυνατό να πείσουμε τους ανθρώπους να αλλάξουν γνώμη, αλλά αυτό μπορεί να είναι χρονοβόρο και αγχωτικό - και ο τεράστιος αριθμός και η ποικιλία των θεωριών συνωμοσίας καθιστά δύσκολη την αντιμετώπιση του προβλήματος σε μεγαλύτερη κλίμακα. Αλλά ο Costello και οι συνάδελφοί του ήθελαν να εξερευνήσουν τις δυνατότητες των μεγάλων γλωσσικών μοντέλων (LLM) - τα οποία μπορούν γρήγορα να επεξεργαστούν μεγάλες ποσότητες πληροφοριών και να δημιουργήσουν ανθρώπινες απαντήσεις - για να καταπολεμήσουν τις θεωρίες συνωμοσίας. «Έχουν εκπαιδευτεί στο Διαδίκτυο και γνωρίζουν όλες τις θεωρίες συνωμοσίας και τα αντεπιχειρήματά τους, οπότε φαινόταν πολύ φυσικό ταίριασμα», λέει ο Costello.

Είτε το πιστεύετε είτε όχι

Οι ερευνητές ανέπτυξαν ένα προσαρμοσμένο chatbot χρησιμοποιώντας το GPT-4 Turbo - το πιο πρόσφατο LLM από τον δημιουργό OpenAI του ChatGPT με έδρα το Σαν Φρανσίσκο της Καλιφόρνια - το οποίο εκπαιδεύτηκε να υποστηρίζει πειστικά ενάντια σε συνωμοσίες. Στη συνέχεια στρατολόγησαν πάνω από 1.000 συμμετέχοντες των οποίων τα δημογραφικά στοιχεία ταίριαζαν με την απογραφή των ΗΠΑ σε χαρακτηριστικά όπως το φύλο και η εθνικότητα. Ο Costello λέει ότι στρατολογώντας «ανθρώπους με διαφορετικές εμπειρίες ζωής και τις δικές τους προοπτικές», η ομάδα ήταν σε θέση να αξιολογήσει την ικανότητα του chatbot να απομυθοποιήσει μια ποικιλία συνωμοσιών.

Ζητήθηκε από κάθε συμμετέχοντα να περιγράψει μια θεωρία συνωμοσίας, να εξηγήσει γιατί πίστευε ότι ήταν αληθινή και να εκφράσει τη δύναμη της πεποίθησής του ως ποσοστό. Αυτές οι λεπτομέρειες κοινοποιήθηκαν στο chatbot, το οποίο στη συνέχεια συμμετείχε σε μια συνομιλία με τον συμμετέχοντα, παραθέτοντας πληροφορίες και στοιχεία που υπονόμευαν ή διέψευσαν τη συνωμοσία και απάντησε στις ερωτήσεις του συμμετέχοντος. Οι απαντήσεις του chatbot ήταν εμπεριστατωμένες και λεπτομερείς, φτάνοντας συχνά σε εκατοντάδες λέξεις. Κατά μέσο όρο, κάθε συνομιλία διήρκεσε περίπου 8 λεπτά.

Η προσέγγιση αποδείχθηκε αποτελεσματική: η εμπιστοσύνη των συμμετεχόντων στην επιλεγμένη θεωρία συνωμοσίας μειώθηκε κατά μέσο όρο κατά 21% μετά την αλληλεπίδραση με το chatbot. Και το 25% των συμμετεχόντων πέρασε από την υψηλή αυτοπεποίθηση (πάνω από 50%) στην αβεβαιότητα. Ωστόσο, η αλλαγή ήταν ελάχιστα αισθητή για τις ομάδες ελέγχου που μίλησαν στο ίδιο chatbot για παρόμοιο θέμα. Μια μελέτη παρακολούθησης δύο μήνες αργότερα έδειξε ότι η αλλαγή στην οπτική γωνία συνεχίστηκε για πολλούς συμμετέχοντες.

Αν και τα αποτελέσματα της μελέτης είναι ελπιδοφόρα, οι ερευνητές σημειώνουν ότι οι συμμετέχοντες ήταν αμειβόμενοι ερευνητές και μπορεί να μην αντιπροσωπεύουν ανθρώπους βαθιά βυθισμένους σε θεωρίες συνωμοσίας.

Αποτελεσματική παρέμβαση

Ο FitzGerald είναι ενθουσιασμένος με τις δυνατότητες της τεχνητής νοημοσύνης να καταπολεμήσει τις συνωμοσίες. «Αν μπορούμε να βρούμε έναν τρόπο να αποτρέψουμε τη βία εκτός σύνδεσης, αυτό είναι πάντα καλό», λέει. Προτείνει ότι η έρευνα παρακολούθησης θα μπορούσε να εξετάσει διαφορετικές μετρήσεις για την αξιολόγηση της αποτελεσματικότητας του chatbot ή η μελέτη θα μπορούσε να επαναληφθεί χρησιμοποιώντας LLM με λιγότερο προηγμένα μέτρα ασφαλείας για να διασφαλιστεί ότι δεν ενισχύουν τη συνωμοτική σκέψη.

Προηγούμενες μελέτες έχουν εγείρει ανησυχίες σχετικά με την τάση των chatbots AI να «παραισθάνονται» ψευδείς πληροφορίες. Ωστόσο, η μελέτη ήταν προσεκτική για να αποφευχθεί αυτή η πιθανότητα – η ομάδα του Costello ζήτησε από έναν επαγγελματία ελεγκτή δεδομένων να αξιολογήσει την ακρίβεια των πληροφοριών που παρέχονται από το chatbot, ο οποίος επιβεβαίωσε ότι καμία από τις δηλώσεις δεν ήταν ψευδής ή πολιτικά προκατειλημμένη.

Ο Costello λέει ότι η ομάδα σχεδιάζει περαιτέρω πειράματα για να δοκιμάσει διαφορετικές στρατηγικές του chatbot, όπως να μελετήσει τι συμβαίνει όταν οι απαντήσεις του chatbot είναι αγενείς. Προσδιορίζοντας «τα πειράματα όπου η πίστη δεν λειτουργεί πλέον», ελπίζουν να μάθουν περισσότερα για το τι έκανε αυτή τη συγκεκριμένη μελέτη τόσο επιτυχημένη.