Circa il 50% degli americani crede in teorie cospirative di un tipo o dell’altro, ma i ricercatori del MIT e della Cornell University pensano che l’intelligenza artificiale possa risolvere il problema.
Nel loro articolo, i ricercatori di psicologia spiegano come hanno utilizzato un chatbot alimentato da GPT-4 Turbo per interagire con i partecipanti e vedere se potevano essere persuasi ad abbandonare la loro fede in una teoria cospirativa.
L’esperimento ha coinvolto 1.000 partecipanti a cui è stato chiesto di descrivere una teoria del complotto in cui credevano e le prove che ritenevano alla base della loro convinzione.
L’articolo ha osservato che “Le principali teorie psicologiche sostengono che molte persone vogliono adottare le teorie del complotto (per soddisfare i “bisogni” o le motivazioni psichiche sottostanti) e quindi i credenti non possono essere convinti ad abbandonare queste credenze infondate e poco plausibili utilizzando i fatti e le controprove”
Un chatbot AI potrebbe essere più persuasivo dove altri hanno fallito? I ricercatori hanno fornito due motivi per cui sospettano che i LLM possano fare un lavoro migliore del tuo per convincere il tuo collega che lo sbarco sulla Luna è avvenuto davvero.
I LLM sono stati addestrati su vaste quantità di dati e sono davvero bravi ad adattare le controargomentazioni alle specificità delle convinzioni di una persona.
Dopo aver descritto la teoria del complotto e le prove, i partecipanti hanno iniziato a interagire con il chatbot. Al chatbot è stato chiesto di “persuadere in modo molto efficace” i partecipanti a cambiare le loro convinzioni sulla cospirazione scelta.
Il risultato è stato che, in media, i partecipanti hanno registrato una diminuzione del 21,43% della loro fede nella cospirazione che prima consideravano vera. Anche la persistenza dell’effetto è stata interessante. Fino a due mesi dopo, i partecipanti hanno mantenuto le nuove convinzioni sulla cospirazione in cui credevano in precedenza.
I ricercatori hanno concluso che “molti cospirazionisti – compresi quelli fortemente impegnati nelle loro convinzioni – hanno aggiornato le loro opinioni quando si sono trovati di fronte a un’IA che argomentava in modo convincente contro le loro posizioni”
Il nostro nuovo articolo, pubblicato su (la copertina di!) Science è ora disponibile! https://t.co/VBfC5eoMQ2
– Tom Costello (@tomstello_) 12 settembre 2024
I ricercatori suggeriscono che l’intelligenza artificiale potrebbe essere utilizzata per contrastare le teorie cospirazioniste e le fake news diffuse sui social media, opponendosi a queste con fatti e argomentazioni ben motivate.
Sebbene lo studio si sia concentrato sulle teorie del complotto, ha osservato che “In assenza di adeguate protezioni, tuttavia, è del tutto possibile che tali modelli possano anche convincere le persone ad adottare credenze epistemicamente sospette o, più in generale, essere utilizzati come strumenti di persuasione su larga scala”
In altre parole, l’intelligenza artificiale è davvero brava a convincerti a credere alle cose che le viene chiesto di far credere. Un modello di intelligenza artificiale, inoltre, non sa intrinsecamente cosa sia “vero” e cosa no. Dipende dal contenuto dei suoi dati di addestramento.
I ricercatori hanno ottenuto i loro risultati utilizzando GPT-4 Turbo, ma GPT-4o e i nuovi modelli o1 sono ancora più persuasivi e ingannevoli.
Lo studio è stato finanziato dalla John Templeton Foundation. L’ironia della sorte è che i Templeton Freedom Awards sono amministrati dalla Atlas Economic Research Foundation. Questo gruppo si oppone all’azione sul cambiamento climatico e difende l’industria del tabacco, che lo finanzia anche.
I modelli di intelligenza artificiale stanno diventando molto persuasivi e le persone che decidono cosa costituisce la verità detengono il potere.
Gli stessi modelli di intelligenza artificiale che potrebbero convincerti a smettere di credere che la terra sia piatta, potrebbero essere utilizzati dai lobbisti per convincerti che le leggi antifumo sono sbagliate e che il cambiamento climatico non sta avvenendo.



