I ricercatori di Stanford e Google DeepMind hanno creato un’intelligenza artificiale in grado di replicare le personalità umane con una precisione sorprendente dopo appena due ore di conversazione.
Intervistando 1.052 persone di diversa provenienza, hanno costruito quelli che chiamano “agenti di simulazione”, ovvero copie digitali in grado di prevedere le convinzioni, gli atteggiamenti e i comportamenti delle loro controparti umane con notevole coerenza.
Per creare le copie digitali, il team utilizza i dati di un “intervistatore AI” progettato per coinvolgere i partecipanti in una conversazione naturale.
L’intervistatore IA pone domande e genera domande di follow-up personalizzate – in media 82 per sessione – esplorando qualsiasi cosa, dai ricordi d’infanzia alle opinioni politiche.
Attraverso queste discussioni di due ore, ogni partecipante ha generato trascrizioni dettagliate con una media di 6.500 parole.

Ad esempio, quando un partecipante menziona la sua città d’infanzia, l’IA potrebbe indagare più a fondo, chiedendo di parlare di ricordi o esperienze specifiche. Simulando il flusso naturale di una conversazione, il sistema cattura informazioni personali sfumate che i sondaggi standard non riescono a cogliere.
Dietro le quinte, lo studio documenta quella che i ricercatori chiamano “riflessione esperta”: i modelli linguistici di grandi dimensioni analizzano ogni conversazione da quattro punti di vista professionali distinti:
- Come psicologo, identifica tratti specifici della personalità e modelli emotivi – per esempio, notando come una persona apprezzi l’indipendenza in base alle sue descrizioni delle relazioni familiari.
- Attraverso la lente di un economista comportamentale, estrae informazioni sul processo decisionale finanziario e sulla tolleranza al rischio, come ad esempio l’approccio ai risparmi o le scelte di carriera.
- Il punto di vista del politologo mappa le inclinazioni ideologiche e le preferenze politiche su vari temi.
- L’analisi demografica cattura i fattori socioeconomici e le circostanze di vita.
I ricercatori hanno concluso che questa tecnica basata sulle interviste ha superato di gran lunga metodi analoghi, come l’estrazione dei dati dai social media.

Testare le copie digitali
I ricercatori hanno sottoposto le loro repliche AI a una serie di test per valutare se avessero copiato accuratamente vari aspetti della personalità delle loro controparti umane.
In primo luogo, hanno utilizzato il General Social Survey, una misura degli atteggiamenti sociali che pone domande su tutto, dalle opinioni politiche alle credenze religiose. In questo caso, le copie dell’IA hanno risposto alle loro controparti umane nell’85% dei casi.
Nel test della personalità Big Five, che misura tratti come l’apertura e la coscienziosità attraverso 44 domande diverse, le previsioni dell’IA si sono allineate alle risposte umane circa l’80% delle volte. Il sistema è stato eccellente nel cogliere tratti come l’estroversione e il nevroticismo.
I test sui giochi economici hanno però rivelato affascinanti limiti. Nel “Gioco del Dittatore”, in cui i partecipanti decidono come dividere il denaro con gli altri, l’IA ha faticato a prevedere perfettamente la generosità umana.
Nel “Gioco della Fiducia”, che mette alla prova la disponibilità a cooperare con gli altri per ottenere un vantaggio reciproco, le copie digitali si sono adattate alle scelte umane solo per circa due terzi del tempo.
Questo suggerisce che, sebbene l’intelligenza artificiale sia in grado di comprendere i nostri valori dichiarati, non riesce ancora a cogliere appieno le sfumature del processo decisionale sociale umano.
Esperimenti nel mondo reale
I ricercatori hanno anche condotto cinque classici esperimenti di psicologia sociale utilizzando le loro copie AI.
In un esperimento che verificava come l’intenzione percepita influisce sulla colpa, sia gli esseri umani che le loro copie dell’IA hanno mostrato modelli simili di assegnazione di maggiore colpa quando le azioni dannose sembravano intenzionali.
Un altro esperimento ha esaminato come l’equità influenzi le risposte emotive: le copie dell’IA hanno previsto con precisione le reazioni umane a un trattamento equo o ingiusto.
Le repliche dell’IA hanno riprodotto con successo il comportamento umano in quattro esperimenti su cinque, il che suggerisce che possono modellare non solo le singole risposte topiche ma anche modelli comportamentali ampi e complessi.
Cloni di IA facili: Quali sono le implicazioni?
I cloni dell’IA sono un grande business: Meta ha recentemente annunciato l’intenzione di riempire Facebook e Instagram di profili IA in grado di creare contenuti e interagire con gli utenti.
Anche TikTok si è buttato nella mischia con la sua nuova suite “Symphony” di strumenti creativi basati sull’intelligenza artificiale, che comprende avatar digitali che possono essere utilizzati da marchi e creatori per produrre contenuti localizzati su scala.
Con gli avatar digitali di Symphony, TikTok offre ai creatori e ai marchi nuovi modi per affascinare il pubblico globale utilizzando l’intelligenza artificiale generativa. Gli avatar possono rappresentare persone reali con un’ampia gamma di gesti, espressioni, età, nazionalità e lingue.
La ricerca di Stanford e DeepMind suggerisce che queste repliche digitali diventeranno molto più sofisticate e più facili da costruire e distribuire su scala.
“Se puoi avere un gruppo di piccoli ‘tu’ che vanno in giro e prendono le decisioni che avresti preso tu, credo che questo sia il futuro”, spiega il ricercatore principale Joon Sung Park, dottorando in informatica a Stanford MIT.
Park descrive i lati positivi di questa tecnologia, in quanto la creazione di cloni accurati potrebbe supportare la ricerca scientifica.
Invece di eseguire esperimenti costosi o eticamente discutibili su persone reali, i ricercatori potrebbero testare come le popolazioni potrebbero rispondere a determinati input. Ad esempio, potrebbe aiutare a prevedere le reazioni ai messaggi di salute pubblica o a studiare come le comunità si adattano ai grandi cambiamenti della società.
In definitiva, però, le stesse caratteristiche che rendono queste repliche dell’IA preziose per la ricerca le rendono anche potenti strumenti di inganno.
Man mano che le copie digitali diventano più convincenti, distinguere l’autentica interazione umana dall’IA è diventato difficile, come abbiamo osservato nei falsi profondi.
Cosa succederebbe se questa tecnologia fosse usata per clonare qualcuno contro la sua volontà? Quali sono le implicazioni della creazione di copie digitali modellate su persone reali?
Il team di ricerca riconosce questi rischi. La loro struttura richiede un chiaro consenso da parte dei partecipanti e permette loro di ritirare i propri dati, trattando la replica della personalità con le stesse preoccupazioni sulla privacy delle informazioni mediche sensibili. Almeno fornisce una certa protezione teorica contro le forme di abuso più maligne.
In ogni caso, ci stiamo spingendo sempre più in profondità nei territori inesplorati dell’interazione uomo-macchina e le implicazioni a lungo termine restano in gran parte sconosciute.



