Un nuovo studio dimostra che, mentre gli esseri umani faticano a distinguere le voci umane da quelle dell’intelligenza artificiale, il nostro cervello risponde in modo diverso quando le sentiamo.
La clonazione vocale dell’IA, sempre più avanzata, solleva problemi etici e di sicurezza a cui gli esseri umani non erano esposti prima.
La voce all’altro capo della telefonata appartiene a un essere umano o è stata generata dall’IA? Pensi che saresti in grado di capirlo?
I ricercatori del Dipartimento di Psicologia dell’Università di Oslo hanno sottoposto 43 persone a un test per verificare se fossero in grado di distinguere le voci umane da quelle generate dall’IA.
I partecipanti si sono dimostrati ugualmente incapaci di identificare correttamente le voci umane (56% di accuratezza) e quelle generate dall’intelligenza artificiale (50,5% di accuratezza).
L’emozione della voce ha influito sulla probabilità di identificarla correttamente. Le voci neutre dell’intelligenza artificiale sono state identificate con un’accuratezza del 74,9% rispetto al 23% delle voci umane neutre.
Le voci umane felici sono state identificate correttamente nel 77% dei casi, mentre le voci AI felici sono state identificate con un’accuratezza del 34,5%.
Quindi, se sentiamo una voce generata dall’IA che sembra felice siamo più propensi a pensare che sia umana.

Anche se coscientemente facciamo fatica a identificare correttamente una voce AI, il nostro cervello sembra cogliere le differenze a livello subconscio.
I ricercatori hanno eseguito scansioni fMRI del cervello dei partecipanti mentre ascoltavano le diverse voci. Le scansioni hanno rivelato differenze significative nell’attività cerebrale in risposta alle voci AI e umane.
I ricercatori hanno osservato che “le voci dell’intelligenza artificiale attivavano la corteccia mediana anteriore destra, la corteccia prefrontale dorsolaterale destra e il talamo sinistro, il che potrebbe indicare una maggiore vigilanza e regolazione cognitiva”.
“Al contrario, le voci umane hanno suscitato risposte più forti nell’ippocampo destro e nelle regioni associate all’elaborazione delle emozioni e all’empatia, come il giro frontale inferiore destro, la corteccia cingolata anteriore e il giro angolare”
Per noi potrebbe essere difficile capire se una voce è generata dall’intelligenza artificiale o umana, ma il nostro cervello sembra in grado di distinguere. Risponde con una maggiore attenzione alle voci generate dall’intelligenza artificiale e con un senso di parentela quando ascolta una voce umana.
I partecipanti hanno valutato le voci umane come più naturali, affidabili e autentiche, soprattutto le voci felici e le espressioni di piacere.
La ricercatrice Christine Skjegstad, che ha condotto lo studio insieme al professor Sascha Frühholz, ha dichiarato: “Sappiamo già che le voci generate dall’intelligenza artificiale sono diventate così avanzate da essere quasi indistinguibili dalle voci umane reali.
è ora possibile clonare la voce di una persona a partire da pochi secondi di registrazione e i truffatori hanno utilizzato questa tecnologia per imitare una persona cara in difficoltà e ingannare le vittime per ottenere un trasferimento di denaro”.
“Mentre gli esperti di apprendimento automatico hanno sviluppato soluzioni tecnologiche per individuare le voci dell’intelligenza artificiale, si sa molto meno della risposta del cervello umano a queste voci”
Questa ricerca indica che il nostro cervello percepisce che qualcosa non va bene quando elabora una voce sintetica e diventa più cauto.
Potremmo aver bisogno di un aiuto in più quando le voci generate dall’intelligenza artificiale diventeranno più “umane”.



