ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Utenti di Reddit manipolati segretamente dall’intelligenza artificiale in uno scioccante esperimento psicologico

Ricercatori dell’Università di Zurigo hanno condotto in segreto un esperimento di IA della durata di mesi sulla comunità r/changemyview di Reddit, composta da 3,8 milioni di membri, senza il consenso degli utenti.

Un gruppo di ricercatori dell’Università di Zurigo ha condotto un esperimento segreto durato mesi utilizzando commenti generati dall’intelligenza artificiale per influenzare gli utenti di Reddit senza che questi ne fossero a conoscenza o avessero dato il loro consenso.

L’esperimento ha avuto luogo su r/changemyview, un subreddit da 3,8 milioni di membri noto per i dibattiti civili. I ricercatori hanno utilizzato modelli linguistici di grandi dimensioni (LLM) per scrivere risposte personalizzate e persuasive, fingendosi persone reali, per verificare se l’intelligenza artificiale potesse cambiare le opinioni degli utenti.

I dettagli

  • Sono stati pubblicati commenti generati dall’intelligenza artificiale, fingendosi utenti reali, per influenzare le opinioni.
  • I personaggi includevano sopravvissuti a traumi e voci politiche controverse.
  • L’intelligenza artificiale utilizzava dati personali estrapolati dalla cronologia degli utenti per personalizzare le risposte persuasive.
  • Nessuna delle attività è stata divulgata, violando le regole del subreddit e di Reddit in generale.

Non si trattava solo di bot.

Si trattava di una manipolazione psicologica che utilizzava i dati personali per testare l’efficacia dell’IA nel far cambiare idea alle persone.

Il Chief Legal Officer di Reddit, Ben Lee, ha definito questo comportamento “profondamente sbagliato sia a livello morale che legale” e ha confermato che Reddit sta preparando un’azione legale formale.

Utenti di Reddit manipolati segretamente dall'intelligenza artificiale in uno scioccante esperimento psicologico

Foto di Brett Jordan su Unsplash

La difesa dei ricercatori

I ricercatori affermano che il loro comitato etico ha approvato il progetto e sostengono che il loro obiettivo era quello di mostrare come l’intelligenza artificiale possa essere utilizzata in modo improprio per manipolare le elezioni o diffondere discorsi di odio.

“Crediamo che i potenziali benefici di questa ricerca siano sostanzialmente superiori ai rischi”, hanno scritto i ricercatori.

Il contraccolpo

I mod di r/changemyview si sono indignati, definendo la ricerca “sgradita” e “manipolativa”

Hanno presentato un reclamo e chiesto all’università di bloccare la pubblicazione dello studio. Questo esperimento rivela una minaccia crescente: La persuasione alimentata dall’intelligenza artificiale su larga scala, senza consenso. Dimostra quanto facilmente le persone possano essere influenzate quando l’IA conosce le tue convinzioni e può imitare i tuoi simili.

I Redditors sono stati utilizzati come soggetti di prova.

Non si è trattato solo di un esercizio accademico. Dimostra quanto possa essere potente e sottile la manipolazione dell’IA, soprattutto quando imita voci umane fidate utilizzando dati personali.

Con la diffusione dell’IA generativa, il rischio di manipolazione guidata dall’IA non è più teorico. È reale ed è appena accaduto in una delle più grandi comunità di Internet.

Ora Reddit, una delle più grandi comunità online del mondo, sta reagendo.

Leggi di più su dailyai.com

altre news