ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Protezione AI dai deepfakes o minaccia alla libertà di internet?

I critici temono che la revisione della legge NO FAKES si sia trasformata da una protezione mirata dei deepfakes generati dall’IA in un ampio potere di censura.

Quello che era iniziato come un tentativo apparentemente ragionevole di affrontare i deepfakes generati dall’IA si è trasformato in qualcosa di molto più preoccupante, secondo i sostenitori dei diritti digitali. Il tanto discusso Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES) Act – originariamente volto a prevenire le repliche digitali non autorizzate di persone – ora minaccia di alterare radicalmente il funzionamento di Internet.

L’espansione della legge ha fatto suonare un campanello d’allarme in tutta la comunità tecnologica. È andata ben oltre la semplice protezione delle celebrità dai video falsi, creando potenzialmente un quadro di censura a tutto campo.

Dalle salvaguardie ragionevoli all’approccio a colpi di mazza

L’idea iniziale non era del tutto sbagliata: creare una protezione contro i sistemi di intelligenza artificiale che generano video falsi di persone reali senza autorizzazione. Abbiamo visto tutti quegli inquietanti deepfake che circolano online.

Ma invece di elaborare misure mirate e ristrette, i legislatori hanno optato per quello che la Electronic Frontier Foundation definisce un “sistema di licenze d’immagine federalizzato” che va ben oltre le ragionevoli tutele.

“Il disegno di legge aggiornato raddoppia l’approccio sbagliato iniziale”, osserva la EFF, “imponendo un’intera nuova infrastruttura di censura per questo sistema, che comprende non solo le immagini ma anche i prodotti e i servizi utilizzati per crearle”

Particolarmente preoccupante è l’obbligo imposto dalla legge NO FAKES a quasi tutte le piattaforme internet di implementare sistemi che non solo rimuovano i contenuti dopo aver ricevuto le notifiche di rimozione, ma che impediscano anche che contenuti simili vengano caricati di nuovo. In sostanza, si tratta di costringere le piattaforme a implementare filtri per i contenuti che si sono dimostrati notoriamente inaffidabili in altri contesti.

Innovazione agghiacciante

L’aspetto forse più preoccupante per il settore dell’intelligenza artificiale è il modo in cui il NO FAKES Act prende di mira gli strumenti stessi. Il disegno di legge rivisto non si limita a perseguire i contenuti dannosi, ma potenzialmente potrebbe bloccare intere piattaforme di sviluppo e strumenti software che potrebbero essere utilizzati per creare immagini non autorizzate.

Questo approccio ricorda il tentativo di vietare i word processor perché qualcuno potrebbe usarli per scrivere contenuti diffamatori. Il disegno di legge prevede alcune limitazioni (ad esempio, gli strumenti devono essere “principalmente progettati” per creare repliche non autorizzate o avere altri usi commerciali limitati), ma queste distinzioni sono notoriamente soggette a interpretazione.

Le piccole startup britanniche che si avventurano nella generazione di immagini AI potrebbero trovarsi coinvolte in costose battaglie legali basate su accuse inconsistenti molto prima di avere la possibilità di affermarsi. Nel frattempo, i giganti della tecnologia con eserciti di avvocati possono affrontare meglio queste tempeste, potenzialmente rafforzando il loro dominio.

Chiunque abbia avuto a che fare con il sistema ContentID di YouTube o con strumenti simili di filtraggio del copyright sa quanto possano essere frustranti e imprecisi. Questi sistemi segnalano abitualmente i contenuti legittimi, come i musicisti che eseguono le proprie canzoni o i creatori che utilizzano materiale in base a disposizioni di fair dealing.

Il NO FAKES Act imporrebbe di fatto sistemi di filtraggio simili in tutta Internet. Pur prevedendo delle eccezioni per la parodia, la satira e i commenti, l’applicazione di queste distinzioni a livello algoritmico si è rivelata praticamente impossibile.

“Questi sistemi spesso segnalano cose simili ma non uguali”, spiega l’EFF, “come due persone diverse che suonano lo stesso brano musicale di dominio pubblico”

Per le piattaforme più piccole che non dispongono delle risorse di Google, l’implementazione di tali filtri potrebbe rivelarsi proibitiva. Il risultato probabile? Molte piattaforme si limiterebbero a censurare in modo eccessivo per evitare rischi legali.

In effetti, ci si potrebbe aspettare che le principali aziende tecnologiche si oppongano a una regolamentazione così ampia. Tuttavia, molte di esse sono rimaste vistosamente silenziose. Alcuni osservatori del settore suggeriscono che non si tratta di una coincidenza: i giganti affermati possono assorbire più facilmente i costi di conformità che schiaccerebbero i concorrenti più piccoli.

“Probabilmente non è una coincidenza che alcuni di questi giganti siano d’accordo con questa nuova versione di NO FAKES”, osserva la EFF.

Questo schema si ripete in tutta la storia delle normative tecnologiche: ciò che sembra essere una normativa che regolamenta le Big Tech spesso finisce per consolidare la loro posizione sul mercato creando barriere troppo costose da superare per i nuovi arrivati.

La legge NO FAKES minaccia il discorso anonimo

Nascosta nella legge c’è un’altra disposizione preoccupante che potrebbe esporre gli utenti anonimi di Internet sulla base di semplici accuse. Il disegno di legge consentirebbe a chiunque di ottenere un mandato di comparizione da parte del cancelliere di un tribunale – senza controllo giudiziario o prove – costringendo i servizi a rivelare le informazioni di identificazione degli utenti accusati di aver creato repliche non autorizzate.

La storia dimostra che tali meccanismi sono pronti per essere abusati. I critici con argomenti validi possono essere smascherati e potenzialmente molestati quando i loro commenti includono screenshot o citazioni delle stesse persone che cercano di metterli a tacere.

Questa vulnerabilità potrebbe avere un effetto profondo sulle critiche legittime e sul whistleblowing. Immagina di denunciare una cattiva condotta aziendale per poi veder rivelata la tua identità attraverso un processo di citazione in giudizio.

Questa spinta verso un’ulteriore regolamentazione sembra strana se si considera che il Congresso ha recentemente approvato il Take It Down Act, che già prende di mira le immagini con contenuti intimi o sessuali. Questa stessa legge ha sollevato problemi di privacy, in particolare per quanto riguarda il monitoraggio delle comunicazioni criptate.

Piuttosto che valutare l’impatto della legislazione esistente, i legislatori sembrano decisi a portare avanti restrizioni più ampie che potrebbero rimodellare la governance di Internet per i decenni a venire.

Le prossime settimane saranno cruciali per l’iter legislativo del NO FAKES Act. Per tutti coloro che tengono alla libertà di internet, all’innovazione e ad approcci equilibrati alle sfide tecnologiche emergenti, questa vicenda va seguita con attenzione.

Leggi di più su www.artificialintelligence-news.com

altre news