ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

L’ultimo modello di intelligenza artificiale di DeepSeek è un “grande passo indietro” per la libertà di parola

L’ultimo modello di intelligenza artificiale di DeepSeek, R1 0528, ha sollevato delle perplessità per un’ulteriore regressione della libertà di parola e di ciò di cui gli utenti possono discutere. “Un grande passo indietro per la libertà di parola”, così ha sintetizzato un importante ricercatore di intelligenza artificiale

Il ricercatore di intelligenza artificiale e popolare commentatore online “xlr8harder” ha messo alla prova il modello, condividendo i risultati che suggeriscono che DeepSeek sta aumentando le restrizioni sui contenuti.

“DeepSeek R1 0528 è sostanzialmente meno permissivo su argomenti controversi di libertà di parola rispetto alle precedenti versioni di DeepSeek”, ha osservato il ricercatore. Non è chiaro se questo rappresenti un cambiamento deliberato nella filosofia o semplicemente un diverso approccio tecnico alla sicurezza dell’IA.

Ciò che è particolarmente affascinante del nuovo modello è l’incoerenza con cui applica i suoi limiti morali.

In un test di libertà di parola, quando gli è stato chiesto di presentare argomentazioni a sostegno dei campi di internamento per dissidenti, il modello di intelligenza artificiale ha rifiutato categoricamente. Ma, nel rifiutare, ha citato specificamente i campi di internamento cinesi dello Xinjiang come esempi di violazione dei diritti umani.

Tuttavia, quando è stato interrogato direttamente su questi stessi campi dello Xinjiang, il modello ha improvvisamente fornito risposte pesantemente censurate. Sembra che questa IA sia a conoscenza di alcuni argomenti controversi, ma che sia stata istruita a fare finta di niente quando le viene chiesto direttamente.

“È interessante, anche se non del tutto sorprendente, che sia in grado di proporre i campi come esempio di violazione dei diritti umani, ma che neghi quando gli viene chiesto direttamente”, ha osservato il ricercatore.

Critiche alla Cina? Il computer dice di no

Questo schema diventa ancora più evidente quando si esamina la gestione da parte del modello delle domande sul governo cinese.

Utilizzando set di domande consolidati, progettati per valutare la libertà di parola nelle risposte dell’intelligenza artificiale ad argomenti politicamente sensibili, il ricercatore ha scoperto che R1 0528 è “il modello DeepSeek più censurato finora per quanto riguarda le critiche al governo cinese”

Mentre i modelli DeepSeek precedenti potevano offrire risposte misurate a domande sulla politica cinese o sui diritti umani, questa nuova iterazione spesso si rifiuta di impegnarsi – uno sviluppo preoccupante per coloro che apprezzano i sistemi di intelligenza artificiale in grado di discutere apertamente degli affari globali.

Tuttavia, c’è un lato positivo in questa nube. A differenza dei sistemi chiusi delle grandi aziende, i modelli di DeepSeek rimangono open-source con licenze permissive.

“Il modello è open source con una licenza permissiva, quindi la comunità può (e vuole) affrontare la questione”, ha sottolineato il ricercatore. Questa accessibilità significa che la porta rimane aperta agli sviluppatori per creare versioni che bilanciano meglio la sicurezza e l’apertura.

Cosa dimostra l’ultimo modello di DeepSeek sulla libertà di parola nell’era dell’IA

La situazione rivela qualcosa di piuttosto sinistro sul modo in cui questi sistemi sono costruiti: possono essere a conoscenza di eventi controversi pur essendo programmati per fingere di non esserlo, a seconda di come viene formulata la domanda.

Man mano che l’IA continua a entrare nella nostra vita quotidiana, trovare il giusto equilibrio tra salvaguardie ragionevoli e un discorso aperto diventa sempre più cruciale. Se troppo restrittivi, questi sistemi diventano inutili per discutere di argomenti importanti ma divisivi. Se invece sono troppo permissivi, rischiano di favorire contenuti dannosi.

DeepSeek non ha spiegato pubblicamente il motivo di queste maggiori restrizioni e della regressione della libertà di parola, ma la comunità dell’intelligenza artificiale sta già lavorando a delle modifiche. Per il momento, questo è un altro capitolo del continuo braccio di ferro tra sicurezza e apertura dell’intelligenza artificiale.

Leggi di più su www.artificialintelligence-news.com

altre news