ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

L’UE avvia un codice di condotta sull’IA per bilanciare innovazione e sicurezza

La Commissione europea ha dato il via al progetto per lo sviluppo del primo Codice di condotta generale sull’IA, strettamente legato alla legge europea sull’IA recentemente approvata.

Il Codice ha lo scopo di stabilire alcune chiare regole di base per i modelli di IA come ChatGPT e Google Gemini, soprattutto per quanto riguarda la trasparenza, il copyright e la gestione dei rischi che questi potenti sistemi comportano.

In una recente plenaria online, quasi 1.000 esperti del mondo accademico, dell’industria e della società civile si sono riuniti per contribuire alla definizione del Codice.

Il processo è guidato da un gruppo di 13 esperti internazionali, tra cui Yoshua Bengio, uno dei “padrini” dell’IA, che si occuperà del gruppo che si concentra sui rischi tecnici. Bengio ha vinto il Premio Turing, che è di fatto il Premio Nobel per l’informatica, quindi le sue opinioni hanno un peso meritato.

Le opinioni pessimistiche di Bengio sul rischio catastrofico che le potenti IA comportano per l’umanità lasciano intendere la direzione che prenderà il team da lui diretto.

Questi gruppi di lavoro si riuniranno regolarmente per redigere il Codice, la cui versione finale è prevista per aprile 2025. Una volta ultimato, il Codice avrà un forte impatto su tutte le aziende che intendono distribuire i propri prodotti di IA nell’UE.

Il sito EU AI Act definisce un quadro normativo rigoroso per i fornitori di IA, ma il Codice di condotta sarà la guida pratica che le aziende dovranno seguire. Il Codice si occuperà di questioni come rendere i sistemi di IA più trasparenti, garantire il rispetto delle leggi sul copyright e stabilire misure per gestire i rischi associati all’IA.

I team che redigeranno il Codice dovranno trovare un equilibrio tra lo sviluppo dell’IA in modo responsabile e sicuro, senza soffocare l’innovazione, cosa per cui l’UE è già stata criticata. I più recenti modelli e funzionalità di IA di Meta, Apple e OpenAI non vengono utilizzati appieno nell’UE a causa delle già severe leggi sulla privacy GDPR.

Le implicazioni sono enormi. Se fatto bene, il Codice potrebbe stabilire standard globali per la sicurezza e l’etica dell’IA, conferendo all’UE un ruolo di leadership nella regolamentazione dell’IA. Ma se il Codice è troppo restrittivo o poco chiaro, potrebbe rallentare lo sviluppo dell’IA in Europa, spingendo gli innovatori altrove.

Anche se l’UE sarebbe senza dubbio favorevole all’adozione del Codice a livello mondiale, è improbabile che ciò avvenga poiché la Cina e gli Stati Uniti sembrano essere più favorevoli allo sviluppo che avversi al rischio. Il veto della legge sulla sicurezza dell’IA SB 1047 della California è un buon esempio dei diversi approcci alla regolamentazione dell’IA.

È improbabile che l’IA emerga dall’industria tecnologica dell’UE, ma è anche meno probabile che l’UE sia il punto di partenza di una potenziale catastrofe alimentata dall’IA.

Leggi di più su dailyai.com

altre news