ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Assenze notevoli colpiscono il Summit sulla Sicurezza dell’IA previsto per Maggio.

L’anno scorso, il primo Summit Globale sulla Sicurezza dell’IA è stato tenuto presso lo storico Bletchley Park del Regno Unito, catturando l’attenzione globale.

Tuttavia, mentre si avvicina il secondo vertice seguente di 6 mesi, programmato per il 21-22 Maggio e ospitato principalmente in formato virtuale dal Regno Unito e dalla Corea del Sud, vi sono segni che suggeriscono l’arrivo di una presa di coscienza. 

Gli organizzatori del summit sperano di continuare il slancio generato a Bletchley Park, dove oltre 25 rappresentanti governativi hanno firmato una dichiarazione congiunta impegnandosi a una supervisione collaborativa dell’intelligenza artificiale. 

Sebbene nessuno si aspettasse che questo evento intermedio più piccolo potesse eguagliare o superare lo splendore del primo vertice, partecipanti chiave, tra cui DeepMind e Mozilla, hanno deciso di non partecipare all’incontro. 

Sebbene l’UE non abbia escluso la sua presenza all’evento, un portavoce ha confermato che i suoi principali regolatori tecnologici, tra cui Margrethe Vestager, Thierry Breton e Vera Jourova, non parteciperanno.

Il Dipartimento di Stato degli Stati Uniti ha confermato che invierà rappresentanti all’incontro a Seoul, ma non ha specificato chi.

Nel frattempo, i governi canadese, brasiliano e olandese hanno annunciato che non parteciperanno all’evento.

Si sostiene anche che il governo francese abbia rinviato il Summit sulla Sicurezza di più ampia portata fino al 2025, ma questa informazione resta non confermata.

Le sfide dell’IA sono diventate più complesse

Affermare che dovremmo proteggere l’umanità da eventi globali e di estinzione è piuttosto semplice, dato che la tecnologia è ancora nelle sue fasi iniziali e il vero rischio rimane basso.

D’altro canto, un’azione significativa su deep fake, danni ambientali e diritti d’autore richiede un lavoro reale che va oltre la retorica e le apparenze.

Sebbene abbiamo assistito all’emergere di una serie di leggi e regolamenti progettati per controllare l’IA, in particolare il EU AI Act, molti problemi chiave rimangono irrisolti.

Come ha spiegato Francine Bennett, direttrice ad interim dell’Istituto Ada Lovelace, a Reuters, “Il discorso sulla politica relativa all’IA si è ampliato per includere altre preoccupazioni importanti, come la concentrazione del mercato e gli impatti ambientali”.

L’ampio raggio d’azione della sicurezza dell’IA richiede un’ampia e altamente soggettiva riflessione, che forse non avrà luogo naturalmente in questa impostazione virtuale.

Un altro elemento è che le tensioni geopolitiche tra le potenze occidentali e la Cina continuano a ostacolare i negoziati. 

Mentre gli Stati Uniti e la Cina hanno discusso sicurezza dell’IA in riunioni private, altri grandi eventi come il World Economic Forum hanno riscontrato interazioni fredde tra le due potenze, tra cui l’abbandono del talk cinese da parte della delegazione statunitense.

Questo vertice virtuale della sicurezza di 6 mesi rifletterà probabilmente sui moderati progressi finora compiuti, ma una decisa azione pratica su questioni chiave rimane all’ordine del giorno.

Leggi di più su dailyai.com

altre news