Alcuni dei nomi più importanti delle Big Tech si sono riuniti per fondare la Coalition for Secure AI (CoSAI).
Non esiste ancora uno standard globale per le pratiche di sviluppo sicuro dell’IA, e le attuali misure di sicurezza dell’IA sono frammentate e spesso gestite internamente dalle aziende che creano i modelli di IA.
CoSAI è un’iniziativa open-source ospitata dall’ente di standardizzazione globale OASIS che mira a standardizzare e condividere le migliori pratiche relative allo sviluppo e all’utilizzo sicuro dell’IA.
Tra le aziende Big Tech che sostengono l’iniziativa figurano Google, IBM, Intel, Microsoft, NVIDIA e PayPal. Altri sponsor fondatori sono Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI e Wiz.
Sono invece assenti Apple e Meta.
CoSAI mira a sviluppare e condividere misure di sicurezza complete che affrontino rischi quali:
- furto del modello
- avvelenamento dei dati di addestramento
- iniezione di input dannosi tramite prompt injection
- prevenzione degli abusi su scala ridotta
- attacchi all’inferenza di appartenenza
- attacchi di inversione del modello o di inversione del gradiente per dedurre informazioni private
- estrazione di informazioni riservate dai dati di formazione
Lostatuto di CoSAI dice che “il progetto non prevede che i seguenti argomenti rientrino nell’ambito di applicazione: disinformazione, allucinazioni, contenuti odiosi o abusivi, pregiudizi, generazione di malware, generazione di contenuti di phishing o altri argomenti nel dominio della sicurezza dei contenuti”
Google ha già il suo Google Secure AI Framework (SAIF) e OpenAI ha il suo progetto di allineamento, che ha subito un’infestazione. Tuttavia, fino a CoSAI non c’è stato un forum per unire le migliori pratiche di sicurezza dell’IA che gli operatori del settore hanno sviluppato in modo indipendente.
Abbiamo visto piccole startup come Mistral hanno avuto un’ascesa vertiginosa grazie ai modelli di IA che hanno prodotto, ma molte di queste piccole aziende non hanno le risorse per finanziare i team di sicurezza dell’IA.
CoSAI sarà una preziosa fonte gratuita di best practice sulla sicurezza dell’IA per i piccoli e grandi operatori del settore.
Heather Adkins, Vicepresidente e responsabile della resilienza della sicurezza informatica di Google, ha dichiarato: “Utilizziamo l’IA da molti anni e ne vediamo il continuo potenziale per i difensori, ma riconosciamo anche le opportunità per gli avversari”.
“CoSAI aiuterà le organizzazioni, grandi e piccole, a integrare l’IA in modo sicuro e responsabile, aiutandole a sfruttarne i vantaggi e a mitigarne i rischi”
Nick Hamilton, Head of Governance, Risk, and Compliance di OpenAI, ha dichiarato: “Lo sviluppo e l’implementazione di tecnologie di IA sicure e affidabili sono al centro della missione di OpenAI.
crediamo che lo sviluppo di standard e pratiche solide sia essenziale per garantire un uso sicuro e responsabile dell’IA e ci impegniamo a collaborare con tutto il settore per farlo”.
“Attraverso la nostra partecipazione a CoSAI, intendiamo contribuire con le nostre competenze e risorse alla creazione di un ecosistema di IA sicuro e vantaggioso per tutti”
Speriamo che persone come Ilya Sutskever e altri che hanno lasciato OpenAI a causa di problemi di sicurezza contribuiscano volontariamente a CoSAI.



