Secondo Wiz, la corsa tra le aziende di IA sta portando molte di esse a trascurare le pratiche di igiene di sicurezza di base.
il 65% delle 50 aziende leader nel settore dell’intelligenza artificiale analizzate dalla società di cybersicurezza ha divulgato segreti verificati su GitHub. Le esposizioni includono chiavi API, token e credenziali sensibili, spesso nascoste in repository di codice che gli strumenti di sicurezza standard non controllano.
Glyn Morgan, Country Manager per il Regno Unito e l’Italia di Salt Security, ha descritto questa tendenza come un errore elementare e prevenibile. “Quando le aziende di intelligenza artificiale espongono accidentalmente le loro chiavi API, mettono a nudo un evidente errore di sicurezza evitabile”, ha dichiarato.
“È un esempio da manuale di governance abbinata a una configurazione di sicurezza, due delle categorie di rischio segnalate da OWASP. Spingendo le credenziali nei repository di codice, gli aggressori hanno a disposizione un biglietto d’oro per accedere a sistemi, dati e modelli, eludendo di fatto i consueti livelli difensivi”
Il rapporto di Wiz mette in evidenza la crescente complessità dei rischi per la sicurezza della supply chain. Il problema si estende oltre i team di sviluppo interni; poiché le aziende collaborano sempre più spesso con startup di IA, potrebbero ereditare la loro posizione di sicurezza. I ricercatori avvertono che alcune delle falle riscontrate “potrebbero aver esposto strutture organizzative, dati di formazione o persino modelli privati”
La posta in gioco è considerevole. Le aziende analizzate con falle accertate hanno una valutazione complessiva di oltre 400 miliardi di dollari.
Il rapporto, che si è concentrato sulle aziende elencate nella Forbes AI 50, fornisce alcuni esempi dei rischi:
- È stato scoperto che LangChain ha esposto diverse chiavi API di Langsmith, alcune delle quali con permessi per gestire l’organizzazione ed elencare i suoi membri. Questo tipo di informazioni è molto apprezzato dagli aggressori per la ricognizione.
- Una chiave API di livello enterprise per ElevenLabs è stata scoperta in un file in chiaro.
- Una società di AI 50 senza nome aveva un token HuggingFace esposto in un fork di codice cancellato. Questo singolo token “permetteva di accedere a circa 1.000 modelli privati”. La stessa azienda ha fatto trapelare anche le chiavi WeightsAndBiases, esponendo i “dati di formazione di molti modelli privati”
Il rapporto di Wiz suggerisce che questo problema è così diffuso perché i tradizionali metodi di scansione della sicurezza non sono più sufficienti. Affidarsi alle scansioni di base dei principali repository GitHub di un’azienda è un “approccio banale” che non tiene conto dei rischi più gravi.
I ricercatori descrivono la situazione come un “iceberg” (cioè i rischi più evidenti sono visibili, ma il pericolo maggiore si trova “sotto la superficie”) Per trovare questi rischi nascosti, i ricercatori hanno adottato una metodologia di scansione tridimensionale che chiamano “Profondità, Perimetro e Copertura”:
- Profondità: La loro scansione profonda ha analizzato “la cronologia completa dei commit, la cronologia dei commit sui fork, i fork cancellati, i log del flusso di lavoro e i gist” – aree che la maggior parte degli scanner “non tocca mai”.
- Perimetro: La scansione è stata estesa oltre l’organizzazione principale dell’azienda per includere i membri e i collaboratori dell’organizzazione. Queste persone potrebbero “controllare inavvertitamente i segreti legati all’azienda nei propri repository pubblici”. Il team ha identificato questi account adiacenti monitorando i contributori di codice, i follower dell’organizzazione e persino “le correlazioni in reti correlate come HuggingFace e npm”
- Copertura: I ricercatori hanno cercato in particolare nuovi tipi di segreti legati all’intelligenza artificiale che spesso sfuggono agli scanner tradizionali, come le chiavi per piattaforme come WeightsAndBiases, Groq e Perplexity.
Questa superficie di attacco ampliata è particolarmente preoccupante se si considera l’apparente mancanza di maturità della sicurezza in molte aziende in rapida evoluzione. Il rapporto rileva che quando i ricercatori hanno cercato di divulgare le falle, quasi la metà delle divulgazioni non ha raggiunto l’obiettivo o non ha ricevuto risposta. Molte aziende non dispongono di un canale di divulgazione ufficiale o semplicemente non hanno risolto il problema quando sono state informate.
I risultati di Wiz sono un monito per i dirigenti delle aziende tecnologiche e mettono in evidenza tre azioni immediate per gestire i rischi di sicurezza sia interni che di terze parti.
- I responsabili della sicurezza devono considerare i propri dipendenti come parte della superficie di attacco dell’azienda. Il rapporto raccomanda di creare una politica per i membri del sistema di controllo delle versioni (VCS) da applicare durante l’assunzione dei dipendenti. Questa politica dovrebbe imporre pratiche come l’utilizzo dell’autenticazione a più fattori per gli account personali e il mantenimento di una rigida separazione tra attività personali e professionali su piattaforme come GitHub.
- La scansione interna dei segreti deve evolvere oltre i controlli di base dei repository. Il rapporto esorta le aziende a imporre la scansione dei segreti dei VCS pubblici come “difesa non negoziabile”. Questa scansione deve adottare la già citata mentalità di “profondità, perimetro e copertura” per trovare le minacce che si nascondono sotto la superficie.
- Questo livello di controllo deve essere esteso all’intera catena di fornitura dell’IA. Quando valutano o integrano gli strumenti dei fornitori di IA, i CISO dovrebbero sondare le loro pratiche di gestione dei segreti e di divulgazione delle vulnerabilità. Il rapporto rileva che molti fornitori di servizi di IA fanno trapelare le proprie chiavi API e dovrebbero “dare priorità al rilevamento dei propri tipi di segreti”
Il messaggio centrale per le aziende è che gli strumenti e le piattaforme che definiscono la prossima generazione di tecnologia vengono costruiti a un ritmo che spesso supera la governance della sicurezza. Come conclude Wiz, “per gli innovatori dell’IA, il messaggio è chiaro: la velocità non può compromettere la sicurezza”. Per le aziende che dipendono da questa innovazione, vale lo stesso avvertimento.



