ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Le falle nella sicurezza emergono nella corsa all’intelligenza artificiale globale

Secondo Wiz, la corsa tra le aziende di IA sta portando molte di esse a trascurare le pratiche di igiene di sicurezza di base.

il 65% delle 50 aziende leader nel settore dell’intelligenza artificiale analizzate dalla società di cybersicurezza ha divulgato segreti verificati su GitHub. Le esposizioni includono chiavi API, token e credenziali sensibili, spesso nascoste in repository di codice che gli strumenti di sicurezza standard non controllano.

Glyn Morgan, Country Manager per il Regno Unito e l’Italia di Salt Security, ha descritto questa tendenza come un errore elementare e prevenibile. “Quando le aziende di intelligenza artificiale espongono accidentalmente le loro chiavi API, mettono a nudo un evidente errore di sicurezza evitabile”, ha dichiarato.

“È un esempio da manuale di governance abbinata a una configurazione di sicurezza, due delle categorie di rischio segnalate da OWASP. Spingendo le credenziali nei repository di codice, gli aggressori hanno a disposizione un biglietto d’oro per accedere a sistemi, dati e modelli, eludendo di fatto i consueti livelli difensivi”

Il rapporto di Wiz mette in evidenza la crescente complessità dei rischi per la sicurezza della supply chain. Il problema si estende oltre i team di sviluppo interni; poiché le aziende collaborano sempre più spesso con startup di IA, potrebbero ereditare la loro posizione di sicurezza. I ricercatori avvertono che alcune delle falle riscontrate “potrebbero aver esposto strutture organizzative, dati di formazione o persino modelli privati”

La posta in gioco è considerevole. Le aziende analizzate con falle accertate hanno una valutazione complessiva di oltre 400 miliardi di dollari.

Il rapporto, che si è concentrato sulle aziende elencate nella Forbes AI 50, fornisce alcuni esempi dei rischi:

  • È stato scoperto che LangChain ha esposto diverse chiavi API di Langsmith, alcune delle quali con permessi per gestire l’organizzazione ed elencare i suoi membri. Questo tipo di informazioni è molto apprezzato dagli aggressori per la ricognizione.
  • Una chiave API di livello enterprise per ElevenLabs è stata scoperta in un file in chiaro.
  • Una società di AI 50 senza nome aveva un token HuggingFace esposto in un fork di codice cancellato. Questo singolo token “permetteva di accedere a circa 1.000 modelli privati”. La stessa azienda ha fatto trapelare anche le chiavi WeightsAndBiases, esponendo i “dati di formazione di molti modelli privati”

Il rapporto di Wiz suggerisce che questo problema è così diffuso perché i tradizionali metodi di scansione della sicurezza non sono più sufficienti. Affidarsi alle scansioni di base dei principali repository GitHub di un’azienda è un “approccio banale” che non tiene conto dei rischi più gravi.

I ricercatori descrivono la situazione come un “iceberg” (cioè i rischi più evidenti sono visibili, ma il pericolo maggiore si trova “sotto la superficie”) Per trovare questi rischi nascosti, i ricercatori hanno adottato una metodologia di scansione tridimensionale che chiamano “Profondità, Perimetro e Copertura”:

  • Profondità: La loro scansione profonda ha analizzato “la cronologia completa dei commit, la cronologia dei commit sui fork, i fork cancellati, i log del flusso di lavoro e i gist” – aree che la maggior parte degli scanner “non tocca mai”.
  • Perimetro: La scansione è stata estesa oltre l’organizzazione principale dell’azienda per includere i membri e i collaboratori dell’organizzazione. Queste persone potrebbero “controllare inavvertitamente i segreti legati all’azienda nei propri repository pubblici”. Il team ha identificato questi account adiacenti monitorando i contributori di codice, i follower dell’organizzazione e persino “le correlazioni in reti correlate come HuggingFace e npm”
  • Copertura: I ricercatori hanno cercato in particolare nuovi tipi di segreti legati all’intelligenza artificiale che spesso sfuggono agli scanner tradizionali, come le chiavi per piattaforme come WeightsAndBiases, Groq e Perplexity.

Questa superficie di attacco ampliata è particolarmente preoccupante se si considera l’apparente mancanza di maturità della sicurezza in molte aziende in rapida evoluzione. Il rapporto rileva che quando i ricercatori hanno cercato di divulgare le falle, quasi la metà delle divulgazioni non ha raggiunto l’obiettivo o non ha ricevuto risposta. Molte aziende non dispongono di un canale di divulgazione ufficiale o semplicemente non hanno risolto il problema quando sono state informate.

I risultati di Wiz sono un monito per i dirigenti delle aziende tecnologiche e mettono in evidenza tre azioni immediate per gestire i rischi di sicurezza sia interni che di terze parti.

  1. I responsabili della sicurezza devono considerare i propri dipendenti come parte della superficie di attacco dell’azienda. Il rapporto raccomanda di creare una politica per i membri del sistema di controllo delle versioni (VCS) da applicare durante l’assunzione dei dipendenti. Questa politica dovrebbe imporre pratiche come l’utilizzo dell’autenticazione a più fattori per gli account personali e il mantenimento di una rigida separazione tra attività personali e professionali su piattaforme come GitHub.
  1. La scansione interna dei segreti deve evolvere oltre i controlli di base dei repository. Il rapporto esorta le aziende a imporre la scansione dei segreti dei VCS pubblici come “difesa non negoziabile”. Questa scansione deve adottare la già citata mentalità di “profondità, perimetro e copertura” per trovare le minacce che si nascondono sotto la superficie.
  1. Questo livello di controllo deve essere esteso all’intera catena di fornitura dell’IA. Quando valutano o integrano gli strumenti dei fornitori di IA, i CISO dovrebbero sondare le loro pratiche di gestione dei segreti e di divulgazione delle vulnerabilità. Il rapporto rileva che molti fornitori di servizi di IA fanno trapelare le proprie chiavi API e dovrebbero “dare priorità al rilevamento dei propri tipi di segreti”

Il messaggio centrale per le aziende è che gli strumenti e le piattaforme che definiscono la prossima generazione di tecnologia vengono costruiti a un ritmo che spesso supera la governance della sicurezza. Come conclude Wiz, “per gli innovatori dell’IA, il messaggio è chiaro: la velocità non può compromettere la sicurezza”. Per le aziende che dipendono da questa innovazione, vale lo stesso avvertimento.

Leggi di più su www.artificialintelligence-news.com

altre news