ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Google Cloud rivela come l’intelligenza artificiale sta ridisegnando la difesa dalla cybersicurezza

Nell’elegante ufficio di Google a Singapore, al Blocco 80, Livello 3, Mark Johnston si è presentato alle 13:30 davanti a una sala di giornalisti tecnologici con un’ammissione sorprendente: dopo cinque decenni di evoluzione della sicurezza informatica, i difensori stanno ancora perdendo la guerra. “Nel 69% degli incidenti avvenuti in Giappone e nell’area Asia-Pacifico, le organizzazioni sono state informate delle proprie violazioni da entità esterne”, ha rivelato il direttore dell’Ufficio CISO di Google Cloud per l’area Asia-Pacifico, mostrando una statistica schiacciante: la maggior parte delle aziende non è nemmeno in grado di capire quando è stata violata.

La tavola rotonda “Cybersecurity in the AI Era”, durata un’ora, è stata una valutazione onesta di come le tecnologie AI di Google Cloud stiano cercando di invertire decenni di fallimenti difensivi, anche se gli stessi strumenti di intelligenza artificiale conferiscono agli aggressori capacità senza precedenti.

Google Cloud rivela come l'intelligenza artificiale sta ridisegnando la difesa dalla cybersicurezza
Mark Johnston presenta i dati M-Trends di Mandiant che mostrano i fallimenti di rilevamento nell’area Asia-Pacifico

Il contesto storico: 50 anni di fallimenti difensivi

La crisi non è nuova. Johnston fa risalire il problema all’osservazione di James B. Anderson, pioniere della cybersicurezza, del 1972, secondo cui “i sistemi che utilizziamo non si proteggono da soli” – una sfida che persiste nonostante decenni di progressi tecnologici. “Quello che James B. Anderson ha detto nel 1972 vale ancora oggi”, ha detto Johnston, sottolineando come i problemi di sicurezza fondamentali rimangano irrisolti anche quando la tecnologia si evolve.

La persistenza delle vulnerabilità di base aggrava questa sfida. I dati di intelligence sulle minacce di Google Cloud rivelano che “oltre il 76% delle violazioni inizia dalle basi”: errori di configurazione e compromissione delle credenziali che affliggono le organizzazioni da decenni. Johnston ha citato un esempio recente: “Il mese scorso, un prodotto molto comune che la maggior parte delle organizzazioni ha utilizzato in qualche momento, Microsoft SharePoint, ha anche quello che noi chiamiamo una vulnerabilità zero-day… e durante questo periodo, è stato attaccato continuamente e abusato”

La corsa agli armamenti dell’intelligenza artificiale: Difensori contro attaccanti

Google Cloud rivela come l'intelligenza artificiale sta ridisegnando la difesa dalla cybersicurezza
La visualizzazione di Google Cloud del “Dilemma del difensore” che mostra lo squilibrio di scala tra attaccanti e difensori

Kevin Curran, membro senior dell’IEEE e professore di cybersecurity presso l’Ulster University, descrive il panorama attuale come “una corsa agli armamenti ad alta posta in gioco” in cui sia i team di cybersecurity che gli attori delle minacce utilizzano strumenti di IA per superarsi a vicenda. “Per i difensori, l’IA è una risorsa preziosa”, spiega Curran in una nota per i media. “Le aziende hanno implementato l’IA generativa e altri strumenti di automazione per analizzare grandi quantità di dati in tempo reale e identificare le anomalie”

Tuttavia, le stesse tecnologie sono vantaggiose per gli aggressori. “Per gli attori delle minacce, l’IA può semplificare gli attacchi di phishing, automatizzare la creazione di malware e aiutare a scansionare le reti alla ricerca di vulnerabilità”, avverte Curran. La natura a doppio uso dell’IA crea quello che Johnston chiama “il dilemma del difensore”

Le iniziative di Google Cloud AI mirano a far pendere la bilancia a favore dei difensori. Johnston sostiene che “l’intelligenza artificiale offre la migliore opportunità di rovesciare il dilemma del difensore e di far pendere la bilancia del cyberspazio per dare ai difensori un vantaggio decisivo sugli attaccanti” L’approccio dell’azienda è incentrato su quelli che definisce “innumerevoli casi d’uso dell’IA generativa nella difesa”, che spaziano dalla scoperta delle vulnerabilità all’intelligence delle minacce, dalla generazione di codice sicuro alla risposta agli incidenti.

Il grande sonno di Project Zero: L’intelligenza artificiale trova ciò che gli esseri umani non riescono a trovare

Uno degli esempi più interessanti di difesa alimentata dall’intelligenza artificiale di Google è l’iniziativa “Big Sleep” di Project Zero, che utilizza modelli linguistici di grandi dimensioni per identificare le vulnerabilità nel codice del mondo reale. Johnston ha condiviso dati impressionanti: “Big Sleep ha trovato una vulnerabilità in una libreria open source utilizzando strumenti di AI generativa – la prima volta che crediamo che una vulnerabilità sia stata trovata da un servizio di AI”

L’evoluzione del programma dimostra le crescenti capacità dell’IA. “Il mese scorso abbiamo annunciato di aver trovato oltre 20 vulnerabilità in diversi pacchetti”, ha sottolineato Johnston. “Ma oggi, quando ho guardato il cruscotto del grande sonno, ho trovato 47 vulnerabilità nel mese di agosto che sono state trovate da questa soluzione”

La progressione dall’analisi manuale umana alla scoperta assistita dall’intelligenza artificiale rappresenta ciò che Johnston descrive come un passaggio “da operazioni di sicurezza manuali a semi-autonome”, in cui “Gemini gestisce la maggior parte delle attività del ciclo di vita della sicurezza in modo coerente, delegando le attività che non può automatizzare con una fiducia o una precisione sufficientemente elevate”

Il paradosso dell’automazione: promesse e pericoli

La roadmap di Google Cloud prevede una progressione in quattro fasi: Operazioni di sicurezza manuali, assistite, semi-autonome e autonome. Nella fase semi-autonoma, i sistemi di intelligenza artificiale gestiranno le attività di routine e affideranno le decisioni complesse agli operatori umani. La fase autonoma finale vedrà l’intelligenza artificiale “guidare il ciclo di vita della sicurezza verso risultati positivi per conto degli utenti”

Google Cloud rivela come l'intelligenza artificiale sta ridisegnando la difesa dalla cybersicurezza
La roadmap di Google Cloud per l’evoluzione dalle operazioni di sicurezza manuali a quelle autonome dell’AI

Tuttavia, questa automazione introduce nuove vulnerabilità. Alla domanda sui rischi di un eccessivo affidamento ai sistemi di intelligenza artificiale, Johnston ha riconosciuto la sfida: “C’è il potenziale che questo servizio possa essere attaccato e manipolato. Al momento, quando si vedono strumenti in cui questi agenti vengono inseriti, non esiste un quadro davvero valido per autorizzare che quello sia lo strumento effettivo che non è stato manomesso”

Curran fa eco a questa preoccupazione: “Il rischio per le aziende è che i loro team di sicurezza diventino troppo dipendenti dall’IA, mettendo potenzialmente da parte il giudizio umano e lasciando i sistemi vulnerabili agli attacchi. C’è ancora bisogno di un ‘copilota’ umano e i ruoli devono essere chiaramente definiti”

Implementazione nel mondo reale: Controllare la natura imprevedibile dell’IA

L’approccio di Google Cloud include salvaguardie pratiche per affrontare una delle caratteristiche più problematiche dell’IA: la sua tendenza a generare risposte irrilevanti o inappropriate. Johnston ha illustrato questa sfida con un esempio concreto di discrepanze contestuali che potrebbero creare rischi aziendali.

“Se hai un negozio al dettaglio, non dovresti ricevere consigli medici”, ha spiegato Johnston, descrivendo come i sistemi di IA possano inaspettatamente spostarsi in ambiti non correlati. “A volte questi strumenti possono farlo” L’imprevedibilità rappresenta una responsabilità significativa per le aziende che utilizzano sistemi di intelligenza artificiale rivolti ai clienti, dove le risposte fuori tema potrebbero confondere i clienti, danneggiare la reputazione del marchio o addirittura creare un’esposizione legale.

La tecnologia Model Armor di Google affronta questo problema funzionando come un filtro intelligente. “Avere dei filtri e utilizzare le nostre capacità per effettuare controlli sanitari su queste risposte permette a un’organizzazione di avere fiducia”, ha sottolineato Johnston. Il sistema controlla che i risultati dell’intelligenza artificiale non contengano informazioni di identificazione personale, filtra i contenuti inadeguati al contesto aziendale e blocca le risposte che potrebbero essere “fuori marchio” per il caso d’uso previsto dall’organizzazione.

L’azienda affronta anche la crescente preoccupazione per l’impiego dell’IA ombra. Le organizzazioni stanno scoprendo centinaia di strumenti di IA non autorizzati nelle loro reti, creando enormi lacune nella sicurezza. Le tecnologie di protezione dei dati sensibili di Google cercano di risolvere questo problema effettuando una scansione su più provider cloud e sistemi on-premise.

La sfida della scala: vincoli di budget e minacce crescenti

Johnston ha identificato le limitazioni di budget come la sfida principale che i CISO dell’Asia Pacifica devono affrontare, proprio quando le organizzazioni si trovano ad affrontare minacce informatiche in aumento. Il paradosso è evidente: mentre il volume degli attacchi aumenta, le organizzazioni non hanno le risorse per rispondere adeguatamente.

“Guardiamo le statistiche e diciamo oggettivamente che stiamo assistendo a un maggior numero di attacchi, anche se non super sofisticati, ma un maggior numero di attacchi equivale a un maggior numero di spese generali, e questo costa di più da gestire”, ha osservato Johnston. L’aumento della frequenza degli attacchi, anche quando i singoli attacchi non sono necessariamente più avanzati, crea un’emorragia di risorse che molte organizzazioni non possono sostenere.

La pressione finanziaria intensifica un panorama di sicurezza già complesso. “Sono alla ricerca di partner che possano aiutarli ad accelerare i tempi senza dover assumere 10 persone in più o ottenere budget più elevati”, ha spiegato Johnston, descrivendo come i responsabili della sicurezza si trovino ad affrontare una pressione crescente per fare di più con le risorse esistenti mentre le minacce si moltiplicano.

Restano domande critiche

Nonostante le promettenti capacità di Google Cloud AI, permangono diverse domande importanti. Alla domanda se i difensori stiano effettivamente vincendo questa corsa agli armamenti, Johnston ha riconosciuto che: “Finora non abbiamo assistito a nuovi attacchi con l’AI”, ma ha notato che gli aggressori stanno usando l’AI per scalare i metodi di attacco esistenti e creare “un’ampia gamma di opportunità in alcuni aspetti dell’attacco”

Anche le affermazioni sull’efficacia richiedono un esame. Johnston ha citato un miglioramento del 50% nella velocità di scrittura dei rapporti sugli incidenti, ma ha ammesso che l’accuratezza rimane una sfida: “Ci sono imprecisioni, certo. Ma anche gli esseri umani commettono errori” Questo riconoscimento evidenzia i limiti delle attuali implementazioni di sicurezza dell’intelligenza artificiale.

Guardando al futuro: Preparativi post-quantum

Al di là delle attuali implementazioni dell’intelligenza artificiale, Google Cloud si sta già preparando per il prossimo cambio di paradigma. Johnston ha rivelato che l’azienda ha “già implementato la crittografia post-quantistica tra i nostri data center per impostazione predefinita e su scala”, posizionandosi per le future minacce dell’informatica quantistica che potrebbero rendere obsoleta la crittografia attuale.

Il verdetto: È necessario un cauto ottimismo

L’integrazione dell’IA nella cybersecurity rappresenta un’opportunità senza precedenti ma anche un rischio significativo. Se da un lato le tecnologie AI di Google Cloud dimostrano reali capacità di rilevamento delle vulnerabilità, analisi delle minacce e risposta automatica, dall’altro le stesse tecnologie conferiscono agli aggressori maggiori capacità di ricognizione, ingegneria sociale ed evasione.

La valutazione di Curran fornisce una prospettiva equilibrata: “Data la rapidità con cui la tecnologia si è evoluta, le organizzazioni dovranno adottare una politica di cybersecurity più completa e proattiva se vogliono rimanere davanti agli aggressori. Dopo tutto, gli attacchi informatici sono una questione di “quando”, non di “se”, e l’intelligenza artificiale non farà altro che accelerare il numero di opportunità a disposizione degli attori delle minacce”

Il successo della cybersicurezza basata sull’intelligenza artificiale non dipende dalla tecnologia in sé, ma da come le organizzazioni implementano questi strumenti in modo ponderato, mantenendo la supervisione umana e affrontando l’igiene della sicurezza fondamentale. Come ha concluso Johnston, “Dovremmo adottare questi strumenti con approcci a basso rischio”, sottolineando la necessità di un’implementazione misurata piuttosto che di un’automazione totale.

La rivoluzione dell’intelligenza artificiale nella sicurezza informatica è in corso, ma la vittoria spetterà a chi saprà bilanciare l’innovazione con una gestione prudente del rischio, non a chi si limiterà a implementare gli algoritmi più avanzati.

Leggi di più su www.artificialintelligence-news.com

altre news