ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Sfruttare l’intelligenza artificiale per la sicurezza informatica aziendale

La sicurezza informatica è nel bel mezzo di una nuova corsa agli armamenti e la potente arma scelta in questa nuova era è l’intelligenza artificiale.

L’IA offre la classica arma a doppio taglio: un potente scudo per i difensori e un nuovo potente strumento per i malintenzionati. Navigare in questo complesso campo di battaglia richiede una mano ferma e una profonda conoscenza sia della tecnologia che delle persone che ne abuserebbero.

Per avere un punto di vista dalla prima linea, AI News ha incontrato Rachel James, Principal AI ML Threat Intelligence Engineer presso l’azienda biofarmaceutica globale AbbVie.

“Oltre al potenziamento dell’intelligenza artificiale integrato nei nostri strumenti attuali, utilizziamo anche l’analisi LLM per i nostri rilevamenti, osservazioni, correlazioni e regole associate”, spiega James.

James e il suo team utilizzano modelli linguistici di grandi dimensioni per setacciare una montagna di avvisi di sicurezza, alla ricerca di schemi, individuare duplicati e trovare pericolose lacune nelle difese prima che un attaccante possa farlo.

“Li usiamo per determinare la somiglianza, i doppioni e per fornire un’analisi delle lacune”, aggiunge l’esperta, sottolineando che il prossimo passo sarà quello di integrare un numero ancora maggiore di dati sulle minacce esterne. “Stiamo cercando di migliorare questo aspetto con l’integrazione delle informazioni sulle minacce nella nostra prossima fase”

Al centro di questa operazione c’è una piattaforma di threat intelligence specializzata chiamata OpenCTI, che aiuta a costruire un quadro unificato delle minacce da un mare di rumore digitale.

L’intelligenza artificiale è il motore che rende possibile questo sforzo di cybersecurity, prendendo grandi quantità di testo confuso e non strutturato e organizzandolo ordinatamente in un formato standard noto come STIX. La grande visione, dice James, è quella di utilizzare i modelli linguistici per collegare questa intelligenza di base con tutte le altre aree delle operazioni di sicurezza, dalla gestione delle vulnerabilità al rischio di terze parti.

Sfruttare questa potenza, tuttavia, comporta una sana dose di cautela. In qualità di collaboratore chiave di un’importante iniziativa del settore, James è perfettamente consapevole delle insidie.

“Sarei negligente se non menzionassi il lavoro di un meraviglioso gruppo di persone di cui faccio parte: la ‘OWASP Top 10 for GenAI’ come metodo fondamentale per comprendere le vulnerabilità che GenAI può introdurre”, afferma.

Al di là delle vulnerabilità specifiche, James indica tre compromessi fondamentali che i leader aziendali devono affrontare:

  1. Accettare il rischio che deriva dalla natura creativa ma spesso imprevedibile dell’IA generativa.
  2. La perdita di trasparenza nel modo in cui l’IA giunge alle sue conclusioni, un problema che cresce con l’aumentare della complessità dei modelli.
  3. Il pericolo di giudicare male il reale ritorno sull’investimento per qualsiasi progetto di IA, dove il clamore può facilmente portare a sopravvalutare i benefici o a sottovalutare l’impegno richiesto in un campo in così rapida evoluzione.

Per migliorare la sicurezza informatica nell’era dell’IA, devi capire chi ti attacca. È qui che entra in gioco la profonda esperienza di James.

“Questa è la mia particolare competenza: ho un background di intelligence sulle minacce informatiche e ho condotto e documentato ricerche approfondite sull’interesse, l’uso e lo sviluppo dell’IA da parte degli attori delle minacce”, spiega.

James segue attivamente le conversazioni degli avversari e lo sviluppo di strumenti attraverso i canali open-source e le sue raccolte automatiche dal dark web, condividendo le sue scoperte sul suo GitHub cybershujin. Il suo lavoro prevede anche di sporcarsi le mani.

“In qualità di responsabile della voce Prompt Injection per OWASP e di co-autrice della Guide to Red Teaming GenAI, dedico anche del tempo allo sviluppo di tecniche di input avversario e mantengo una rete di esperti in questo campo”, aggiunge James.

Cosa significa tutto questo per il futuro del settore? Per James, la strada da seguire è chiara. L’esperta sottolinea un affascinante parallelismo che ha scoperto anni fa: “Il ciclo di vita dell’intelligence sulle minacce informatiche è quasi identico al ciclo di vita della scienza dei dati alla base dei sistemi di intelligenza artificiale”

Questo allineamento rappresenta un’enorme opportunità. “Senza dubbio, in termini di set di dati con cui possiamo operare, i difensori hanno la possibilità unica di capitalizzare la potenza della condivisione dei dati di intelligence e dell’IA”, afferma l’esperta.

Il suo messaggio finale offre sia un incoraggiamento che un avvertimento ai suoi colleghi nel mondo della cybersecurity: “La scienza dei dati e l’IA faranno parte della vita di ogni professionista della cybersecurity, abbracciatele”

Rachel James condividerà le sue intuizioni all’AI & Big Data Expo Europedi quest’anno , che si terrà ad Amsterdam il 24-25 settembre 2025. Assicurati di dare un’occhiata alla sua presentazione del secondo giorno, intitolata “Dal principio alla pratica – incorporare l’etica dell’IA su larga scala”.

Leggi di più su www.artificialintelligence-news.com

altre news