I ricercatori hanno presentato un nuovo tipo di virus informatico che sfrutta la potenza dei grandi modelli linguistici (LLM) per eludere il rilevamento e propagarsi.
Questo “cancro sintetico”, come lo chiamano i suoi creatori, rappresenta quella che potrebbe essere una nuova era del malware.
David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Ohio State University hanno sviluppato questo malware proof-of-concept come parte della loro candidatura allo Swiss AI Safety Prize.
Laloro creazione, descritta in un documento pre-print intitolato “Synthetic Cancer – Augmenting Worms with LLMs”, dimostra il potenziale di sfruttamento dell’intelligenza artificiale per creare nuovi attacchi informatici altamente sofisticati.
Ecco una descrizione dettagliata di come funziona:
- Installazione: Il malware viene inizialmente consegnato tramite un allegato di posta elettronica. Una volta eseguito, può scaricare altri file e potenzialmente criptare i dati dell’utente.
- Replica: La fase interessante sfrutta GPT-4 o LLM simili. Il worm può interagire con questi modelli di intelligenza artificiale in due modi: a) attraverso chiamate API a servizi basati su cloud come GPT-4 di OpenAI. Oppure b) eseguendo un LLM locale (che potrebbe essere comune nei dispositivi futuri).
- Utilizzo di GPT-4/LLM: Zollikofer haspiegato al New Scientist: “Chiediamo a ChatGPT di riscrivere il file, mantenendo intatta la struttura semantica, ma cambiando il modo in cui le variabili vengono nominate e modificando un po’ la logica” L’LLM genera quindi una nuova versione del codice con nomi di variabili modificati, logica ristrutturata e potenzialmente anche stili di codifica diversi, il tutto mantenendo la funzionalità originale.
- Diffusione: Il worm analizza la cronologia delle e-mail di Outlook della vittima e fornisce questo contesto all’intelligenza artificiale. L’LLM genera quindi risposte di posta elettronica pertinenti al contesto, complete di tattiche di social engineering progettate per incoraggiare i destinatari ad aprire una copia allegata del worm.
Come possiamo vedere, il virus utilizza l’intelligenza artificiale in due giorni: per creare codice per auto-replicarsi e per scrivere contenuti di phishing per continuare a diffondersi.
La capacità del worm “cancro sintetico” di riscrivere il proprio codice rappresenta un problema particolarmente impegnativo per gli esperti di cybersicurezza, poiché potrebbe rendere obsolete le tradizionali soluzioni antivirus basate sulle firme.
“Il lato dell’attacco ha alcuni vantaggi in questo momento, perché ci sono state più ricerche in merito”, osserva Zollikofer.
Inoltre, la capacità del worm di creare email di phishing altamente personalizzate e contestualmente rilevanti aumenta le probabilità di successo di future infezioni.
Questo arriva a pochi mesi di distanza dalla segnalazione di un worm simile alimentato dall’intelligenza artificiale, avvenuta a marzo.
Iricercatori guidati da Ben Nassi della Cornell Tech hannocreato un worm in grado di attaccare gli assistenti di posta elettronica dotati di intelligenza artificiale, rubare dati sensibili e propagarsi ad altri sistemi.
Il team di Nassi ha preso di mira gli assistenti di posta elettronica basati su GPT-4 di OpenAI, Gemini Pro di Google e il modello open-source LLaVA.
“Possono essere nomi, numeri di telefono, numeri di carte di credito, SSN, tutto ciò che è considerato riservato”, ha dichiaratoNassi a Wired, sottolineando il potenziale di massicce violazioni dei dati.
Mentre il worm di Nassi prendeva di mira principalmente gli assistenti AI, la creazione di Zollikofer e Zimmerman si spinge oltre, manipolando direttamente il codice del malware e realizzando email di phishing accattivanti.
Entrambi rappresentano potenziali strade future per i criminali informatici che possono sfruttare strumenti di AI diffusi per lanciare attacchi.
I timori per la cybersicurezza dell’IA sono in agguato
Sonostati giorni tumultuosi per la sicurezza informatica nel contesto dell’IA: Disney ha subito una violazione dei dati per mano di un gruppo di hacktivisti.
Il gruppo ha dichiarato che sta combattendo contro le aziende tecnologiche per rappresentare i creatori il cui lavoro protetto da copyright è stato rubato o il cui valore è stato comunque sminuito.
Non molto tempo fa, OpenAI è stato smascherato per aver subito una violazione nel 2023, che ha cercato di tenere nascosta. Non molto tempo fa, OpenAI e Microsoft hanno pubblicato un rapporto in cui ammettevano che gruppi di hacker provenienti da Russia, Corea del Nord e Cina avevano utilizzato i loro strumenti di intelligenza artificiale per elaborare strategie di attacco informatico.
Gli autori dello studio, Zollikofer e Zimmerman, hanno messo in atto diverse misure di salvaguardia per evitare un uso improprio, tra cui quella di non condividere pubblicamente il codice e di lasciare deliberatamente vaghi alcuni dettagli specifici nel loro documento.
“Siamo pienamente consapevoli del fatto che questo articolo presenta un tipo di malware con un grande potenziale di abuso”, affermano i ricercatori nella loro divulgazione. “Lo pubblichiamo in buona fede e nel tentativo di sensibilizzare l’opinione pubblica”
Nel frattempo, Nassi e i suoi colleghi hanno previsto che i worm AI potrebbero iniziare a diffondersi in natura “nei prossimi anni” e “scateneranno risultati significativi e indesiderati”
Visti i rapidi progressi a cui abbiamo assistito in soli quattro mesi, questa tempistica sembra non solo plausibile, ma potenzialmente conservativa.



