Alibaba ha rilasciato un nuovo modello di codifica AI chiamato Qwen3-Coder, costruito per gestire attività software complesse utilizzando un grande modello open-source. Lo strumento fa parte della famiglia Qwen3 di Alibaba e viene promosso come l’agente di codifica più avanzato dell’azienda.
Il modello utilizza un approccio Mixture of Experts (MoE), attivando 35 miliardi di parametri su un totale di 480 miliardi e supportando fino a 256.000 token di contesto. Secondo quanto riferito, questo numero può essere esteso a 1 milione utilizzando speciali tecniche di estrapolazione. L’azienda sostiene che Qwen3-Coder ha superato altri modelli aperti in attività agenziali, tra cui le versioni di Moonshot AI e DeepSeek.
Ma non tutti la vedono come una buona notizia. Jurgita Lapienyė, capo redattore di Cybernews, avverte che Qwen3-Coder potrebbe essere molto più di un utile assistente di codifica: potrebbe rappresentare un rischio reale per i sistemi tecnologici globali se venisse adottato su larga scala dagli sviluppatori occidentali.
Un cavallo di troia travestito da open source?
La comunicazione di Alibaba su Qwen3-Coder si è concentrata sulla sua forza tecnica, paragonandolo a strumenti di alto livello come OpenAI e Anthropic. Ma mentre i punteggi dei benchmark e le caratteristiche attirano l’attenzione, Lapienyė suggerisce che potrebbero anche distrarre dal vero problema: la sicurezza.
Non si tratta del fatto che la Cina stia recuperando terreno nel campo dell’IA, questo è già noto. La preoccupazione più profonda riguarda i rischi nascosti dell’utilizzo di software generato da sistemi di IA che sono difficili da ispezionare o da comprendere appieno.
Come ha detto Lapienyė, gli sviluppatori potrebbero essere “sonnambuli in un futuro” in cui i sistemi principali sono costruiti inconsapevolmente con codice vulnerabile. Strumenti come Qwen3-Coder possono rendere la vita più facile, ma potrebbero anche introdurre sottili debolezze che passano inosservate.
Questo rischio non è ipotetico. I ricercatori di Cybernews hanno recentemente esaminato l’uso dell’IA nelle principali aziende statunitensi e hanno scoperto che 327 delle S&P 500 hanno dichiarato pubblicamente di utilizzare strumenti di IA. Solo in queste aziende, i ricercatori hanno identificato quasi 1.000 vulnerabilità legate all’IA.
L’aggiunta di un altro modello di intelligenza artificiale, soprattutto se sviluppato in base alle severe leggi cinesi sulla sicurezza nazionale, potrebbe aggiungere un ulteriore livello di rischio, più difficile da controllare.
Quando il codice diventa una backdoor
Gli sviluppatori di oggi si affidano molto agli strumenti di intelligenza artificiale per scrivere il codice, correggere i bug e definire il modo in cui vengono costruite le applicazioni. Questi sistemi sono veloci, utili e migliorano di giorno in giorno.
Ma cosa succederebbe se questi stessi sistemi venissero addestrati a introdurre delle falle? Non bug evidenti, ma piccoli problemi difficili da individuare che non farebbero scattare l’allarme. Una vulnerabilità che sembra una decisione di progettazione innocua potrebbe passare inosservata per anni.
È così che spesso iniziano gli attacchi alla catena di approvvigionamento. Esempi passati, come l’incidente di SolarWinds, dimostrano come l’infiltrazione a lungo termine possa avvenire in modo silenzioso e paziente. Con un accesso e un contesto sufficienti, un modello di intelligenza artificiale potrebbe imparare a creare problemi simili, soprattutto se fosse esposto a milioni di codebase.
Non si tratta solo di una teoria. Secondo la legge cinese sull’intelligence nazionale, le aziende come Alibaba devono collaborare con le richieste del governo, comprese quelle che riguardano i dati e i modelli di IA. Questo sposta il discorso dalle prestazioni tecniche alla sicurezza nazionale.
Cosa succede al tuo codice?
Un altro problema importante è l’esposizione dei dati. Quando gli sviluppatori utilizzano strumenti come Qwen3-Coder per scrivere o eseguire il debug del codice, ogni parte dell’interazione potrebbe rivelare informazioni sensibili.
Queste potrebbero includere algoritmi proprietari, logiche di sicurezza o design dell’infrastruttura, esattamente il tipo di dettagli che possono essere utili a uno stato straniero.
Anche se il modello è open source, ci sono ancora molte cose che gli utenti non possono vedere. L’infrastruttura di backend, i sistemi di telemetria e i metodi di tracciamento dell’utilizzo potrebbero non essere trasparenti. Questo rende difficile sapere dove vanno a finire i dati o cosa il modello potrebbe ricordare nel tempo.
Autonomia senza supervisione
Alibaba si è concentrata anche su modelli di intelligenza artificiale che possono agire in modo più indipendente rispetto agli assistenti standard. Questi strumenti non si limitano a suggerire linee di codice. Possono essere assegnati loro compiti completi, operare con input minimi e prendere decisioni da soli.
Questo potrebbe sembrare efficiente, ma solleva anche dei dubbi. Un agente di codifica completamente autonomo in grado di analizzare intere basi di codice e apportare modifiche potrebbe diventare pericoloso nelle mani sbagliate.
Immagina un agente in grado di comprendere le difese del sistema di un’azienda e di creare attacchi su misura per sfruttarle. Le stesse competenze che aiutano gli sviluppatori a muoversi più velocemente potrebbero essere riutilizzate dagli aggressori per muoversi ancora più velocemente.
La normativa non è ancora pronta
Nonostante questi rischi, le normative attuali non affrontano in modo significativo strumenti come Qwen3-Coder. Il governo degli Stati Uniti ha discusso per anni dei problemi di privacy legati ad app come TikTok, ma la supervisione pubblica degli strumenti di intelligenza artificiale sviluppati all’estero è scarsa.
Gruppi come il Comitato per gli Investimenti Stranieri negli Stati Uniti (CFIUS) esaminano le acquisizioni delle aziende, ma non esiste un processo simile per esaminare i modelli di IA che potrebbero comportare rischi per la sicurezza nazionale.
L’ordine esecutivo del Presidente Biden sull’IA si concentra principalmente sui modelli sviluppati in patria e sulle pratiche di sicurezza generali. Ma tralascia le preoccupazioni relative agli strumenti importati che potrebbero essere inseriti in ambienti sensibili come la sanità, la finanza o le infrastrutture nazionali.
Gli strumenti di IA in grado di scrivere o alterare il codice dovrebbero essere trattati con la stessa serietà delle minacce alla catena di approvvigionamento del software. Ciò significa stabilire linee guida chiare su dove e come possono essere utilizzati.
Che cosa dovrebbe succedere dopo?
Per ridurre i rischi, le organizzazioni che hanno a che fare con sistemi sensibili dovrebbero fermarsi prima di integrare Qwen3-Coder o qualsiasi altra IA agenziale sviluppata all’estero nei loro flussi di lavoro. Se non inviteresti qualcuno di cui non ti fidi a guardare il tuo codice sorgente, perché lasciare che la sua AI lo riscriva?
Anche gli strumenti di sicurezza devono mettersi al passo. I software di analisi statica non sono in grado di rilevare backdoor complesse o sottili problemi logici creati dall’intelligenza artificiale. Il settore ha bisogno di nuovi strumenti progettati appositamente per segnalare e testare il codice generato dall’IA alla ricerca di schemi sospetti.
Infine, gli sviluppatori, i leader tecnologici e le autorità di regolamentazione devono capire che l’IA che genera codice non è neutrale. Questi sistemi hanno un potere, sia come strumenti utili che come potenziali minacce. Le stesse caratteristiche che li rendono utili possono anche renderli pericolosi.
Lapienyė ha definito Qwen3-Coder “un potenziale cavallo di Troia” e la metafora calza a pennello. Non si tratta solo di produttività. Si tratta di chi si trova all’interno dei cancelli.
Non tutti sono d’accordo su ciò che conta
Wang Jian, il fondatore di Alibaba Cloud, la vede diversamente. In un’intervista rilasciata a Bloomberg, ha affermato che l’innovazione non consiste nell’assumere i talenti più costosi, ma nello scegliere persone in grado di costruire l’ignoto. Ha criticato l’approccio della Silicon Valley all’assunzione di AI, dove i giganti della tecnologia si contendono i migliori ricercatori come le squadre sportive fanno offerte per gli atleti.
“L’unica cosa che devi fare è prendere la persona giusta”, ha detto Wang. “Non è la persona più costosa”
Ritiene inoltre che la corsa cinese all’intelligenza artificiale sia sana, non ostile. Secondo Wang, le aziende fanno a turno per andare avanti, il che aiuta l’intero ecosistema a crescere più velocemente.
“Grazie a questa competizione, è possibile avere un’iterazione molto rapida della tecnologia”, ha affermato. “Non credo che sia brutale, ma penso che sia molto salutare”
Tuttavia, la concorrenza open-source non garantisce la fiducia. Gli sviluppatori occidentali devono riflettere attentamente sugli strumenti che utilizzano e su chi li ha costruiti.
La linea di fondo
Qwen3-Coder può offrire prestazioni impressionanti e un accesso aperto, ma il suo utilizzo comporta rischi che vanno oltre i benchmark e la velocità di codifica. In un periodo in cui gli strumenti di intelligenza artificiale stanno plasmando il modo in cui vengono costruiti i sistemi critici, vale la pena chiedersi non solo cosa possono fare questi strumenti, ma anche chi ne trae vantaggio.
(Foto di Shahadat Rahman)