Musk dice che gli annunci su Grok finanzieranno i costi dell’intelligenza artificiale di xAI

Gli annunci pubblicitari potrebbero presto apparire nelle risposte di Grok, il chatbot AI incorporato in X, come ha dichiarato il proprietario della piattaforma Elon Musk in una conversazione in livestreaming con gli inserzionisti mercoledì sera. Musk, che ha acquistato Twitter nel 2022 prima di cambiarne il nome in X e incorporarlo nella sua startup di AI xAI, ha detto di sperare che la pubblicità su Grok possa generare fondi da investire nello sviluppo dell’AI. In particolare, gli annunci pubblicitari potrebbero aiutare a pagare le GPU, i costosi chip ad alta potenza di elaborazione che supportano lo sviluppo di modelli linguistici di grandi dimensioni. “Ci concentreremo su: ‘Come paghiamo queste costose GPU?’”, ha detto Musk. Musk ha poi descritto la sua visione di un processo pubblicitario ampiamente automatizzato per X. Gli inserzionisti potrebbero presto, ha suggerito, “essere in grado di caricare un annuncio” su Grok “e non fare nient’altro”, lasciando che il sistema aiuti in tutto, dal targeting all’ottimizzazione della campagna. Questi sviluppi farebbero seguito a una serie di recenti lanci di funzioni pubblicitarie abilitate dall’intelligenza artificiale su X. “Se un utente sta cercando di risolvere un problema [con Grok], allora pubblicizzare la soluzione specifica sarebbe l’ideale in quel momento”, ha detto. Musk ha anche accennato ai piani per una funzione di checkout in-app per consentire gli acquisti direttamente su X. La notizia arriva a meno di un mese dall’abbandono dell’amministratore delegato Linda Yaccarino, che ha trascorso due anni al timone della piattaforma cercando di migliorare i rapporti con gli inserzionisti dopo che molti avevano tagliato gli investimenti a causa delle preoccupazioni sulla sicurezza del marchio e dei contenuti estremisti presenti su X. Sebbene Yaccarino sia riuscita a riconquistare un po’ di spesa pubblicitaria e a sviluppare una manciata di accordi sui contenuti, le entrate pubblicitarie di X rimangono molto al di sotto dei livelli pre-Musk. Sotto Musk, l’azienda si è concentrata maggiormente sugli strumenti di intelligenza artificiale e sulla monetizzazione, tra cui il chatbot Grok. Durante la telefonata, Musk ha affermato che Grok sta diventando “l’intelligenza artificiale più intelligente e accurata del mondo”, nonostante la recente storia del chatbot di diffondere disinformazione, tra cui una serie di contenuti estremisti e antisemiti il mese scorso che hanno portato alla sua breve chiusura. Leggi di più su www.adweek.com
Come far apparire il tuo marchio nelle risposte della ricerca AI?

L’azienda di dati di ricerca Semrush prevede che le query dei motori AI supereranno quelle tradizionali di Google nel 2028. Questo fa sì che i CMO dei servizi professionali e i responsabili dello sviluppo commerciale si stiano dando da fare per assicurarsi che le loro aziende si guadagnino un posto al tavolo dell’IA. Attualmente le ricerche su Google dominano ancora le ricerche sull’IA con un margine enorme: la società di dati di ricerca Semrush riporta che Google avrà circa 14 miliardi di ricerche al giorno nel 2024, mentre ChatGPT avrà solo circa 37 milioni di query giornaliere “simili a ricerche”. Ma i primi segnali di un cambiamento epocale ci sono: Le ricerche sul browser Safari di Apple sono diminuite per la prima volta in assoluto. I risultati dei sondaggi mostrano che la fiducia degli utenti nella ricerca su Google sta calando e viene sostituita dall’intelligenza artificiale e dai social media. I giovani utilizzano l’intelligenza artificiale a un ritmo più che doppio rispetto alle fasce demografiche più anziane, il che fa presagire un’accelerazione dei problemi per il marketing tradizionale sui motori di ricerca. Il rapido miglioramento delle prestazioni di piattaforme di intelligenza artificiale come ChatGPT, Claude e piattaforme correlate come Perplexity stanno sconvolgendo il modo in cui gli acquirenti trovano le risorse. Il comportamento di ricerca e il comportamento delle query dei motori di intelligenza artificiale differiscono: l’intelligenza artificiale riceve generalmente query più lunghe e dettagliate rispetto a una casella di ricerca di Google e risponde con un numero inferiore di risposte o raccomandazioni più specializzate rispetto alle molteplici pagine di risultati di ricerca di Google. È fondamentale apparire come una di queste risposte sulla piattaforma dell’IA o far sì che il lavoro del tuo studio venga citato e utilizzato come base per una risposta. Il termine emergente per indicare l’arte di migliorare la visibilità e le prestazioni di un’azienda sulle piattaforme di intelligenza artificiale è Generative Engine Optimization, o GEO. I modelli linguistici dell’intelligenza artificiale sono caratterizzati da una serie di funzionalità “a scatola chiusa”, tanto che le prescrizioni esatte per il successo del GEO rimangono inafferrabili. Ma un buon punto di partenza è la comprensione del modo in cui i LLM determinano quali contenuti debbano essere privilegiati nelle loro risposte. I framework di autorità dei LLM sono i meccanismi che aiutano un modello di intelligenza artificiale a decidere chi citare e di cui fidarsi. Ogni modello di intelligenza artificiale differirà nelle specifiche del suo framework di autorità, ma ecco gli elementi di base: Osservazione e inferenza statistica. I dati e le informazioni che vengono citati in molti altri luoghi del web implicano che siano autorevoli. Una pubblicazione il cui lavoro viene citato frequentemente inizia ad accumulare un grado di autorevolezza più elevato e i contenuti che appaiono in quella pubblicazione vengono trattati di conseguenza. Allineamento dei fatti. I gruppi di fatti che continuano ad allinearsi nello stesso modo in più fonti si riflettono positivamente sulla veridicità dei fatti e sull’editore degli stessi. Indizi semantici. I LLM traggono inferenze dal linguaggio che circonda particolari fatti e dati, il che significa che un’informazione che compare in un articolo accademico sottoposto a revisione paritaria, con citazioni accurate e un linguaggio più formale, avrà più peso di un’informazione simile che compare in un post informale su un blog pubblico o su un sito di social media. Focalizzazione e specificità strutturale. I LLM possono mostrare più facilmente fiducia in una fonte che utilizza frasi dichiarative brevi per esprimere una serie di idee mirate. Le alternative – strutture di frasi più letterarie con parentesi e idee annidate, oppure il vernacolo più colorito e le frasi dettate dall’opinione che potrebbero comparire in una sezione di commenti – sono più difficili da analizzare a macchina con livelli di affidabilità elevati. Formazione supervisionata. I LLM ricevono un feedback umano in una fase successiva del processo, spesso sotto forma di risposte classificate (“Quale risposta preferisci?”) o di feedback umano diretto al modello su quali fonti o pubblicazioni sono più autorevoli. Alcuni pregiudizi preesistenti possono insinuarsi attraverso queste porte. Ma queste sono solo le linee generali dei quadri di autorità LLM. Le piattaforme di intelligenza artificiale, in effetti, non raccontano storie e non svelano i loro segreti. A volte è per motivi di proprietà, ma nella maggior parte dei casi è perché è molto difficile risalire al modo in cui un modello apprende e “pensa” Tuttavia, con i componenti del quadro di autorità, le regole GEO per i marketer saranno guidate dalla massimizzazione dei contenuti e della presenza sul web di un’azienda in modi che i LLM troveranno rassicuranti e autorevoli. Ecco alcuni punti di riferimento per iniziare. Pubblicare la leadership del pensiero in luoghi di grande autorevolezza Questa tattica è l’elemento più ovvio e necessario per il GEO (anche se chiediamo ai modelli stessi cosa dovrebbe fare un marketer per aumentare la presenza dell’AI). Si tratta però di un compito difficile. Guadagnarsi un posto nel Wall Street Journal non è cosa da tutti i giorni, a prescindere dal prestigio dell’azienda. I contenuti di qualità e degni di nota sono difficili da concepire, da realizzare e da pubblicare. Ma è la medicina GEO più potente, quindi prendi in considerazione la creazione regolare di contenuti incisivi da pubblicare all’esterno. Concentrati sulle riviste specializzate, sulle pubblicazioni economiche e finanziarie di primo e secondo livello e sui giornali metropolitani, che mantengono un’elevata autorevolezza anche nei loro anni di declino. Crea contenuti brevi e monotematici Sembra che rendere i fatti ovviamente scopribili e indicizzabili sia preferibile alla creazione di una guida onnicomprensiva su un argomento infinitamente vasto. La tua azienda ha bisogno di contenuti che vadano in profondità e restino circoscritti. Rafforzalo attraverso titoli evidenti, sezioni di contenuto ben delimitate, commenti di esperti e dati ben citati e mirati che avvalorino le affermazioni. Collabora con ricercatori e fonti di dati autorevoli Una luce riflessa è meglio di nessuna luce. Utilizza risorse esterne per creare atti di giornalismo esperto veramente originali. Il modo migliore per farsi notare su un argomento mirato è creare qualcosa
Zuckerberg delinea la visione dell’AI di Meta per una “superintelligenza personale”

Mark Zuckerberg, CEO diMeta, ha delineato il suo progetto per il futuro dell’intelligenza artificiale: si tratta di darti una “superintelligenza personale”. In una lettera, il capo di Meta ha tracciato un quadro di ciò che sta per accadere e ritiene che sia più vicino di quanto pensiamo. Afferma che i suoi team stanno già vedendo i primi segni di progresso. “Negli ultimi mesi abbiamo iniziato a vedere scorci di miglioramento dei nostri sistemi di intelligenza artificiale”, ha scritto Zuckerberg. “Il miglioramento è lento per ora, ma innegabile. Lo sviluppo della superintelligenza è ormai in vista” Quindi, cosa vuole fare? Dimentica l’intelligenza artificiale che si limita ad automatizzare il noioso lavoro d’ufficio, la visione di Zuckerberg e Meta per la superintelligenza personale è molto più intima. Immagina un futuro in cui la tecnologia sia al servizio della nostra crescita individuale, non solo della nostra produttività. Secondo le sue parole, la vera rivoluzione sarà “avere una superintelligenza personale che ti aiuti a raggiungere i tuoi obiettivi, a creare ciò che vuoi vedere nel mondo, a vivere qualsiasi avventura, a essere un amico migliore per le persone a cui tieni e a crescere per diventare la persona che aspiri a essere” Ma è qui che la cosa si fa interessante. Ha tracciato una chiara linea di demarcazione, contrapponendo la sua visione a un’alternativa molto diversa, quasi distopica, che secondo lui altri stanno perseguendo. “Questa visione si distingue da quella di altri operatori del settore che credono che la superintelligenza debba essere indirizzata in modo centralizzato verso l’automazione di tutti i lavori di valore, e che poi l’umanità vivrà con il sussidio dei suoi prodotti”, ha dichiarato. Meta, afferma Zuckerberg, scommette sull’individuo quando si parla di superintelligenza AI. L’azienda ritiene che il progresso sia sempre derivato dalle persone che inseguono i propri sogni, non dal vivere con gli scarti di una macchina iper-efficiente. Se ha ragione, passeremo meno tempo a lottare con il software e più tempo a creare e a connetterci. Questa AI personale vivrebbe in dispositivi come gli occhiali intelligenti, in grado di comprendere il nostro mondo perché possono “vedere ciò che vediamo e sentire ciò che sentiamo” Naturalmente, Zuckerberg sa che si tratta di cose potenti, persino pericolose. Zuckerberg ammette che la superintelligenza comporterà nuovi problemi di sicurezza e che Meta dovrà fare attenzione a ciò che renderà noto al mondo. Tuttavia, sostiene che l’obiettivo deve essere quello di potenziare il più possibile le persone. Zuckerberg ritiene che in questo momento ci troviamo a un bivio. Le scelte che faremo nei prossimi anni decideranno tutto. “Il resto di questo decennio sembra essere il periodo decisivo per determinare il percorso che prenderà questa tecnologia”, ha avvertito, inquadrandolo come una scelta tra “l’empowerment personale o una forza focalizzata a sostituire ampie fasce della società” Zuckerberg ha fatto la sua scelta. Sta concentrando le enormi risorse di Meta sulla costruzione di questo futuro di superintelligenza personale. Leggi di più su www.artificialintelligence-news.com
Google userà l’apprendimento automatico per stimare l’età degli utenti e bloccarli da contenuti e annunci riservati

Questa settimana Google inizierà a utilizzare l’apprendimento automatico per stimare l’età degli utenti al fine di personalizzare le esperienze pubblicitarie in modo più appropriato per i minori, ha dichiarato l’azienda in un post sul blog mercoledì. La tecnologia utilizzerà comportamenti come le query di ricerca e i tipi di video consumati su YouTube per determinare se un utente ha meno di 18 anni. Quando un utente viene segnalato come probabile minore di 18 anni, il sistema lo informerà e implementerà automaticamente delle protezioni nei prodotti di Google, tra cui la disattivazione della personalizzazione degli annunci e la limitazione di “categorie di annunci sensibili all’età” come alcolici, gioco d’azzardo, perdita di peso e cibi e bevande ad alto contenuto di grassi e zuccheri. Gli utenti che Google identifica come minorenni non potranno accedere alle applicazioni riservate agli utenti adulti nel Google Play Store e saranno automaticamente inseriti nel programma Digital Wellbeing di YouTube, che include funzioni come la protezione dei contenuti, la limitazione delle visualizzazioni ripetute di alcuni tipi di video e promemoria per le pause dalla piattaforma. Anche l’impostazione Timeline di Google Maps, che mantiene un registro cronologico dei luoghi visitati dall’utente, sarà disattivata per gli utenti di età inferiore ai 18 anni. Nelle prossime settimane Google testerà la nuova funzione, chiamata “garanzia dell’età”, per alcuni utenti che hanno effettuato l’accesso negli Stati Uniti. Le modifiche sono state riassunte nel post sul blog come parte degli sforzi dell’azienda per “proteggere ulteriormente i giovani nell’utilizzo dei prodotti Google” e sono state condivise con alcuni clienti pubblicitari di Google via e-mail mercoledì pomeriggio. Questo sviluppo segue l’annuncio di febbraio del CEO di YouTube Neal Mohan, che ha illustrato i piani di Google per espandere le protezioni pubblicitarie per i minori utilizzando il machine learning quest’anno. Lo scorso autunno, Google ha accusato alcuni inserzionisti di aver mirato intenzionalmente agli adolescenti su YouTube, in violazione della politica della piattaforma, come riportato in precedenza da ADWEEK. Il lancio dello strumento di “garanzia dell’età” di Google arriva pochi mesi dopo l’introduzione da parte di Meta di un prodotto simile per Instagram, in grado di scansionare gli indicatori che indicano che i minori stanno mentendo sulla loro età, in modo da garantire che gli utenti di età inferiore ai 18 anni stiano utilizzando “account per adolescenti” protetti piuttosto che una versione non limitata dell’applicazione. Leggi di più su www.adweek.com
Grazie a grandi somme di denaro e ad assunzioni audaci, Mark Zuckerberg vuole portare la superintelligenza a tutti

“La visione di Meta è quella di portare la superintelligenza personale a tutti”, ha scritto l’amministratore delegato Mark Zuckerberg in una lettera pubblicata il 29 luglio, delineando le sue ambizioni per il prossimo grande salto dell’IA : la superintelligenza, un sistema che superi l’intelligenza umana praticamente in tutti i settori. Zuckerberg ha definito l’approccio di Meta come diverso dall’attuale pensiero sull’IA. Piuttosto che costruire sistemi centralizzati per automatizzare il lavoro, Zuckerberg immagina assistenti AI profondamente personali che aiutino gli individui a perseguire i propri obiettivi. “Questo si distingue da altri nel settore che credono che la superintelligenza debba essere diretta centralmente verso l’automazione di tutti i lavori di valore, e che l’umanità vivrà con il sussidio dei suoi prodotti”, ha scritto. Per raggiungere questo obiettivo, Meta sta investendo molto in infrastrutture informatiche e sta assumendo i migliori ricercatori con stipendi da capogiro, in una corsa agli armamenti dell’intelligenza artificiale che si sta intensificando con rivali come OpenAI. A giugno, l’azienda ha annunciato un investimento di 14,3 miliardi di dollari nella startup Scale AI, specializzata nell’etichettatura dei dati, e ha assunto il suo CEO, Alexandr Wang. Poco dopo, Meta ha presentato anche i Superintelligence Labs, una nuova divisione focalizzata sulla creazione di modelli di base, tra cui la famiglia open-source di sistemi di IA Llama. Sebbene Zuckerberg non abbia rivelato alcun prodotto specifico che Meta ha in programma di realizzare – né cosa significhi la sua visione per l’attività pubblicitaria dell’azienda – ha descritto la superintelligenza come uno strumento di “potenziamento personale” Ha aggiunto che “i dispositivi personali come gli occhiali che comprendono il nostro contesto perché possono vedere ciò che vediamo, sentire ciò che sentiamo e interagire con noi durante la giornata diventeranno i nostri dispositivi informatici principali” La lettera menziona anche come Meta abbia visto “scorci” di miglioramento dei suoi sistemi di intelligenza artificiale. Inoltre, Meta prevede di automatizzare completamente la pubblicità con l’intelligenza artificiale entro il 2026, con l’obiettivo di ridurre la dipendenza dalle agenzie e semplificare la creazione di campagne. “Per quanto profonda possa essere un giorno l’abbondanza prodotta dall’IA, un impatto ancora più significativo sulle nostre vite verrà probabilmente dall’avere una superintelligenza personale che ti aiuti a raggiungere i tuoi obiettivi, a creare ciò che vuoi vedere nel mondo, a vivere qualsiasi avventura, a essere un amico migliore per coloro a cui tieni e a crescere per diventare la persona che aspiri a essere”, ha scritto Zuckerberg. Leggi di più su www.adweek.com
X offrirà ai brand tariffe pubblicitarie più basse per gli annunci “estetici”

X sta incentivando gli inserzionisti ad abbandonare emoji, hashtag e link nei loro annunci con tariffe più basse per quelli che la responsabile dell’azienda per le Americhe, Monique Pintarelli, definisce annunci “belli”. In un aggiornamento della politica sulla qualità degli annunci di questa settimana, l’azienda consiglia di evitare hashtag, simboli ed errori grammaticali nel testo degli annunci. La politica suggerisce inoltre che gli annunci non includano più di un emoji, tranne che nei mercati giapponese e coreano. Inoltre, i supporti visivi inclusi negli annunci non devono essere “fantasiosi, eccessivamente ritagliati o indecifrabili”, secondo la nuova politica. X inizierà ad assegnare un “punteggio estetico” a ogni annuncio sulla piattaforma in base alla sua aderenza alle nuove linee guida. Gli annunci che sono più in linea con i valori “estetici” di X costeranno meno e avranno una migliore visibilità nei feed degli utenti, ha dichiarato l’azienda. “L’industria ha perso la strada per inseguire i clic e giocare con gli algoritmi e, nel frattempo, sta creando pubblicità di bassa qualità e di tipo spammoso”, ha dichiarato Pintarelli. “Siamo impegnati a creare un’esperienza migliore per gli utenti e, allo stesso tempo, un’opportunità migliore per il marchio di entrare in contatto con i nostri utenti in modo più elegante” Questa valutazione “estetica” fa parte del più ampio punteggio di qualità degli annunci di X, che valuta i tassi di coinvolgimento, la frequenza e la pertinenza, e sarà presa in considerazione nella ponderazione dei prezzi degli annunci. Ciò significa che gli annunci che X ritiene esteticamente validi avranno accesso a CPM più bassi nell’asta degli annunci, mentre gli annunci che non rispettano le linee guida avranno un prezzo più alto e saranno anche soppressi algoritmicamente nei feed degli utenti, secondo Pintarelli. “Se il tuo annuncio non è altrettanto valido e vuoi sfondare, ti costerà di più farlo”, ha detto Pintarelli. Per il momento, la politica serve come guida piuttosto che come regola rigida per gli inserzionisti, anche se X ha dichiarato di voler implementare restrizioni più rigide sulla creatività e sul copy degli annunci nel corso del tempo. Gli annunci includeranno anche un pulsante “Spiega questo post” alimentato dall’intelligenza artificiale. Gli utenti possono cliccare su questo pulsante nella parte superiore destra del post per ottenere ulteriori informazioni generate da Grok, il chatbot di punta di xAI. Per gli annunci sul sito, questo strumento può fungere da meccanismo di fact-checking, scansionando il sito web dell’inserzionista e le fonti del web per verificare specifiche affermazioni, anche se in passato l’accuratezza di Grok non è stata costante. X sta integrando sempre più l’intelligenza artificiale nei suoi prodotti pubblicitari. A febbraio, l’azienda ha presentato una serie di strumenti creativi e di misurazione generativi basati sull’intelligenza artificiale per gli inserzionisti. Questo ha fatto seguito al lancio, avvenuto nell’ottobre del 2024, della nuova esperienza pubblicitaria di X, progettata per potenziare il targeting con l’intelligenza artificiale. Da quando Elon Musk ha acquistato Twitter nel 2022 e l’ha ribattezzato X, il settore degli annunci pubblicitari dell’azienda – che in precedenza era il motore che generava il 90% delle entrate dell’app – ha sofferto a causa della riduzione della spesa da parte dei brand per problemi legati ai contenuti. Grandi marchi come Apple, Comcast e Disney hanno ritirato i loro annunci dalla piattaforma nel 2023 e gli utenti hanno riferito di feed pieni di annunci di criptovalute di bassa qualità e di annunci di giochi espliciti.
Lo strumento di codifica AI di Alibaba solleva problemi di sicurezza in Occidente

Alibaba ha rilasciato un nuovo modello di codifica AI chiamato Qwen3-Coder, costruito per gestire attività software complesse utilizzando un grande modello open-source. Lo strumento fa parte della famiglia Qwen3 di Alibaba e viene promosso come l’agente di codifica più avanzato dell’azienda. Il modello utilizza un approccio Mixture of Experts (MoE), attivando 35 miliardi di parametri su un totale di 480 miliardi e supportando fino a 256.000 token di contesto. Secondo quanto riferito, questo numero può essere esteso a 1 milione utilizzando speciali tecniche di estrapolazione. L’azienda sostiene che Qwen3-Coder ha superato altri modelli aperti in attività agenziali, tra cui le versioni di Moonshot AI e DeepSeek. Ma non tutti la vedono come una buona notizia. Jurgita Lapienyė, capo redattore di Cybernews, avverte che Qwen3-Coder potrebbe essere molto più di un utile assistente di codifica: potrebbe rappresentare un rischio reale per i sistemi tecnologici globali se venisse adottato su larga scala dagli sviluppatori occidentali. Un cavallo di troia travestito da open source? La comunicazione di Alibaba su Qwen3-Coder si è concentrata sulla sua forza tecnica, paragonandolo a strumenti di alto livello come OpenAI e Anthropic. Ma mentre i punteggi dei benchmark e le caratteristiche attirano l’attenzione, Lapienyė suggerisce che potrebbero anche distrarre dal vero problema: la sicurezza. Non si tratta del fatto che la Cina stia recuperando terreno nel campo dell’IA, questo è già noto. La preoccupazione più profonda riguarda i rischi nascosti dell’utilizzo di software generato da sistemi di IA che sono difficili da ispezionare o da comprendere appieno. Come ha detto Lapienyė, gli sviluppatori potrebbero essere “sonnambuli in un futuro” in cui i sistemi principali sono costruiti inconsapevolmente con codice vulnerabile. Strumenti come Qwen3-Coder possono rendere la vita più facile, ma potrebbero anche introdurre sottili debolezze che passano inosservate. Questo rischio non è ipotetico. I ricercatori di Cybernews hanno recentemente esaminato l’uso dell’IA nelle principali aziende statunitensi e hanno scoperto che 327 delle S&P 500 hanno dichiarato pubblicamente di utilizzare strumenti di IA. Solo in queste aziende, i ricercatori hanno identificato quasi 1.000 vulnerabilità legate all’IA. L’aggiunta di un altro modello di intelligenza artificiale, soprattutto se sviluppato in base alle severe leggi cinesi sulla sicurezza nazionale, potrebbe aggiungere un ulteriore livello di rischio, più difficile da controllare. Quando il codice diventa una backdoor Gli sviluppatori di oggi si affidano molto agli strumenti di intelligenza artificiale per scrivere il codice, correggere i bug e definire il modo in cui vengono costruite le applicazioni. Questi sistemi sono veloci, utili e migliorano di giorno in giorno. Ma cosa succederebbe se questi stessi sistemi venissero addestrati a introdurre delle falle? Non bug evidenti, ma piccoli problemi difficili da individuare che non farebbero scattare l’allarme. Una vulnerabilità che sembra una decisione di progettazione innocua potrebbe passare inosservata per anni. È così che spesso iniziano gli attacchi alla catena di approvvigionamento. Esempi passati, come l’incidente di SolarWinds, dimostrano come l’infiltrazione a lungo termine possa avvenire in modo silenzioso e paziente. Con un accesso e un contesto sufficienti, un modello di intelligenza artificiale potrebbe imparare a creare problemi simili, soprattutto se fosse esposto a milioni di codebase. Non si tratta solo di una teoria. Secondo la legge cinese sull’intelligence nazionale, le aziende come Alibaba devono collaborare con le richieste del governo, comprese quelle che riguardano i dati e i modelli di IA. Questo sposta il discorso dalle prestazioni tecniche alla sicurezza nazionale. Cosa succede al tuo codice? Un altro problema importante è l’esposizione dei dati. Quando gli sviluppatori utilizzano strumenti come Qwen3-Coder per scrivere o eseguire il debug del codice, ogni parte dell’interazione potrebbe rivelare informazioni sensibili. Queste potrebbero includere algoritmi proprietari, logiche di sicurezza o design dell’infrastruttura, esattamente il tipo di dettagli che possono essere utili a uno stato straniero. Anche se il modello è open source, ci sono ancora molte cose che gli utenti non possono vedere. L’infrastruttura di backend, i sistemi di telemetria e i metodi di tracciamento dell’utilizzo potrebbero non essere trasparenti. Questo rende difficile sapere dove vanno a finire i dati o cosa il modello potrebbe ricordare nel tempo. Autonomia senza supervisione Alibaba si è concentrata anche su modelli di intelligenza artificiale che possono agire in modo più indipendente rispetto agli assistenti standard. Questi strumenti non si limitano a suggerire linee di codice. Possono essere assegnati loro compiti completi, operare con input minimi e prendere decisioni da soli. Questo potrebbe sembrare efficiente, ma solleva anche dei dubbi. Un agente di codifica completamente autonomo in grado di analizzare intere basi di codice e apportare modifiche potrebbe diventare pericoloso nelle mani sbagliate. Immagina un agente in grado di comprendere le difese del sistema di un’azienda e di creare attacchi su misura per sfruttarle. Le stesse competenze che aiutano gli sviluppatori a muoversi più velocemente potrebbero essere riutilizzate dagli aggressori per muoversi ancora più velocemente. La normativa non è ancora pronta Nonostante questi rischi, le normative attuali non affrontano in modo significativo strumenti come Qwen3-Coder. Il governo degli Stati Uniti ha discusso per anni dei problemi di privacy legati ad app come TikTok, ma la supervisione pubblica degli strumenti di intelligenza artificiale sviluppati all’estero è scarsa. Gruppi come il Comitato per gli Investimenti Stranieri negli Stati Uniti (CFIUS) esaminano le acquisizioni delle aziende, ma non esiste un processo simile per esaminare i modelli di IA che potrebbero comportare rischi per la sicurezza nazionale. L’ordine esecutivo del Presidente Biden sull’IA si concentra principalmente sui modelli sviluppati in patria e sulle pratiche di sicurezza generali. Ma tralascia le preoccupazioni relative agli strumenti importati che potrebbero essere inseriti in ambienti sensibili come la sanità, la finanza o le infrastrutture nazionali. Gli strumenti di IA in grado di scrivere o alterare il codice dovrebbero essere trattati con la stessa serietà delle minacce alla catena di approvvigionamento del software. Ciò significa stabilire linee guida chiare su dove e come possono essere utilizzati. Che cosa dovrebbe succedere dopo? Per ridurre i rischi, le organizzazioni che hanno a che fare con sistemi sensibili dovrebbero fermarsi prima di integrare Qwen3-Coder o qualsiasi altra IA agenziale sviluppata all’estero nei loro flussi di
Il nuovo modello Gemini 2.5 di Google punta all'”intelligenza per dollaro”

Google ha appena rilasciato la versione stabile di Gemini 2.5 Flash-Lite e ha essenzialmente creato un modello progettato per essere il cavallo di battaglia degli sviluppatori che hanno bisogno di costruire cose in scala senza spendere troppo. Costruire cose interessanti con l’intelligenza artificiale può spesso sembrare un frustrante gioco di equilibri. Vuoi un modello intelligente e potente, ma non vuoi nemmeno ipotecare la casa per pagare le chiamate API. Inoltre, se la tua app deve essere veloce per gli utenti, un modello lento e ripetitivo non è una buona idea. Google afferma che Gemini 2.5 Flash-Lite è più veloce dei modelli precedenti, il che è un’affermazione importante. Per chiunque stia costruendo un traduttore in tempo reale, un chatbot per il servizio clienti o qualsiasi altra cosa in cui un ritardo sarebbe imbarazzante, questo è un dato importante. E poi c’è il prezzo. Con 0,10 dollari per elaborare un milione di parole in entrata e 0,40 dollari per l’uscita, è ridicolmente economico. Questo è il tipo di prezzo che cambia il modo di pensare allo sviluppo. Puoi finalmente smettere di preoccuparti di ogni singola chiamata API e lasciare che la tua applicazione faccia il suo dovere. Questo apre le porte a piccoli team e a sviluppatori singoli per costruire cose che prima erano fattibili solo per le grandi aziende. Ora, potresti pensare: “Ok, è economico e veloce, quindi deve essere un po’ stupido, giusto?” A quanto pare no. Google sostiene che il modello Gemini 2.5 Flash-Lite è più intelligente dei suoi predecessori in tutti i campi: ragionamento, codifica e persino comprensione di immagini e audio. Naturalmente, ha ancora l’enorme finestra contestuale da un milione di token: ciò significa che puoi inviargli documenti enormi, codebase o lunghe trascrizioni senza che si scomodi. E non si tratta solo di marketing: le aziende stanno già costruendo qualcosa con questo sistema. L’azienda di tecnologia spaziale Satlyt lo sta utilizzando sui satelliti per diagnosticare i problemi in orbita, riducendo i ritardi e risparmiando energia. Un’altra, HeyGen, lo utilizza per tradurre video in oltre 180 lingue. Un esempio personale preferito è DocsHound. Lo usano per guardare i video dimostrativi dei prodotti e creare automaticamente la documentazione tecnica a partire da essi. Immagina quanto tempo si risparmia! Questo dimostra che Flash-Lite è più che in grado di gestire compiti complessi e reali. Se vuoi provare il modello Gemini 2.5 Flash-Lite, puoi iniziare a usarlo subito in Google AI Studio o Vertex AI. Tutto ciò che devi fare è specificare “gemini-2.5-flash-lite” nel tuo codice. Un rapido avvertimento: se stavi usando la versione di anteprima, assicurati di passare a questo nuovo nome prima del 25 agosto, perché quello vecchio sta per essere ritirato. Piuttosto che un altro aggiornamento del modello da parte di Google, Gemini 2.5 Flash-Lite abbassa la barriera d’ingresso in modo che molti di noi possano sperimentare e costruire cose utili senza bisogno di un budget enorme. Leggi di più su www.artificialintelligence-news.com
OpenAI e Oracle annunciano l’accordo per il centro dati Stargate AI

OpenAI ha stretto la mano con Oracle in un accordo colossale per portare avanti la colossale iniziativa del centro dati Stargate AI della prima. Una cosa è parlare della rivoluzione dell’IA in termini astratti, ma un’altra cosa è comprendere la portata fisica di ciò che si sta costruendo per realizzarla. Le fondamenta del nostro futuro dell’IA sono state gettate in cemento, acciaio e chilometri di cavi in fibra ottica, e queste fondamenta stanno diventando colossalmente più grandi. Insieme, OpenAI e Oracle costruiranno nuovi centri dati negli Stati Uniti con un hardware tale da consumare 4,5 gigawatt di potenza. È difficile esagerare con la quantità impressionante di energia: è il tipo di energia che potrebbe illuminare una grande città. E tutto questo sarà dedicato a una sola cosa: alimentare la prossima generazione di IA. Non si tratta di un’espansione casuale, ma di una parte importante del grande piano Stargate di OpenAI. L’obiettivo è semplice: costruire una potenza di calcolo sufficiente per portare l’IA avanzata a tutti. Se si aggiunge questo nuovo progetto al lavoro già in corso ad Abilene, in Texas, OpenAI sta sviluppando oltre 5 gigawatt di capacità del centro dati. Si tratta di uno spazio sufficiente a far funzionare più di due milioni di chip per computer tra i più potenti disponibili. Questa mossa dimostra la serietà dell’impegno preso alla Casa Bianca all’inizio dell’anno di investire mezzo trilione di dollari nell’infrastruttura AI degli Stati Uniti. In effetti, grazie all’impulso di partner come Oracle e la giapponese SoftBank, l’azienda prevede di superare l’obiettivo iniziale. Ma questa storia non riguarda solo i chip di silicio e gli accordi aziendali, bensì le persone. OpenAI ritiene che la costruzione e la gestione dei nuovi centri dati Stargate AI creerà oltre 100.000 posti di lavoro. Questa creazione di posti di lavoro rappresenta un’opportunità concreta per le famiglie di tutto il paese, dalle squadre di costruzione che versano il cemento, agli elettricisti specializzati che collegano i rack di server, fino ai tecnici a tempo pieno che manterranno in funzione questi cervelli digitali giorno e notte. Ad Abilene, la prima fase dello sviluppo dei centri dati Stargate di OpenAI è già in piena attività. Sono arrivati i primi camion di nuovissimi chip GB200 di Nvidia e i ricercatori di OpenAI li stanno già usando per vedere di cosa sono capaci i loro prossimi modelli di intelligenza artificiale. Naturalmente, un progetto così grande non è mai un gioco a due. Mentre Oracle sta aiutando a costruire la capacità fisica per l’iniziativa Stargate, OpenAI sta anche lavorando a stretto contatto con SoftBank per ripensare completamente il modo in cui i centri dati dell’IA dovrebbero essere progettati da zero. E non dimentichiamo Microsoft, che rimane il partner chiave per il cloud, fornendo l’impianto idraulico digitale che collega tutto insieme. Dietro il sipario, c’è uno sforzo industriale molto reale e molto umano in corso su una scala che raramente abbiamo visto prima. Ci ricorda che il nostro mondo digitale è costruito con grinta, ambizione e una quantità quasi incredibile (anche se preoccupante) di elettricità. Leggi di più su www.artificialintelligence-news.com
La competizione USA-Cina sull’intelligenza artificiale accelera con un massiccio finanziamento alle città

Il settore dell’intelligenza artificiale in Cina è entrato in una nuova fase, intensificando la competizione con gli Stati Uniti, mentre le megalopoli cinesi lanciano massicci programmi di sovvenzioni. Allo stesso tempo, le aziende nazionali sperano di ridurre la loro dipendenza dalla tecnologia statunitense. La posta in gioco va ben oltre la supremazia tecnologica: entrambe le nazioni considerano il dominio dell’IA un fattore critico per il futuro potere economico e strategico. L’investimento di Shanghai nell’IA da 139 milioni di dollari Shanghai ha presentato un ambizioso programma di sovvenzioni da un miliardo di yuan (139 milioni di dollari) per la sua industria dell’intelligenza artificiale, segnando l’ultimo episodio della corsa tecnologica che vede le principali città cinesi impegnate in una feroce competizione per il dominio dell’IA. Il pacchetto completo stanzia risorse in tre aree chiave: 600 milioni di yuan per sovvenzionare la potenza di calcolo, 300 milioni di yuan per sconti su modelli di IA di terze parti e 100 milioni di yuan per supportare le aziende nell’acquisizione di set di dati di formazione. Secondo i documenti rilasciati dalla Commissione municipale di Shanghai per l’economia e l’informatizzazione, il programma offre tassi di sovvenzione che vanno dal 10% al 100% del valore del contratto per le strutture di calcolo, i modelli di IA e i set di dati. La città prevede di offrire fino a 500 milioni di yuan a nuovi istituti di ricerca sull’IA, con finanziamenti garantiti per tre o cinque anni. “Uno dei vantaggi principali di Shanghai nello sviluppo dell’IA è il suo forte finanziamento”, ha dichiarato Pan Helin, membro di un comitato di esperti del Ministero dell’Industria e della Tecnologia dell’Informazione cinese. Tuttavia, Pan ha osservato che gli alti costi operativi di Shanghai spesso spingono le start-up di IA verso alternative più economiche come la vicina Hangzhou. La competizione a livello nazionale si riscalda L’iniziativa di Shanghai riflette un modello più ampio in Cina, dove le città competono in modo aggressivo per stabilire il dominio dell’IA in quella che è diventata un’intensa competizione tra città. Hangzhou è emersa come una rivale particolare, avendo annunciato l’anno scorso l’intenzione di distribuire 250 milioni di yuan in sussidi per la potenza di calcolo e di coltivare i suoi “sei piccoli draghi”, un insieme di note start-up cinesi, tra cui l’azienda di AI DeepSeek. La rivalità tra città si estende oltre Shanghai e Hangzhou: anche Shenzhen, Chengdu e Pechino hanno introdotto misure di sostegno simili. Questa situazione dimostra come l’intelligenza artificiale sia diventata una priorità strategica a più livelli del governo cinese: la competizione interna sull’AI in Cina. La strategia di Trump sull’intelligenza artificiale mantiene la pressione La tempistica dell’annuncio di Shanghai coincide con il piano d’azione globale sull’intelligenza artificiale dell’amministrazione Trump, presentato il 23 luglio. La strategia di 28 pagine mantiene strette restrizioni sulle tecnologie chiave e accelera la deregolamentazione e il sostegno alle infrastrutture per le aziende statunitensi che operano nel settore dell’IA. Donald Trump ha descritto il piano come “una politica degli Stati Uniti per fare tutto il necessario per guidare il mondo nell’intelligenza artificiale”, sottolineando l’intenzione dell’America di diventare una “centrale di esportazione dell’IA” e di mantenere le protezioni per la sicurezza nazionale. Il piano incarica il Dipartimento del Commercio degli Stati Uniti di colmare le lacune nelle attuali restrizioni all’esportazione, di potenziare la supervisione degli utenti finali all’estero e di studiare strumenti di geolocalizzazione per bloccare l’accesso a “paesi problematici” come la Cina. La strategia di autosufficienza della Cina mostra i suoi risultati Nonostante le restrizioni degli Stati Uniti, gli analisti prevedono una crescita significativa per l’industria cinese dell’intelligenza artificiale. Gli analisti di Bernstein, guidati da Lin Qingyuan, prevedono che i chip nazionali conquisteranno il 55% del mercato cinese degli acceleratori di IA entro il 2027, con un incremento notevole rispetto al 17% del 2023. “I controlli sulle esportazioni hanno creato un’opportunità unica per i fornitori di chip AI nazionali, in quanto non competono con le alternative globali più avanzate”, si legge nella nota di ricerca di Bernstein. La crescita riflette i continui progressi tecnologici: le aziende cinesi sono sempre più in grado di eguagliare le prestazioni dei chip declassativenduti in Cina. L’Ascend 910C di Huawei raggiunge ora circa il 65% della capacità del supremo H100 di Nvidia, anche se la sua potenza di calcolo rimane limitata dalla mancanza di compatibilità diretta con la piattaforma software CUDA di Nvidia. Implicazioni geopolitiche e prospettive future Bo Zhengyuan di Plenum, una piattaforma di ricerca indipendente incentrata sulla Cina, sostiene che l’approccio di Trump rappresenta un passaggio dalla strategia di contenimento di Biden a una competizione più diretta. “Finora, il ‘cortile’ non è diventato più piccolo”, ha osservato Bo, secondo un articolo del South China Morning Post, riferendosi alla portata del controllo delle esportazioni. “Ciò che è diverso è la retorica: ora è più un testa a testa che un contenimento” La competizione sull’intelligenza artificiale tra Cina e Stati Uniti sembra destinata a intensificarsi ulteriormente, tanto che alla Conferenza Mondiale sull’Intelligenza Artificiale di Shanghai, il premier Li Qiang ha chiesto una cooperazione internazionale per garantire che l’intelligenza artificiale non diventi un “gioco esclusivo” accessibile solo a pochi eletti, un chiaro riferimento alle restrizioni statunitensi. Tuttavia, né le pressioni degli Stati Uniti né le sovvenzioni cinesi garantiscono un chiaro vincitore in questa corsa tecnologica. “L’IA non è qualcosa che si può costruire da un giorno all’altro solo grazie al sostegno della politica: è un gioco lungo che si basa sull’ingegneria, sul talento e sulle infrastrutture”, ha detto Bo. Dato che le risorse di dati, gli algoritmi e i talenti di IA della Cina rimangono competitivi rispetto agli Stati Uniti nonostante le restrizioni sui chip, l’esito di questa competizione tecnologica potrebbe dipendere da quale approccio – le restrizioni tecnologiche americane o gli investimenti autonomi cinesi – si dimostri più efficace nel guidare l’innovazione. “Non ci sarà un chiaro vincitore o un perdente nel prossimo decennio”, ha concluso Bo, suggerendo che questa rivalità tecnologica definirà il panorama dell’IA per gli anni a venire. Leggi di più su www.artificialintelligence-news.com