Zuckerberg delinea la visione dell’AI di Meta per una “superintelligenza personale”

Mark Zuckerberg, CEO diMeta, ha delineato il suo progetto per il futuro dell’intelligenza artificiale: si tratta di darti una “superintelligenza personale”. In una lettera, il capo di Meta ha tracciato un quadro di ciò che sta per accadere e ritiene che sia più vicino di quanto pensiamo. Afferma che i suoi team stanno già vedendo i primi segni di progresso. “Negli ultimi mesi abbiamo iniziato a vedere scorci di miglioramento dei nostri sistemi di intelligenza artificiale”, ha scritto Zuckerberg. “Il miglioramento è lento per ora, ma innegabile. Lo sviluppo della superintelligenza è ormai in vista” Quindi, cosa vuole fare? Dimentica l’intelligenza artificiale che si limita ad automatizzare il noioso lavoro d’ufficio, la visione di Zuckerberg e Meta per la superintelligenza personale è molto più intima. Immagina un futuro in cui la tecnologia sia al servizio della nostra crescita individuale, non solo della nostra produttività. Secondo le sue parole, la vera rivoluzione sarà “avere una superintelligenza personale che ti aiuti a raggiungere i tuoi obiettivi, a creare ciò che vuoi vedere nel mondo, a vivere qualsiasi avventura, a essere un amico migliore per le persone a cui tieni e a crescere per diventare la persona che aspiri a essere” Ma è qui che la cosa si fa interessante. Ha tracciato una chiara linea di demarcazione, contrapponendo la sua visione a un’alternativa molto diversa, quasi distopica, che secondo lui altri stanno perseguendo. “Questa visione si distingue da quella di altri operatori del settore che credono che la superintelligenza debba essere indirizzata in modo centralizzato verso l’automazione di tutti i lavori di valore, e che poi l’umanità vivrà con il sussidio dei suoi prodotti”, ha dichiarato. Meta, afferma Zuckerberg, scommette sull’individuo quando si parla di superintelligenza AI. L’azienda ritiene che il progresso sia sempre derivato dalle persone che inseguono i propri sogni, non dal vivere con gli scarti di una macchina iper-efficiente. Se ha ragione, passeremo meno tempo a lottare con il software e più tempo a creare e a connetterci. Questa AI personale vivrebbe in dispositivi come gli occhiali intelligenti, in grado di comprendere il nostro mondo perché possono “vedere ciò che vediamo e sentire ciò che sentiamo” Naturalmente, Zuckerberg sa che si tratta di cose potenti, persino pericolose. Zuckerberg ammette che la superintelligenza comporterà nuovi problemi di sicurezza e che Meta dovrà fare attenzione a ciò che renderà noto al mondo. Tuttavia, sostiene che l’obiettivo deve essere quello di potenziare il più possibile le persone. Zuckerberg ritiene che in questo momento ci troviamo a un bivio. Le scelte che faremo nei prossimi anni decideranno tutto. “Il resto di questo decennio sembra essere il periodo decisivo per determinare il percorso che prenderà questa tecnologia”, ha avvertito, inquadrandolo come una scelta tra “l’empowerment personale o una forza focalizzata a sostituire ampie fasce della società” Zuckerberg ha fatto la sua scelta. Sta concentrando le enormi risorse di Meta sulla costruzione di questo futuro di superintelligenza personale. Leggi di più su www.artificialintelligence-news.com
Lo strumento di codifica AI di Alibaba solleva problemi di sicurezza in Occidente

Alibaba ha rilasciato un nuovo modello di codifica AI chiamato Qwen3-Coder, costruito per gestire attività software complesse utilizzando un grande modello open-source. Lo strumento fa parte della famiglia Qwen3 di Alibaba e viene promosso come l’agente di codifica più avanzato dell’azienda. Il modello utilizza un approccio Mixture of Experts (MoE), attivando 35 miliardi di parametri su un totale di 480 miliardi e supportando fino a 256.000 token di contesto. Secondo quanto riferito, questo numero può essere esteso a 1 milione utilizzando speciali tecniche di estrapolazione. L’azienda sostiene che Qwen3-Coder ha superato altri modelli aperti in attività agenziali, tra cui le versioni di Moonshot AI e DeepSeek. Ma non tutti la vedono come una buona notizia. Jurgita Lapienyė, capo redattore di Cybernews, avverte che Qwen3-Coder potrebbe essere molto più di un utile assistente di codifica: potrebbe rappresentare un rischio reale per i sistemi tecnologici globali se venisse adottato su larga scala dagli sviluppatori occidentali. Un cavallo di troia travestito da open source? La comunicazione di Alibaba su Qwen3-Coder si è concentrata sulla sua forza tecnica, paragonandolo a strumenti di alto livello come OpenAI e Anthropic. Ma mentre i punteggi dei benchmark e le caratteristiche attirano l’attenzione, Lapienyė suggerisce che potrebbero anche distrarre dal vero problema: la sicurezza. Non si tratta del fatto che la Cina stia recuperando terreno nel campo dell’IA, questo è già noto. La preoccupazione più profonda riguarda i rischi nascosti dell’utilizzo di software generato da sistemi di IA che sono difficili da ispezionare o da comprendere appieno. Come ha detto Lapienyė, gli sviluppatori potrebbero essere “sonnambuli in un futuro” in cui i sistemi principali sono costruiti inconsapevolmente con codice vulnerabile. Strumenti come Qwen3-Coder possono rendere la vita più facile, ma potrebbero anche introdurre sottili debolezze che passano inosservate. Questo rischio non è ipotetico. I ricercatori di Cybernews hanno recentemente esaminato l’uso dell’IA nelle principali aziende statunitensi e hanno scoperto che 327 delle S&P 500 hanno dichiarato pubblicamente di utilizzare strumenti di IA. Solo in queste aziende, i ricercatori hanno identificato quasi 1.000 vulnerabilità legate all’IA. L’aggiunta di un altro modello di intelligenza artificiale, soprattutto se sviluppato in base alle severe leggi cinesi sulla sicurezza nazionale, potrebbe aggiungere un ulteriore livello di rischio, più difficile da controllare. Quando il codice diventa una backdoor Gli sviluppatori di oggi si affidano molto agli strumenti di intelligenza artificiale per scrivere il codice, correggere i bug e definire il modo in cui vengono costruite le applicazioni. Questi sistemi sono veloci, utili e migliorano di giorno in giorno. Ma cosa succederebbe se questi stessi sistemi venissero addestrati a introdurre delle falle? Non bug evidenti, ma piccoli problemi difficili da individuare che non farebbero scattare l’allarme. Una vulnerabilità che sembra una decisione di progettazione innocua potrebbe passare inosservata per anni. È così che spesso iniziano gli attacchi alla catena di approvvigionamento. Esempi passati, come l’incidente di SolarWinds, dimostrano come l’infiltrazione a lungo termine possa avvenire in modo silenzioso e paziente. Con un accesso e un contesto sufficienti, un modello di intelligenza artificiale potrebbe imparare a creare problemi simili, soprattutto se fosse esposto a milioni di codebase. Non si tratta solo di una teoria. Secondo la legge cinese sull’intelligence nazionale, le aziende come Alibaba devono collaborare con le richieste del governo, comprese quelle che riguardano i dati e i modelli di IA. Questo sposta il discorso dalle prestazioni tecniche alla sicurezza nazionale. Cosa succede al tuo codice? Un altro problema importante è l’esposizione dei dati. Quando gli sviluppatori utilizzano strumenti come Qwen3-Coder per scrivere o eseguire il debug del codice, ogni parte dell’interazione potrebbe rivelare informazioni sensibili. Queste potrebbero includere algoritmi proprietari, logiche di sicurezza o design dell’infrastruttura, esattamente il tipo di dettagli che possono essere utili a uno stato straniero. Anche se il modello è open source, ci sono ancora molte cose che gli utenti non possono vedere. L’infrastruttura di backend, i sistemi di telemetria e i metodi di tracciamento dell’utilizzo potrebbero non essere trasparenti. Questo rende difficile sapere dove vanno a finire i dati o cosa il modello potrebbe ricordare nel tempo. Autonomia senza supervisione Alibaba si è concentrata anche su modelli di intelligenza artificiale che possono agire in modo più indipendente rispetto agli assistenti standard. Questi strumenti non si limitano a suggerire linee di codice. Possono essere assegnati loro compiti completi, operare con input minimi e prendere decisioni da soli. Questo potrebbe sembrare efficiente, ma solleva anche dei dubbi. Un agente di codifica completamente autonomo in grado di analizzare intere basi di codice e apportare modifiche potrebbe diventare pericoloso nelle mani sbagliate. Immagina un agente in grado di comprendere le difese del sistema di un’azienda e di creare attacchi su misura per sfruttarle. Le stesse competenze che aiutano gli sviluppatori a muoversi più velocemente potrebbero essere riutilizzate dagli aggressori per muoversi ancora più velocemente. La normativa non è ancora pronta Nonostante questi rischi, le normative attuali non affrontano in modo significativo strumenti come Qwen3-Coder. Il governo degli Stati Uniti ha discusso per anni dei problemi di privacy legati ad app come TikTok, ma la supervisione pubblica degli strumenti di intelligenza artificiale sviluppati all’estero è scarsa. Gruppi come il Comitato per gli Investimenti Stranieri negli Stati Uniti (CFIUS) esaminano le acquisizioni delle aziende, ma non esiste un processo simile per esaminare i modelli di IA che potrebbero comportare rischi per la sicurezza nazionale. L’ordine esecutivo del Presidente Biden sull’IA si concentra principalmente sui modelli sviluppati in patria e sulle pratiche di sicurezza generali. Ma tralascia le preoccupazioni relative agli strumenti importati che potrebbero essere inseriti in ambienti sensibili come la sanità, la finanza o le infrastrutture nazionali. Gli strumenti di IA in grado di scrivere o alterare il codice dovrebbero essere trattati con la stessa serietà delle minacce alla catena di approvvigionamento del software. Ciò significa stabilire linee guida chiare su dove e come possono essere utilizzati. Che cosa dovrebbe succedere dopo? Per ridurre i rischi, le organizzazioni che hanno a che fare con sistemi sensibili dovrebbero fermarsi prima di integrare Qwen3-Coder o qualsiasi altra IA agenziale sviluppata all’estero nei loro flussi di
Il nuovo modello Gemini 2.5 di Google punta all'”intelligenza per dollaro”

Google ha appena rilasciato la versione stabile di Gemini 2.5 Flash-Lite e ha essenzialmente creato un modello progettato per essere il cavallo di battaglia degli sviluppatori che hanno bisogno di costruire cose in scala senza spendere troppo. Costruire cose interessanti con l’intelligenza artificiale può spesso sembrare un frustrante gioco di equilibri. Vuoi un modello intelligente e potente, ma non vuoi nemmeno ipotecare la casa per pagare le chiamate API. Inoltre, se la tua app deve essere veloce per gli utenti, un modello lento e ripetitivo non è una buona idea. Google afferma che Gemini 2.5 Flash-Lite è più veloce dei modelli precedenti, il che è un’affermazione importante. Per chiunque stia costruendo un traduttore in tempo reale, un chatbot per il servizio clienti o qualsiasi altra cosa in cui un ritardo sarebbe imbarazzante, questo è un dato importante. E poi c’è il prezzo. Con 0,10 dollari per elaborare un milione di parole in entrata e 0,40 dollari per l’uscita, è ridicolmente economico. Questo è il tipo di prezzo che cambia il modo di pensare allo sviluppo. Puoi finalmente smettere di preoccuparti di ogni singola chiamata API e lasciare che la tua applicazione faccia il suo dovere. Questo apre le porte a piccoli team e a sviluppatori singoli per costruire cose che prima erano fattibili solo per le grandi aziende. Ora, potresti pensare: “Ok, è economico e veloce, quindi deve essere un po’ stupido, giusto?” A quanto pare no. Google sostiene che il modello Gemini 2.5 Flash-Lite è più intelligente dei suoi predecessori in tutti i campi: ragionamento, codifica e persino comprensione di immagini e audio. Naturalmente, ha ancora l’enorme finestra contestuale da un milione di token: ciò significa che puoi inviargli documenti enormi, codebase o lunghe trascrizioni senza che si scomodi. E non si tratta solo di marketing: le aziende stanno già costruendo qualcosa con questo sistema. L’azienda di tecnologia spaziale Satlyt lo sta utilizzando sui satelliti per diagnosticare i problemi in orbita, riducendo i ritardi e risparmiando energia. Un’altra, HeyGen, lo utilizza per tradurre video in oltre 180 lingue. Un esempio personale preferito è DocsHound. Lo usano per guardare i video dimostrativi dei prodotti e creare automaticamente la documentazione tecnica a partire da essi. Immagina quanto tempo si risparmia! Questo dimostra che Flash-Lite è più che in grado di gestire compiti complessi e reali. Se vuoi provare il modello Gemini 2.5 Flash-Lite, puoi iniziare a usarlo subito in Google AI Studio o Vertex AI. Tutto ciò che devi fare è specificare “gemini-2.5-flash-lite” nel tuo codice. Un rapido avvertimento: se stavi usando la versione di anteprima, assicurati di passare a questo nuovo nome prima del 25 agosto, perché quello vecchio sta per essere ritirato. Piuttosto che un altro aggiornamento del modello da parte di Google, Gemini 2.5 Flash-Lite abbassa la barriera d’ingresso in modo che molti di noi possano sperimentare e costruire cose utili senza bisogno di un budget enorme. Leggi di più su www.artificialintelligence-news.com
OpenAI e Oracle annunciano l’accordo per il centro dati Stargate AI

OpenAI ha stretto la mano con Oracle in un accordo colossale per portare avanti la colossale iniziativa del centro dati Stargate AI della prima. Una cosa è parlare della rivoluzione dell’IA in termini astratti, ma un’altra cosa è comprendere la portata fisica di ciò che si sta costruendo per realizzarla. Le fondamenta del nostro futuro dell’IA sono state gettate in cemento, acciaio e chilometri di cavi in fibra ottica, e queste fondamenta stanno diventando colossalmente più grandi. Insieme, OpenAI e Oracle costruiranno nuovi centri dati negli Stati Uniti con un hardware tale da consumare 4,5 gigawatt di potenza. È difficile esagerare con la quantità impressionante di energia: è il tipo di energia che potrebbe illuminare una grande città. E tutto questo sarà dedicato a una sola cosa: alimentare la prossima generazione di IA. Non si tratta di un’espansione casuale, ma di una parte importante del grande piano Stargate di OpenAI. L’obiettivo è semplice: costruire una potenza di calcolo sufficiente per portare l’IA avanzata a tutti. Se si aggiunge questo nuovo progetto al lavoro già in corso ad Abilene, in Texas, OpenAI sta sviluppando oltre 5 gigawatt di capacità del centro dati. Si tratta di uno spazio sufficiente a far funzionare più di due milioni di chip per computer tra i più potenti disponibili. Questa mossa dimostra la serietà dell’impegno preso alla Casa Bianca all’inizio dell’anno di investire mezzo trilione di dollari nell’infrastruttura AI degli Stati Uniti. In effetti, grazie all’impulso di partner come Oracle e la giapponese SoftBank, l’azienda prevede di superare l’obiettivo iniziale. Ma questa storia non riguarda solo i chip di silicio e gli accordi aziendali, bensì le persone. OpenAI ritiene che la costruzione e la gestione dei nuovi centri dati Stargate AI creerà oltre 100.000 posti di lavoro. Questa creazione di posti di lavoro rappresenta un’opportunità concreta per le famiglie di tutto il paese, dalle squadre di costruzione che versano il cemento, agli elettricisti specializzati che collegano i rack di server, fino ai tecnici a tempo pieno che manterranno in funzione questi cervelli digitali giorno e notte. Ad Abilene, la prima fase dello sviluppo dei centri dati Stargate di OpenAI è già in piena attività. Sono arrivati i primi camion di nuovissimi chip GB200 di Nvidia e i ricercatori di OpenAI li stanno già usando per vedere di cosa sono capaci i loro prossimi modelli di intelligenza artificiale. Naturalmente, un progetto così grande non è mai un gioco a due. Mentre Oracle sta aiutando a costruire la capacità fisica per l’iniziativa Stargate, OpenAI sta anche lavorando a stretto contatto con SoftBank per ripensare completamente il modo in cui i centri dati dell’IA dovrebbero essere progettati da zero. E non dimentichiamo Microsoft, che rimane il partner chiave per il cloud, fornendo l’impianto idraulico digitale che collega tutto insieme. Dietro il sipario, c’è uno sforzo industriale molto reale e molto umano in corso su una scala che raramente abbiamo visto prima. Ci ricorda che il nostro mondo digitale è costruito con grinta, ambizione e una quantità quasi incredibile (anche se preoccupante) di elettricità. Leggi di più su www.artificialintelligence-news.com
La competizione USA-Cina sull’intelligenza artificiale accelera con un massiccio finanziamento alle città

Il settore dell’intelligenza artificiale in Cina è entrato in una nuova fase, intensificando la competizione con gli Stati Uniti, mentre le megalopoli cinesi lanciano massicci programmi di sovvenzioni. Allo stesso tempo, le aziende nazionali sperano di ridurre la loro dipendenza dalla tecnologia statunitense. La posta in gioco va ben oltre la supremazia tecnologica: entrambe le nazioni considerano il dominio dell’IA un fattore critico per il futuro potere economico e strategico. L’investimento di Shanghai nell’IA da 139 milioni di dollari Shanghai ha presentato un ambizioso programma di sovvenzioni da un miliardo di yuan (139 milioni di dollari) per la sua industria dell’intelligenza artificiale, segnando l’ultimo episodio della corsa tecnologica che vede le principali città cinesi impegnate in una feroce competizione per il dominio dell’IA. Il pacchetto completo stanzia risorse in tre aree chiave: 600 milioni di yuan per sovvenzionare la potenza di calcolo, 300 milioni di yuan per sconti su modelli di IA di terze parti e 100 milioni di yuan per supportare le aziende nell’acquisizione di set di dati di formazione. Secondo i documenti rilasciati dalla Commissione municipale di Shanghai per l’economia e l’informatizzazione, il programma offre tassi di sovvenzione che vanno dal 10% al 100% del valore del contratto per le strutture di calcolo, i modelli di IA e i set di dati. La città prevede di offrire fino a 500 milioni di yuan a nuovi istituti di ricerca sull’IA, con finanziamenti garantiti per tre o cinque anni. “Uno dei vantaggi principali di Shanghai nello sviluppo dell’IA è il suo forte finanziamento”, ha dichiarato Pan Helin, membro di un comitato di esperti del Ministero dell’Industria e della Tecnologia dell’Informazione cinese. Tuttavia, Pan ha osservato che gli alti costi operativi di Shanghai spesso spingono le start-up di IA verso alternative più economiche come la vicina Hangzhou. La competizione a livello nazionale si riscalda L’iniziativa di Shanghai riflette un modello più ampio in Cina, dove le città competono in modo aggressivo per stabilire il dominio dell’IA in quella che è diventata un’intensa competizione tra città. Hangzhou è emersa come una rivale particolare, avendo annunciato l’anno scorso l’intenzione di distribuire 250 milioni di yuan in sussidi per la potenza di calcolo e di coltivare i suoi “sei piccoli draghi”, un insieme di note start-up cinesi, tra cui l’azienda di AI DeepSeek. La rivalità tra città si estende oltre Shanghai e Hangzhou: anche Shenzhen, Chengdu e Pechino hanno introdotto misure di sostegno simili. Questa situazione dimostra come l’intelligenza artificiale sia diventata una priorità strategica a più livelli del governo cinese: la competizione interna sull’AI in Cina. La strategia di Trump sull’intelligenza artificiale mantiene la pressione La tempistica dell’annuncio di Shanghai coincide con il piano d’azione globale sull’intelligenza artificiale dell’amministrazione Trump, presentato il 23 luglio. La strategia di 28 pagine mantiene strette restrizioni sulle tecnologie chiave e accelera la deregolamentazione e il sostegno alle infrastrutture per le aziende statunitensi che operano nel settore dell’IA. Donald Trump ha descritto il piano come “una politica degli Stati Uniti per fare tutto il necessario per guidare il mondo nell’intelligenza artificiale”, sottolineando l’intenzione dell’America di diventare una “centrale di esportazione dell’IA” e di mantenere le protezioni per la sicurezza nazionale. Il piano incarica il Dipartimento del Commercio degli Stati Uniti di colmare le lacune nelle attuali restrizioni all’esportazione, di potenziare la supervisione degli utenti finali all’estero e di studiare strumenti di geolocalizzazione per bloccare l’accesso a “paesi problematici” come la Cina. La strategia di autosufficienza della Cina mostra i suoi risultati Nonostante le restrizioni degli Stati Uniti, gli analisti prevedono una crescita significativa per l’industria cinese dell’intelligenza artificiale. Gli analisti di Bernstein, guidati da Lin Qingyuan, prevedono che i chip nazionali conquisteranno il 55% del mercato cinese degli acceleratori di IA entro il 2027, con un incremento notevole rispetto al 17% del 2023. “I controlli sulle esportazioni hanno creato un’opportunità unica per i fornitori di chip AI nazionali, in quanto non competono con le alternative globali più avanzate”, si legge nella nota di ricerca di Bernstein. La crescita riflette i continui progressi tecnologici: le aziende cinesi sono sempre più in grado di eguagliare le prestazioni dei chip declassativenduti in Cina. L’Ascend 910C di Huawei raggiunge ora circa il 65% della capacità del supremo H100 di Nvidia, anche se la sua potenza di calcolo rimane limitata dalla mancanza di compatibilità diretta con la piattaforma software CUDA di Nvidia. Implicazioni geopolitiche e prospettive future Bo Zhengyuan di Plenum, una piattaforma di ricerca indipendente incentrata sulla Cina, sostiene che l’approccio di Trump rappresenta un passaggio dalla strategia di contenimento di Biden a una competizione più diretta. “Finora, il ‘cortile’ non è diventato più piccolo”, ha osservato Bo, secondo un articolo del South China Morning Post, riferendosi alla portata del controllo delle esportazioni. “Ciò che è diverso è la retorica: ora è più un testa a testa che un contenimento” La competizione sull’intelligenza artificiale tra Cina e Stati Uniti sembra destinata a intensificarsi ulteriormente, tanto che alla Conferenza Mondiale sull’Intelligenza Artificiale di Shanghai, il premier Li Qiang ha chiesto una cooperazione internazionale per garantire che l’intelligenza artificiale non diventi un “gioco esclusivo” accessibile solo a pochi eletti, un chiaro riferimento alle restrizioni statunitensi. Tuttavia, né le pressioni degli Stati Uniti né le sovvenzioni cinesi garantiscono un chiaro vincitore in questa corsa tecnologica. “L’IA non è qualcosa che si può costruire da un giorno all’altro solo grazie al sostegno della politica: è un gioco lungo che si basa sull’ingegneria, sul talento e sulle infrastrutture”, ha detto Bo. Dato che le risorse di dati, gli algoritmi e i talenti di IA della Cina rimangono competitivi rispetto agli Stati Uniti nonostante le restrizioni sui chip, l’esito di questa competizione tecnologica potrebbe dipendere da quale approccio – le restrizioni tecnologiche americane o gli investimenti autonomi cinesi – si dimostri più efficace nel guidare l’innovazione. “Non ci sarà un chiaro vincitore o un perdente nel prossimo decennio”, ha concluso Bo, suggerendo che questa rivalità tecnologica definirà il panorama dell’IA per gli anni a venire. Leggi di più su www.artificialintelligence-news.com
Mistral AI offre a Le Chat strumenti di riconoscimento vocale e di ricerca approfondita

Mistral AI ha aggiornato Le Chat con il riconoscimento vocale, strumenti di ricerca approfondita e altre funzionalità per rendere il chatbot un assistente più utile. L’azienda ritiene che i migliori assistenti AI debbano aiutarti ad approfondire i tuoi pensieri e a mantenere il flusso della conversazione. Come dice Mistral AI, i chatbot danno il meglio di sé quando “ti permettono di approfondire i tuoi pensieri, di mantenere la conversazione fluida e di mantenere la continuità contestuale” Una caratteristica di spicco, anche se in qualche modo in ritardo rispetto ai rivali, è la modalità “Ricerca profonda”. Pensa di trasformare Le Chat nel tuo assistente di ricerca personale. Quando fai una domanda complessa, lo strumento di Ricerca Approfondita la scompone, trova fonti credibili e costruisce un rapporto strutturato con riferimenti, rendendolo facile da seguire. Mistral lo ha progettato per darti la sensazione di lavorare con un partner altamente organizzato, che ti aiuta ad affrontare qualsiasi cosa, dalle tendenze del mercato agli argomenti scientifici. Se preferisci parlare piuttosto che digitare, la nuova modalità “Vocal” fa al caso tuo. Alimentata dal nuovo e potente modello vocale di Mistral AI chiamato Voxtral, la modalità Vocal permette di conversare in modo naturale e a bassa latenza, il che significa che puoi parlare con Le Chat senza pause imbarazzanti. Mistral dice che è perfetta per fare brainstorming durante una passeggiata, per ottenere risposte rapide quando hai le mani occupate o per trascrivere una riunione. Per le domande davvero complesse di Le Chat, la modalità “Think” sfrutta il modello di ragionamento di Mistral AI, Magistral, per fornire risposte chiare e ponderate. Una delle caratteristiche più impressionanti della modalità Think è la capacità multilingue nativa. Puoi redigere una proposta in spagnolo, esplorare un concetto legale in giapponese o semplicemente riflettere su un’idea nella lingua che ti sembra più comoda. Le Chat può anche passare da una lingua all’altra a metà frase. Per aiutarti a rimanere organizzato, la nuova funzione “Progetti” ti permette di raggruppare le chat correlate in cartelle mirate. Ogni progetto ricorda le tue impostazioni e conserva tutte le conversazioni, i file caricati e le idee in un unico spazio ordinato. Potrebbe diventare l’area perfetta per gestire qualsiasi cosa, dalla pianificazione di un trasloco al monitoraggio di un progetto di lavoro a lungo termine. Infine, grazie alla collaborazione tra Mistral AI e Black Forest Labs, Le Chat ora include l’editing avanzato delle immagini. Ciò significa che puoi creare un’immagine e poi perfezionarla con semplici comandi come “rimuovi l’oggetto” o “collocami in un’altra città”. A differenza dei tipici strumenti text-to-image, puoi creare e poi modificare le tue immagini con semplici comandi come “rimuovi l’oggetto” o “collocami in un’altra città” e il modello trasforma la scena preservando i personaggi e i dettagli. È l’ideale per apportare modifiche coerenti… pic.twitter.com/JmveDlQCzv – Sophia Yang, Ph.D. (@sophiamyang) 17 luglio 2025 Tutte queste nuove funzionalità sono disponibili da oggi in Le Chat sul web o scaricando l’applicazione per dispositivi mobili. Vedi anche: Contratti di AI militare assegnati ad Anthropic, OpenAI, Google e xAI Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge in programma qui. Leggi di più su www.artificialintelligence-news.com
Velocità e sicurezza possono davvero coesistere nella corsa all’intelligenza artificiale?

Una critica sulla sicurezza dell’IA da parte di un ricercatore di OpenAI rivolta a un rivale ha aperto una finestra sulla lotta del settore: una battaglia contro se stesso. Il tutto è iniziato con un avvertimento da parte di Boaz Barak, un professore di Harvard attualmente in congedo che si occupa di sicurezza presso OpenAI. Ha definito il lancio del modello Grok di xAI “completamente irresponsabile”, non per le sue buffonate da prima pagina, ma per ciò che mancava: una scheda di sistema pubblica, valutazioni di sicurezza dettagliate, gli artefatti di base della trasparenza che sono diventati la fragile norma. Era un appello chiaro e necessario. Ma una candida riflessione, pubblicata appena tre settimane dopo aver lasciato l’azienda, dall’ex ingegnere di OpenAI Calvin French-Owen, ci mostra l’altra metà della storia. Il racconto di French-Owen suggerisce che un gran numero di persone di OpenAI sta effettivamente lavorando sulla sicurezza, concentrandosi su minacce molto reali come l’incitamento all’odio, le armi biologiche e l’autolesionismo. Tuttavia, egli ci dice: “La maggior parte del lavoro svolto non viene pubblicato”, ha scritto, aggiungendo che OpenAI “dovrebbe davvero fare di più per farlo conoscere” In questo caso, la semplice narrazione di un attore buono che rimprovera uno cattivo crolla. Al suo posto, vediamo il vero dilemma del settore messo a nudo. L’intero settore dell’IA è intrappolato nel “paradosso sicurezza-velocità”, un conflitto profondo e strutturale tra la necessità di muoversi a rotta di collo per competere e l’esigenza morale di muoversi con cautela per tutelare la nostra sicurezza. French-Owen suggerisce che OpenAI si trova in uno stato di caos controllato, avendo triplicato il suo organico fino a oltre 3.000 persone in un solo anno, dove “tutto si rompe quando si scala così rapidamente” Questa energia caotica è incanalata dall’immensa pressione di una “corsa a tre cavalli” verso l’AGI contro Google e Anthropic. Il risultato è una cultura di incredibile velocità, ma anche di segretezza. Considera la creazione di Codex, l’agente di codifica di OpenAI. French-Owen definisce il progetto un “mad-dash sprint”, in cui un piccolo team ha costruito un prodotto rivoluzionario da zero in sole sette settimane. Si tratta di un esempio di velocità da manuale; la descrizione del lavoro fino a mezzanotte e anche nei weekend per realizzarlo. Questo è il costo umano della velocità. In un ambiente che si muove così velocemente, c’è da meravigliarsi se il lento e metodico lavoro di pubblicazione della ricerca sulla sicurezza dell’intelligenza artificiale sembra una distrazione dalla corsa? Questo paradosso non nasce dalla cattiveria, ma da un insieme di forze potenti e interconnesse. C’è l’ovvia pressione competitiva per essere i primi. C’è anche il DNA culturale di questi laboratori, che sono nati come gruppi sciolti di “scienziati e armeggiatori” e che hanno preferito le scoperte ai processi metodici. E c’è un semplice problema di misurazione: è facile quantificare la velocità e le prestazioni, ma è eccezionalmente difficile quantificare un disastro che è stato evitato con successo. Nei consigli di amministrazione di oggi, le metriche visibili della velocità saranno quasi sempre più forti dei successi invisibili della sicurezza. Tuttavia, per progredire, non basta puntare il dito: bisogna cambiare le regole fondamentali del gioco. Dobbiamo ridefinire il significato di spedizione di un prodotto, rendendo la pubblicazione di un caso di sicurezza parte integrante del codice stesso. Abbiamo bisogno di standard a livello industriale che impediscano a una singola azienda di essere punita a livello competitivo per la sua diligenza, trasformando la sicurezza da una caratteristica a una base condivisa e non negoziabile. Tuttavia, soprattutto, dobbiamo coltivare una cultura all’interno dei laboratori di intelligenza artificiale in cui ogni ingegnere – non solo il reparto sicurezza – senta un senso di responsabilità. La corsa alla creazione dell’Intelligenza Artificiale non riguarda chi arriva prima, ma il modo in cui arriviamo. Il vero vincitore non sarà l’azienda che sarà semplicemente la più veloce, ma quella che dimostrerà a un mondo che ci guarda che l’ambizione e la responsabilità possono e devono avanzare insieme. (Foto di Olu Olamigoke Jr.) Leggi di più su www.artificialintelligence-news.com
Come utilizzare l’intelligenza artificiale per avviare un’attività online

Quasi tutte le attività commerciali online sono ormai legate all’intelligenza artificiale. Una ricerca del 2025 mostra che il 78% delle aziende di tutto il mondo utilizza l’intelligenza artificiale per almeno un’area di business. Le aziende più piccole ne fanno un uso maggiore, con l’89% che dichiara di utilizzare l’intelligenza artificiale ogni giorno. Oltre 280 milioni di aziende in tutto il mondo gestiscono almeno uno strumento di IA e molte lo utilizzano in media per tre funzioni diverse. Negli Stati Uniti, gli investimenti privati nell’intelligenza artificiale hanno raggiunto i 109,1 miliardi di dollari nel 2025. Le piattaforme di intelligenza artificiale possono gestire molte parti ripetitive o che richiedono tempo nella creazione e nella gestione di un’azienda. Ecco come le utilizzano i nuovi fondatori: Automatizzazione di attività come la fatturazione, le e-mail e l’evasione degli ordini Generazione di descrizioni dei prodotti, contenuti di marketing e blog Fornire assistenza tramite chatbot e sistemi di helpdesk Gestione dei dati relativi ai clienti e alle vendite, in modo che i proprietari possano capire dove migliorare Ottimizzare i contenuti del negozio online per migliorare il posizionamento sui motori di ricerca Automatizzare le operazioni e ridurre i costi Suite di automazione come Zapier AI e Make si integrano negli strumenti del negozio online, nelle piattaforme di posta elettronica e nei sistemi di marketing. Permettono ai fondatori di impostare dei trigger per le azioni. Ad esempio, un nuovo ordine nel negozio può avviare un flusso di lavoro: inviare una conferma, registrare la vendita e aggiornare l’inventario. Il proprietario non deve toccare nulla. Questo riduce il lavoro manuale, velocizza le attività e può ridurre i costi. Anche il marketing e l’analisi delle e-mail funzionano meglio con l’intelligenza artificiale. Mailchimp AI e Klaviyo sono in grado di prevedere quali sono le email che ogni cliente ha più probabilità di aprire. Gli strumenti inviano quindi i messaggi nei momenti migliori e segmentano gli utenti in base a ciò che vogliono leggere. SurferSEO e SEMrush aiutano nella ricerca di parole chiave e nell’ottimizzazione dei contenuti. I fondatori possono attirare più visitatori seguendo la strategia consigliata. Studi recenti dimostrano che le aziende che utilizzano l’intelligenza artificiale nel marketing e nelle vendite ottengono fino al 50% di contatti in più, spendono il 60% di tempo in meno per ogni chiamata di vendita e riducono i costi complessivi fino al 60%. Per quanto riguarda l’email marketing, il 41% dei marketer ha dichiarato di guadagnare di più quando utilizza l’intelligenza artificiale. I generatori di contenuti semplificano la pubblicazione Le piattaforme di contenuti AI come Jasper, Copy.ai e Gemini possono scrivere pagine di prodotti, annunci e guide in pochi minuti. I proprietari dei negozi non hanno bisogno di assumere un grande team di scrittura o di passare ore a creare nuovi articoli. Queste piattaforme utilizzano le informazioni fornite dal fondatore per scrivere contenuti basati su parole chiave, tono del marchio o domande mirate. Un marchio di prodotti per la cura della pelle ha aumentato il suo fatturato da 100.000 a 2.000.000 di dollari utilizzando Jasper AI per le descrizioni dei prodotti, i contenuti del blog e i testi delle e-mail, insieme a SurferSEO per la crescita delle ricerche. L’azienda ha pubblicato il triplo dei contenuti e ha ridotto i costi di oltre il 75%. Molti fondatori si affidano anche a strumenti di assistenza generati dall’AI. ChatGPT, Gemini e Intercom sono in grado di rispondere alle domande più comuni dei clienti, di elaborare i rimborsi o di consigliare i prodotti in base agli ordini precedenti dell’acquirente. In questo modo i tempi di risposta sono rapidi e il titolare dell’azienda può concentrarsi su altre attività. Dalla ricerca di mercato al lancio: Un passo dopo l’altro per utilizzare i suggerimenti I proprietari utilizzano l’intelligenza artificiale durante tutto il processo aziendale. Ecco alcuni esempi pratici di suggerimenti utilizzati da fondatori di successo: Trova un’idea di business: Chiedi all’IA di suggerire nuove idee di business in base alle vendite su Amazon. Ad esempio: “Suggerisci dieci idee di business online basate sugli attuali bestseller e sulle dimensioni di questi mercati” Convalida l’interesse: Chiedi all’intelligenza artificiale di leggere le recensioni a una stella e di riassumere ciò di cui le persone si lamentano nella tua categoria di prodotti. Scrivi un business plan: Chiedi: “Crea un piano di una pagina per un’applicazione di fitness in abbonamento per i Millennials. Includi le caratteristiche principali, i prezzi e il piano di lancio” Crea contenuti: Richiedi: “Scrivi un post sul blog di 500 parole sull’IA nell’ecommerce, terminando con un’offerta di iscrizione alla newsletter” Accogliere i clienti: Utilizza: “Scrivi dieci email di onboarding per le persone che hanno acquistato uno strumento di produttività. Rispondi alle domande più probabili e offri link di supporto” Scegliere gli strumenti giusti per ogni fase Quando si avvia un’attività online, è comune testare diversi strumenti uno accanto all’altro. Ad esempio, qualcuno potrebbe utilizzare Jasper per scrivere le pagine dei prodotti, SurferSEO o SEMrush per regolare le parole chiave e le piattaforme di AI Website Builder per creare rapidamente le vetrine. Molte persone provano diverse opzioni prima di trovare quella che funziona per i loro obiettivi. Alcuni fondatori mescolano anche soluzioni di AI uniche, come Gemini per gli articoli del blog o Tableau Pulse per l’analisi delle fasi iniziali. Provare una serie di strumenti fin dall’inizio ti aiuta a costruire un processo adatto alle tue esigenze, al tuo budget e alle tue competenze. Casi di studio di piccoli team che utilizzano strumenti di AI Le piccole imprese e i fondatori solitari ottengono un vantaggio dall’IA. Un fondatore di SaaS ha creato un’applicazione di nicchia utilizzando ChatGPT per le domande dei clienti e Notion AI per le guide automatiche. Gemini ha scritto le landing page. Questo proprietario ha offerto assistenza 24 ore su 24 e contenuti come i rivali più grandi, il tutto senza assumere un grande staff. Un’agenzia di marketing digitale è passata all’intelligenza artificiale per la gestione dei progetti, utilizzando Make per l’automazione, ChatGPT per le idee e i report delle campagne e i bot di analisi per i dati delle campagne in
Tencent migliora il test dei modelli di AI creativa con un nuovo benchmark

Tencent ha introdotto un nuovo benchmark, ArtifactsBench, che mira a risolvere gli attuali problemi di test dei modelli di intelligenza artificiale creativa. Ti è mai capitato di chiedere a un’intelligenza artificiale di costruire qualcosa come una semplice pagina web o un grafico e di ricevere qualcosa che funziona ma che ha un’esperienza utente scadente? I pulsanti potrebbero essere nel posto sbagliato, i colori potrebbero stonare o le animazioni risulterebbero goffe. È un problema comune e mette in luce un’enorme sfida nel mondo dello sviluppo dell’intelligenza artificiale: come insegnare a una macchina ad avere buon gusto? Per molto tempo abbiamo testato i modelli di IA sulla loro capacità di scrivere codice funzionalmente corretto. Questi test potevano confermare l’esecuzione del codice, ma erano completamente “ciechi rispetto alla fedeltà visiva e all’integrità interattiva che definiscono le moderne esperienze utente” Questo è l’esatto problema che ArtifactsBench è stato progettato per risolvere. Non si tratta tanto di un test quanto di un critico d’arte automatizzato per il codice generato dall’intelligenza artificiale 🚀Emozionato di presentare #ArtifactsBench! Stiamo colmando il divario visivo-interattivo nella valutazione della generazione di codice. Il nostro benchmark utilizza una nuova pipeline automatizzata e multimodale per valutare gli LLM su 1.825 compiti diversi. Un MLLM-as-Judge valuta gli artefatti visivi, ottenendo un ranking del 94,4%… pic.twitter.com/84xClcnNyS – Hunyuan (@TencentHunyuan) 9 luglio 2025 Come dovrebbe fare un essere umano Come funziona il benchmark AI di Tencent? Innanzitutto, a un’intelligenza artificiale viene assegnato un compito creativo da un catalogo di oltre 1.800 sfide, dalla creazione di visualizzazioni di dati e applicazioni web alla realizzazione di mini-giochi interattivi. Una volta che l’IA genera il codice, ArtifactsBench si mette al lavoro. Costruisce ed esegue automaticamente il codice in un ambiente sicuro e protetto. Per vedere come si comporta l’applicazione, cattura una serie di screenshot nel tempo. In questo modo può verificare la presenza di elementi come le animazioni, i cambiamenti di stato dopo il clic di un pulsante e altri feedback dinamici dell’utente. Infine, consegna tutte queste prove – la richiesta originale, il codice dell’intelligenza artificiale e gli screenshot – a un LLM multimodale (MLLM), che funge da giudice. Questo giudice MLLM non si limita a dare un’opinione vaga, ma utilizza una lista di controllo dettagliata per ogni attività per assegnare un punteggio al risultato in base a dieci diverse metriche. Il punteggio include la funzionalità, l’esperienza utente e persino la qualità estetica. Questo garantisce che il punteggio sia equo, coerente e completo. La domanda principale è: questo giudice automatico ha davvero buon gusto? I risultati suggeriscono di sì. Quando le classifiche di ArtifactsBench sono state confrontate con quelle di WebDev Arena, la piattaforma di riferimento in cui gli esseri umani votano le migliori creazioni dell’intelligenza artificiale, hanno ottenuto una coerenza del 94,4%. Si tratta di un enorme balzo in avanti rispetto ai vecchi benchmark automatizzati, che raggiungevano solo il 69,4% di coerenza. Inoltre, i giudizi del framework hanno mostrato un accordo superiore al 90% con gli sviluppatori umani professionisti. Tencent valuta la creatività dei migliori modelli di IA con il suo nuovo benchmark Quando Tencent ha messo alla prova più di 30 dei migliori modelli di IA del mondo, la classifica è stata rivelatrice. Mentre i modelli commerciali di Google(Gemini-2.5-Pro) e Anthropic(Claude 4.0-Sonnet) hanno conquistato la vetta della classifica, i test hanno portato alla luce un aspetto affascinante. Si potrebbe pensare che un’intelligenza artificiale specializzata nella scrittura di codice sia la migliore in questi compiti. Ma è vero il contrario. La ricerca ha scoperto che “le capacità olistiche dei modelli generalisti spesso superano quelle dei modelli specializzati” Un modello generico, Qwen-2.5-Instruct, ha effettivamente battuto i suoi fratelli più specializzati, Qwen-2.5-coder (un modello specifico per il codice) e Qwen2.5-VL (un modello specializzato nella visione). I ricercatori ritengono che questo sia dovuto al fatto che la creazione di un’ottima applicazione visiva non si basa solo sulla codifica o sulla comprensione visiva in modo isolato, ma richiede un mix di competenze. “Ragionamento robusto, seguire le istruzioni in modo sfumato e un senso implicito dell’estetica del design”, sottolineano i ricercatori, sono abilità vitali. Si tratta di abilità a tutto tondo, quasi simili a quelle umane, che i migliori modelli generalisti stanno iniziando a sviluppare. Tencent spera che il benchmark ArtifactsBench possa valutare in modo affidabile queste qualità e quindi misurare i progressi futuri nella capacità dell’IA di creare oggetti che non siano solo funzionali, ma che gli utenti vogliano effettivamente utilizzare. Leggi di più su www.artificialintelligence-news.com
Apple perde un importante leader AI a favore di Meta

Questa settimana Apple ha subito una nuova ferita dopo aver perso uno dei suoi leader più importanti nel campo dell’intelligenza artificiale a favore di Meta. Ruoming Pang, il dirigente che supervisionava Apple Intelligence, ha abbandonato la nave per unirsi ai nuovi Superintelligence Labs di Meta. Pang non era un dipendente Apple qualsiasi. Ha guidato un esercito di 100 ingegneri che hanno creato i modelli linguistici che permettono al tuo iPhone di riassumere i testi, generare le Genmoji e dare priorità alle notifiche. Ora ha lasciato l’astronave di Apple Park per la sede di Meta a Menlo Park, diventando l’ultimo grande nome a rispondere alla chiamata di Mark Zuckerberg. La partenza del dirigente di spicco è un duro colpo per un’azienda che sta cercando di dimostrare di essere in grado di giocare in serie A con l’intelligenza artificiale. Il momento non potrebbe essere peggiore. Solo il mese scorso, il braccio destro di Pang, Tom Gunter, aveva già fatto le valigie e se ne era andato. La partenza di Pang è stata riportata da Bloomberg e le fonti dell’agenzia suggeriscono che Apple sta perdendo il talento di cui ha disperatamente bisogno. Apple ha passato anni a costruire le sue capacità di intelligenza artificiale, concentrandosi sull’approccio privacy-first che dovrebbe essere la sua salsa segreta. Tuttavia, molti ritengono che questa attenzione abbia portato l’azienda a rimanere indietro nel campo dell’intelligenza artificiale, con molte funzioni di Apple Intelligence ancora da lanciare. L’emorragia di talenti non aiuterà gli sforzi per recuperare il ritardo. La diplomazia del libretto degli assegni di Meta per i talenti dell’AI Nel frattempo, Meta sta giocando all’acquisizione di talenti come un club di Premier League durante la stagione dei trasferimenti. Si dice che stia lanciando bonus di ingaggio che farebbero arrossire anche un calciatore e, francamente, sta funzionando. Dallo scorso aprile si susseguono le voci sulla corsa agli acquisti di Meta nei dipartimenti di intelligenza artificiale della Silicon Valley. Apple non è stato l’unico obiettivo: anche i talenti di OpenAI e Google hanno ricevuto offerte allettanti, mentre le aziende più importanti lottano per reclutare (e trattenere) competenze. Non si tratta di un’azione sottile e certamente non è economica. I critici la definiscono una manipolazione del mercato, ma i risultati non si discutono. Meta è riuscita ad accaparrarsi alcune delle menti più brillanti nel campo dell’intelligenza artificiale, tutte al servizio della sua grandiosa visione dell’intelligenza artificiale generale. La creazione dei Superintelligence Labs non è una semplice ristrutturazione aziendale, ma una dichiarazione di guerra. Meta sta essenzialmente dichiarando di voler affrontare OpenAI e DeepMind di Google, e lo sta sostenendo con denaro contante. Quei 14,3 miliardi di dollari che hanno investito in Scale AI? Non sono soldi per giocare, ma una dichiarazione di intenti. Alla Apple, l’atmosfera non è esattamente celebrativa. Le fonti parlano di team che si sentono un po’ senza timone e si chiedono se l’azienda sappia davvero dove vuole arrivare con l’IA. Si tratta di una situazione ben lontana dalla Apple fiduciosa a cui molti sono abituati. L’attuale affidamento a OpenAI per le funzioni chiave dell’intelligenza di Apple ha apparentemente fatto arrabbiare alcune persone all’interno dell’azienda. È sempre più diffusa la sensazione che Apple stia diventando troppo dipendente dalle innovazioni altrui piuttosto che preparare le proprie scoperte. Per un’azienda che ha costruito la sua reputazione sul fare le cose in modo diverso, questo deve far male. Implicazioni più ampie per il settore dell’intelligenza artificiale Il movimento di talenti tra le principali aziende tecnologiche riflette la natura competitiva del panorama dell’IA. Mentre le aziende corrono per sviluppare sistemi di IA sempre più sofisticati, il reclutamento e il mantenimento di talenti di ricerca di alto livello è diventato un vantaggio competitivo vitale. Il successo di Meta nell’attrarre personale da Apple, Google e OpenAI dimostra l’impegno dell’azienda nella leadership dell’IA e la sua volontà di investire in modo sostanziale nel capitale umano. La creazione dei Superintelligence Labs, unita alle acquisizioni strategiche e alle assunzioni aggressive, garantisce a Meta di rimanere una forza formidabile nella corsa all’intelligenza artificiale generale. Per Apple, la sfida va oltre la semplice sostituzione del personale in partenza. L’azienda deve affrontare questioni strategiche di fondo sulla direzione dell’intelligenza artificiale e allo stesso tempo competere per i talenti in un mercato sempre più costoso e competitivo. Il successo delle funzionalità di Apple Intelligence dipenderà probabilmente dalla capacità dell’azienda di mantenere le proprie capacità tecniche e di sviluppare al contempo una visione chiara del proprio futuro nell’ambito dell’IA. Mentre Meta continua a consolidare i talenti dell’IA e Apple è alle prese con le sfide strategiche, i risultati determineranno probabilmente quali aziende emergeranno come leader nella prossima fase dell’evoluzione tecnologica. (Foto di Garin Chadwick) Leggi di più su www.artificialintelligence-news.com
