ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Come l’adozione dell’intelligenza artificiale sta spostando le operazioni IT da reattive a proattive

Come l'adozione dell'intelligenza artificiale sta spostando le operazioni IT da reattive a proattive

I CIO vogliono risolvere i problemi IT più velocemente senza aumentare l’organico e molti vedono nell’adozione dell’AI la soluzione per le loro operazioni. Per anni hanno utilizzato strumenti come l’automazione e i portali di auto-aiuto per risolvere i problemi, in modo che i loro team potessero risolverli rapidamente. Ora l’intelligenza artificiale sta entrando in gioco e molte aziende stanno cercando di utilizzarla per l’assistenza IT. Si è fatto un gran parlare, ma i leader vogliono avere la prova che funziona davvero. SolarWinds ha analizzato i risultati di questi nuovi strumenti. L’azienda ha analizzato una serie di informazioni provenienti da oltre 2.000 sistemi IT e 60.000 dati raccolti nell’arco di un anno, da agosto 2024 a luglio 2025. Per il loro studio, SolarWinds ha controllato gli strumenti di intelligenza artificiale che dovrebbero rendere le cose più facili, come suggerire automaticamente le risposte ai ticket, trovare articoli utili e fare sintesi dei problemi. I risultati danno una buona idea di quanto le aziende possano diventare più efficienti. Quanto l’AI rende più efficienti le operazioni IT? L’aspetto principale rilevato dal rapporto è che, dopo l’utilizzo dell’IA, le aziende impiegano molto meno tempo per risolvere un problema informatico. Prima dell’IA, ci volevano circa 27,42 ore per risolvere un problema. Dopo, il tempo è sceso a 22,55 ore. Si tratta di una velocità del 17,8%, con un risparmio di circa 4,87 ore per problema. In questo modo i team IT possono dedicare più tempo alle cose più importanti, invece di rimanere impantanati nei problemi quotidiani. Questo può far risparmiare alle aziende un sacco di soldi. Il rapporto parla di un team IT di medie dimensioni che gestisce 5.000 problemi all’anno. Risparmiando circa 4,87 ore per ognuno di essi, si recuperano 24.350 ore di lavoro all’anno. Se consideri che un addetto all’help desk costa 28 dollari l’ora, questo equivale a un risparmio di oltre 680.000 dollari. Ma non si tratta solo di risparmiare denaro. Secondo il rapporto, l’IT può utilizzare questo tempo per lavorare su progetti importanti e risolvere i problemi prima che si verifichino. In questo modo l’IT non si limita a risolvere i problemi, ma aiuta l’azienda a migliorare. Il rapporto mostra anche che c’è una grande differenza tra le aziende che utilizzano l’IA e quelle che non la utilizzano. Le aziende che utilizzano l’intelligenza artificiale risolvono i ticket in circa 22,55 ore, mentre le altre impiegano circa 32,46 ore. Si tratta di una differenza del 30,5%, che significa quasi 10 ore risparmiate per ogni problema per chi utilizza l’IA. Tuttavia, non si tratta solo dell’IA Il rapporto chiarisce che l’IA non è una soluzione magica per le operazioni IT. Funziona solo se si dispone di processi validi e se si è pronti ad apportare cambiamenti più ampi a livello aziendale. L’esempio migliore è il gruppo chiamato “Top 10 AI Adopters”. Queste dieci aziende si sono distinte per aver ridotto maggiormente i tempi di risoluzione dei problemi. Sono passate da circa 51 ore a 23 ore, ovvero più della metà del tempo risparmiato. Il loro segreto non era un software speciale, ma il modo in cui lo utilizzavano. Queste aziende hanno tutte una cosa in comune: non si sono limitate a provare l’intelligenza artificiale come progetto secondario. L’hanno resa parte integrante del loro lavoro quotidiano per risolvere i problemi. Il rapporto dice che l’IA funziona meglio quando si apportano modifiche ai processi e si è disposti a migliorare le cose. Il rapporto dice anche che è utile avere una cultura che già si occupa di cose come i portali self-service e l’automazione. Questi team stanno già cercando di rendere i loro desk di assistenza forti e pronti a tutto. L’intelligenza artificiale funziona meglio quando si dispone di questi elementi. Cosa fare se sei tu il responsabile Il rapporto di SolarWinds dimostra che l’IA per le operazioni di assistenza IT non è solo una possibilità, ma può funzionare davvero. Ridurre i tempi di risoluzione di quasi il 18% è una grande opportunità per i leader. Ecco cosa dovrebbero fare: Guarda a che punto sei: Prima di spendere soldi, scopri quanto tempo ci vuole per risolvere i problemi. Il rapporto dice che la media per le aziende che non utilizzano l’AI è di circa 32,46 ore. Conoscere il tuo numero ti aiuta a decidere se ne vale la pena. Fai in modo che faccia parte del lavoro: I migliori utenti dimostrano che è meglio utilizzare l’IA tutti i giorni piuttosto che provarla solo in via sperimentale. Questo significa modificare il tuo modo di lavorare e concentrarti sul miglioramento delle cose. L’IA è uno strumento, non un miracolo: L’IA può davvero aiutare a velocizzare le cose, soprattutto se hai già delle buone pratiche IT. Controlla la tua base di conoscenze e le regole di automazione. L’IA funziona meglio quando hai dei processi chiari. Calcola quanto puoi risparmiare: Il report offre un modo semplice per mostrare al tuo team quanto tempo e denaro l’IA può far risparmiare. Basta moltiplicare il numero di incidenti che si verificano ogni anno per il risparmio medio di 4,87 ore. Questo ti dà un’idea chiara di quanto puoi essere più efficiente. La differenza tra le aziende che utilizzano l’IA e quelle che non la utilizzano sta crescendo. I leader devono impostare le loro operazioni in modo da poter utilizzare l’IA per aiutare l’IT a diventare un vero e proprio partner del successo dell’azienda. Leggi di più su www.artificialintelligence-news.com

Meta sta testando gli annunci skippabili sulle bobine di Instagram, prendendo in prestito il manuale di YouTube

Meta sta testando gli annunci skippabili sulle bobine di Instagram, prendendo in prestito il manuale di YouTube

Meta ha confermato ad ADWEEK che Instagram sta testando la possibilità di saltare gli annunci all’interno di Reels, dando agli utenti l’opzione di saltare e passare oltre un annuncio durante lo scorrimento. In tre posizionamenti pubblicitari individuati da ADWEEK durante lo scorrimento di Reels nell’ultimo mese, Instagram ha visualizzato un timer per il conto alla rovescia nell’angolo in alto a destra dello schermo per segnalare un annuncio in arrivo. Il timer del conto alla rovescia era seguito da un annuncio con un pulsante “salta” che permetteva agli spettatori di ignorarlo, reindirizzandoli all’inizio del Reel. La mossa riprende il popolare formato di annunci in-stream di YouTube che permette di saltare gli annunci video che appaiono durante il contenuto. Un portavoce di Meta ha confermato che l’azienda sta testando il formato degli annunci, aggiungendo che il test limitato è stato progettato per valutare se il formato aiuta gli utenti a scoprire le aziende. Il portavoce ha aggiunto che Meta non intende condividere i ricavi degli annunci con i creatori, a differenza di quanto fa YouTube. I budget dei social ricevono una spinta Gli annunci skippabili rappresentano un’importante prova di come Meta stia cercando di aumentare la monetizzazione, bilanciando al contempo l’esperienza dell’utente. Instagram vende anche post sponsorizzati e annunci tra i Reel, compresa una “pausa pubblicitaria” non skippabile introdotta lo scorso anno. La mossa di Meta arriva nel momento in cui gli inserzionisti stanno destinando budget maggiori ai social media. Secondo il CMO Spend Survey 2025 di Gartner, gli inserzionisti destinano in media il 30,6% del loro budget totale ai media a pagamento, con un aumento del 10% rispetto all’anno precedente. I social media si sono classificati come il secondo canale digitale per spesa pubblicitaria. “Instagram ha un’intenzione di acquisto più alta come piattaforma rispetto a Facebook e YouTube”, ha dichiarato Greg Carlucci, senior director e analista di Gartner. “Tutti i formati pubblicitari che cercano di testare e imparare trarranno vantaggio dall’imparare a implementare il social commerce e i tipi di formati pubblicitari che si adattano alle preferenze dei clienti” Gli annunci non skippabili hanno tradizionalmente un prezzo maggiorato perché garantiscono agli inserzionisti una visione completa, ha detto Carlucci. I formati skippabili potrebbero aiutare Meta a raccogliere nuovi segnali di coinvolgimento senza sovraccaricare gli utenti, piuttosto che far guadagnare subito più soldi agli annunci. Leggi di più su www.adweek.com

Modello di intelligenza artificiale da un trilione di parametri: Il lancio del Ling-1T di Ant Group

Modello di intelligenza artificiale da un trilione di parametri: Il lancio del Ling-1T di Ant Group

Ant Group ha fatto il suo ingresso nell’arena dei modelli di intelligenza artificiale da un trilione di parametri con Ling-1T, un nuovo modello linguistico open-sourced che il gigante cinese del settore fintech considera una svolta nel bilanciamento tra efficienza computazionale e capacità di ragionamento avanzate. L’annuncio del 9 ottobre segna una pietra miliare significativa per l’operatore Alipay, che sta rapidamente sviluppando la sua infrastruttura di intelligenza artificiale attraverso diverse architetture di modelli. Il modello di intelligenza artificiale da un trilione di parametri ha dimostrato prestazioni competitive in compiti di ragionamento matematico complessi, raggiungendo un’accuratezza del 70,42% nel benchmark dell’American Invitational Mathematics Examination (AIME) del 2025, uno standard utilizzato per valutare le capacità di risoluzione dei problemi dei sistemi di intelligenza artificiale. Secondo le specifiche tecniche di Ant Group, Ling-1T mantiene questo livello di prestazioni pur consumando una media di oltre 4.000 token di output per problema, collocandosi tra quelli che l’azienda descrive come “i migliori modelli di IA della categoria” in termini di qualità dei risultati. Un approccio duplice al progresso dell’IA Il rilascio di un modello di intelligenza artificiale da un trilione di parametri coincide con il lancio da parte di Ant Group di dInfer, un framework di inferenza specializzato per modelli linguistici a diffusione. Questa strategia di rilascio parallelo riflette la scommessa dell’azienda su più approcci tecnologici piuttosto che su un unico paradigma architettonico. I modelli linguistici a diffusione rappresentano una svolta rispetto ai sistemi autoregressivi che sono alla base di chatbot molto diffusi come ChatGPT. A differenza della generazione sequenziale del testo, i modelli di diffusione producono output in parallelo, un approccio già diffuso negli strumenti di generazione di immagini e video ma meno comune nell’elaborazione del linguaggio. I parametri di prestazione di Ant Group per dInfer indicano un sostanziale aumento dell’efficienza. I test condotti sul modello di diffusione LLaDA-MoE dell’azienda hanno prodotto 1.011 tokens al secondo nel benchmark di codifica HumanEval, contro i 91 tokens al secondo del framework Fast-dLLM di Nvidia e i 294 del modello Qwen-2.5-3B di Alibaba eseguito su infrastruttura vLLM. “Riteniamo che dInfer fornisca un toolkit pratico e una piattaforma standardizzata per accelerare la ricerca e lo sviluppo nel campo in rapida crescita dei dLLM”, hanno dichiarato i ricercatori di Ant Group nella documentazione tecnica allegata. Espansione dell’ecosistema oltre i modelli linguistici Il modello di intelligenza artificiale Ling-1T da un trilione di parametri si colloca all’interno di una più ampia famiglia di sistemi di intelligenza artificiale che Ant Group ha assemblato negli ultimi mesi. Il portafoglio dell’azienda comprende ora tre serie principali: i modelli Ling non pensanti per compiti linguistici standard, i modelli Ring pensanti progettati per ragionamenti complessi (tra cui il Ring-1T-preview precedentemente rilasciato) e i modelli multimodali Ming in grado di elaborare immagini, testi, audio e video. Questo approccio diversificato si estende a un modello sperimentale denominato LaDA-MoE, che impiega l’architettura Mixture-of-Experts (MoE), una tecnica che attiva solo le porzioni rilevanti di un modello di grandi dimensioni per compiti specifici, migliorando teoricamente l’efficienza. He Zhengyu, Chief Technology Officer di Ant Group, ha illustrato il posizionamento dell’azienda in merito a questi rilasci. “In Ant Group crediamo che l’Intelligenza Artificiale Generale (AGI) debba essere un bene pubblico, una pietra miliare condivisa per il futuro intelligente dell’umanità”, ha dichiarato, aggiungendo che i rilasci open-source del modello di AI da un trilione di parametri e dell’anteprima Ring-1T rappresentano dei passi avanti verso un “progresso aperto e collaborativo” Dinamiche competitive in un ambiente limitato La tempistica e la natura dei rilasci di Ant Group illuminano i calcoli strategici all’interno del settore cinese dell’IA. Con l’accesso alla tecnologia dei semiconduttori all’avanguardia limitato dalle restrizioni all’esportazione, le aziende tecnologiche cinesi hanno sempre più enfatizzato l’innovazione algoritmica e l’ottimizzazione del software come fattori di differenziazione competitiva. ByteDance, società madre di TikTok, ha introdotto a luglio un modello di linguaggio di diffusione chiamato Seed Diffusion Preview, dichiarando di aver migliorato la velocità di cinque volte rispetto ad architetture autoregressive simili. Questi sforzi paralleli suggeriscono l’interesse dell’industria per paradigmi di modelli alternativi che potrebbero offrire vantaggi in termini di efficienza. Tuttavia, la traiettoria di adozione pratica dei modelli linguistici a diffusione rimane incerta. I sistemi autoregressivi continuano a dominare le implementazioni commerciali grazie alle prestazioni comprovate nella comprensione e nella generazione del linguaggio naturale, requisiti fondamentali per le applicazioni rivolte ai clienti. Strategia open-source come posizionamento sul mercato Rendendo disponibile pubblicamente il modello di intelligenza artificiale da un trilione di parametri insieme al framework dInfer, Ant Group sta perseguendo un modello di sviluppo collaborativo che contrasta con gli approcci chiusi di alcuni concorrenti. Questa strategia è potenzialmente in grado di accelerare l’innovazione e di posizionare le tecnologie di Ant come infrastrutture fondamentali per la più ampia comunità dell’IA. Contemporaneamente l’azienda sta sviluppando AWorld, un framework destinato a supportare l’apprendimento continuo degli agenti di IA autonomi, sistemi progettati per portare a termine compiti indipendenti per conto degli utenti. La capacità di questi sforzi combinati di affermare Ant Group come una forza significativa nello sviluppo dell’IA globale dipende in parte dalla convalida nel mondo reale delle prestazioni dichiarate e in parte dai tassi di adozione tra gli sviluppatori che cercano alternative alle piattaforme consolidate. La natura open-source del modello di IA da un trilione di parametri può facilitare questo processo di validazione e creare una comunità di utenti che investano nel successo della tecnologia. Per il momento, i rilasci dimostrano che le principali aziende tecnologiche cinesi ritengono che l’attuale panorama dell’IA sia abbastanza fluido da accogliere nuovi operatori disposti a innovare su più dimensioni contemporaneamente. Leggi di più su www.artificialintelligence-news.com

L’intelligenza artificiale di Huawei guida l’automazione industriale

L'intelligenza artificiale di Huawei guida l'automazione industriale

In un cementificio gestito da Conch Group, un sistema di AI agenziale costruito su infrastruttura Huawei prevede ora la resistenza del clinker con un’accuratezza superiore al 90% e regola autonomamente i parametri di calcinazione per ridurre il consumo di carbone dell’1% – decisioni che in precedenza richiedevano un’esperienza umana accumulata nel corso di decenni Questo dimostra come Huawei stia sviluppando sistemi agenziali di intelligenza artificiale che vanno oltre le semplici interazioni comando-risposta per arrivare a piattaforme in grado di pianificare, decidere ed eseguire in modo indipendente. L’approccio di Huawei alla costruzione di questi sistemi di IA agici è incentrato su una strategia completa che comprende infrastrutture di IA, modelli di base, strumenti specializzati e piattaforme di agenti. Zhang Yuxin, CTO di Huawei Cloud, ha illustrato questa struttura in occasione del recente Huawei Cloud AI Summit di Shanghai, dove oltre 1.000 leader del mondo politico, economico e tecnologico hanno esaminato le implementazioni pratiche nei settori della finanza, dei porti marittimi, della produzione chimica, della sanità e della guida autonoma. La distinzione è importante perché le applicazioni di IA tradizionali rispondono ai comandi degli utenti nell’ambito di processi fissi, mentre i sistemi di IA agici operano con un’autonomia che cambia radicalmente il loro ruolo nelle operazioni aziendali. Zhang ha definito questo fenomeno come “un grande cambiamento nelle applicazioni e nell’informatica”, sottolineando che questi sistemi prendono decisioni in modo indipendente e si adattano dinamicamente, rimodellando il modo in cui i sistemi informatici interagiscono e allocano le risorse. La domanda per le aziende diventa: come costruire infrastrutture e piattaforme in grado di supportare questo livello di operatività autonoma? Cosa hanno in comune i pomodori e il cemento? Guarda un assaggio del dietro le quinte di come Huawei e Conch Group utilizzano l’AI per rimodellare il settore delle costruzioni! Il prossimo piatto del menù della trasformazione intelligente: una nuova e appetitosa era dell’architettura: più intelligente, più veloce, più economica, più verde! 🤤 pic.twitter.com/hEVIQ0xtUZ – Huawei (@Huawei) 28 agosto 2025 Le sfide dell’infrastruttura spingono verso nuove architetture di calcolo Le richieste di calcolo dei sistemi di intelligenza artificiale agici hanno messo a nudo i limiti delle architetture cloud tradizionali, in particolare con l’aumento dei requisiti di formazione e inferenza dei modelli di base. La risposta di Huawei Cloud prevede l’utilizzo dei supernodi CloudMatrix384 collegati attraverso una rete MatrixLink ad alta velocità, creando quello che l’azienda descrive come un sistema di calcolo ibrido flessibile che combina funzionalità di calcolo generiche e intelligenti. L’architettura affronta in modo specifico i colli di bottiglia dei modelli Mixture of Experts (MoE) attraverso l’inferenza del parallelismo esperto, che riduce i tempi di inattività della NPU durante il trasferimento dei dati. Secondo le specifiche tecniche dell’azienda, questo approccio aumenta la velocità di inferenza di una singola unità di elaborazione di 4-5 volte rispetto ad altri modelli popolari. Il sistema incorpora anche l’AI-Native Storage incentrato sulla memoria e progettato per le attività tipiche dell’intelligenza artificiale, con l’obiettivo di migliorare l’efficienza della formazione e dell’inferenza. ModelBest, un’azienda specializzata in AI generica e intelligenza dei dispositivi, ha mostrato le applicazioni pratiche di questa infrastruttura. Li Dahai, cofondatore e CEO di ModelBest, ha illustrato come la serie MiniCPM – che comprende modelli di base, funzionalità multimodali e integrazione di tutte le modalità – si integri con Huawei Cloud AI Compute Service per ottenere un miglioramento del 20% nell’efficienza energetica dell’addestramento e un aumento delle prestazioni del 10% rispetto agli standard del settore. I modelli MiniCPM hanno trovato applicazione nei sistemi automobilistici, negli smartphone, nell’AI incarnata e nei personal computer abilitati all’AI. Dai modelli di base alle applicazioni specifiche del settore La sfida di adattare i modelli di base alle esigenze di settori specifici ha spinto a sviluppare metodologie di formazione più sofisticate. L’approccio di Huawei Cloud comprende tre componenti chiave: una pipeline di dati completa che va dalla raccolta alla gestione, un flusso di formazione incrementale pronto all’uso e una piattaforma di valutazione intelligente con set di valutazione predefiniti. Secondo quanto riferito, il flusso di formazione incrementale aumenta le prestazioni del modello del 20-30% grazie alla regolazione automatica dei dati e delle impostazioni di formazione in base alle caratteristiche principali del modello e agli obiettivi specifici del settore. La piattaforma di valutazione consente di configurare rapidamente sistemi allineati ai benchmark del settore o dell’azienda, soddisfacendo i requisiti di accuratezza e velocità. Le implementazioni reali illustrano l’applicazione pratica di queste metodologie. Shaanxi Cultural Industry Investment Group ha collaborato con Huawei per integrare l’intelligenza artificiale nelle operazioni di turismo culturale. Huang Yong, presidente di Shaanxi Cultural Industry Investment Group, ha spiegato che utilizzando la piattaforma di convergenza dati-AI di Huawei Cloud, l’organizzazione ha combinato diversi dati sul turismo culturale per creare set di dati completi che abbracciano la storia, i film e il patrimonio immateriale. La partnership ha creato quello che viene definito uno “spazio dati nazionale affidabile per il turismo culturale” su Huawei Cloud, che consente di realizzare applicazioni come la verifica dei beni, le transazioni sul copyright, il miglioramento del credito delle imprese e lo sviluppo creativo. La collaborazione ha prodotto il modello di turismo culturale Boguan, che alimenta strumenti guidati dall’intelligenza artificiale, tra cui un cervello intelligente per il turismo culturale, un assistente di gestione intelligente, un assistente di viaggio intelligente e una piattaforma di video brevi con intelligenza artificiale. Le implementazioni internazionali mostrano modelli simili. Il Comune di Dubai ha collaborato con Huawei Cloud per integrare modelli di fondazione, esseri umani virtuali, gemelli digitali e sistemi di informazione geografica nei sistemi urbani. Mariam Almheiri, CEO della Building Regulation and Permits Agency del Comune di Dubai, ha raccontato come questa integrazione abbia migliorato la pianificazione della città, la gestione delle strutture e le risposte alle emergenze. Nascono piattaforme di agenti di livello aziendale La distinzione tra agenti di intelligenza artificiale orientati al consumatore e sistemi di intelligenza artificiale di livello aziendale si basa sui requisiti di integrazione e sulla complessità operativa. I sistemi aziendali devono integrarsi perfettamente in flussi di lavoro più ampi, gestire situazioni complesse e soddisfare standard operativi più elevati rispetto alle applicazioni

Meta e Oracle scelgono NVIDIA Spectrum-X per i data center di intelligenza artificiale

Meta e Oracle scelgono NVIDIA Spectrum-X per i data center di intelligenza artificiale

Meta e Oracle stanno aggiornando i loro data center AI con gli switch di rete Ethernet Spectrum-X di NVIDIA, una tecnologia costruita per gestire le crescenti esigenze dei sistemi AI su larga scala. Entrambe le aziende stanno adottando Spectrum-X come parte di un framework di networking aperto progettato per migliorare l’efficienza dell’addestramento dell’IA e accelerare l’implementazione su cluster di calcolo massicci. Jensen Huang, fondatore e CEO di NVIDIA, ha dichiarato che i modelli da un trilione di parametri stanno trasformando i data center in “fabbriche di AI su scala giga”, aggiungendo che Spectrum-X agisce come “sistema nervoso” collegando milioni di GPU per addestrare i modelli più grandi mai costruiti. Oracle intende utilizzare Spectrum-X Ethernet con la sua architettura Vera Rubin per costruire fabbriche di AI su larga scala. Mahesh Thiagarajan, vicepresidente esecutivo di Oracle Cloud Infrastructure, ha dichiarato che la nuova configurazione consentirà all’azienda di collegare milioni di GPU in modo più efficiente, aiutando i clienti ad addestrare e distribuire nuovi modelli di IA più velocemente. Meta, nel frattempo, sta espandendo la sua infrastruttura AI integrando gli switch Ethernet Spectrum-X nel Facebook Open Switching System (FBOSS), la sua piattaforma interna per la gestione degli switch di rete su scala. Secondo Gaya Nagarajan, vicepresidente dell’ingegneria di rete di Meta, la rete di prossima generazione dell’azienda deve essere aperta ed efficiente per supportare modelli di IA sempre più grandi e fornire servizi a miliardi di utenti. Costruire sistemi di intelligenza artificiale flessibili Secondo Joe DeLaere, che dirige l’Accelerated Computing Solution Portfolio for Data Centre di NVIDIA, la flessibilità è fondamentale man mano che i data center diventano più complessi. Ha spiegato che il sistema MGX di NVIDIA offre un design modulare che permette ai partner di combinare diverse CPU, GPU, storage e componenti di rete a seconda delle necessità. Il sistema promuove inoltre l’interoperabilità, consentendo alle organizzazioni di utilizzare lo stesso progetto su più generazioni di hardware. “Offre flessibilità, un time to market più rapido e la possibilità di essere pronti per il futuro”, ha dichiarato DeLaere ai media. Con l’aumento delle dimensioni dei modelli di AI, l’efficienza energetica è diventata una sfida centrale per i data center. DeLaere ha dichiarato che NVIDIA sta lavorando “dal chip alla rete” per migliorare l’uso dell’energia e la scalabilità, collaborando strettamente con i fornitori di energia e raffreddamento per massimizzare le prestazioni per watt. Un esempio è il passaggio all’alimentazione a 800 volt in corrente continua, che riduce la perdita di calore e migliora l’efficienza. L’azienda sta inoltre introducendo una tecnologia di power-smoothing per ridurre i picchi sulla rete elettrica, un approccio che può ridurre il fabbisogno massimo di energia fino al 30%, consentendo una maggiore capacità di calcolo con lo stesso ingombro. Scalare verso l’alto, verso il basso e verso l’esterno Il sistema MGX di NVIDIA svolge un ruolo importante anche nelle modalità di scalabilità dei data center. Gilad Shainer, vicepresidente senior del settore networking dell’azienda, ha dichiarato ai media che i rack MGX ospitano sia componenti di calcolo che di switching, supportando NVLink per la connettività scale-up e Spectrum-X Ethernet per la crescita scale-out. Ha aggiunto che MGX è in grado di collegare più data center AI come un sistema unificato – ciò di cui aziende come Meta hanno bisogno per supportare operazioni di formazione AI massicciamente distribuite. A seconda della distanza, possono collegare i siti tramite fibra spenta o switch aggiuntivi basati su MGX, consentendo connessioni ad alta velocità tra le regioni. L’adozione di Spectrum-X da parte di Meta riflette la crescente importanza dell’open networking. Shainer ha dichiarato che l’azienda utilizzerà FBOSS come sistema operativo di rete, ma ha fatto notare che Spectrum-X ne supporta molti altri, tra cui Cumulus, SONiC e NOS di Cisco grazie a delle partnership. Questa flessibilità permette agli hyperscaler e alle aziende di standardizzare la propria infrastruttura utilizzando i sistemi che meglio si adattano ai loro ambienti. Espansione dell’ecosistema AI NVIDIA vede Spectrum-X come un modo per rendere l’infrastruttura AI più efficiente e accessibile su diverse scale. Shainer ha dichiarato che la piattaforma Ethernet è stata progettata specificamente per i carichi di lavoro dell’intelligenza artificiale, come la formazione e l’inferenza, offrendo una larghezza di banda effettiva fino al 95% e superando le prestazioni dell’Ethernet tradizionale con un ampio margine. Ha aggiunto che le partnership di NVIDIA con aziende come Cisco, xAI, Meta e Oracle Cloud Infrastructure stanno contribuendo a portare Spectrum-X in una gamma più ampia di ambienti, dagli hyperscaler alle aziende. Prepararsi per Vera Rubin e oltre DeLaere ha dichiarato che l’imminente architettura Vera Rubin di NVIDIA dovrebbe essere disponibile in commercio nella seconda metà del 2026, mentre il prodotto Rubin CPX arriverà entro la fine dell’anno. Entrambi lavoreranno insieme ai sistemi di rete Spectrum-X e MGX per supportare la prossima generazione di fabbriche AI. Ha inoltre chiarito che Spectrum-X e XGS condividono lo stesso hardware di base ma utilizzano algoritmi diversi per le varie distanze: Spectrum-X per l’interno dei data center e XGS per la comunicazione tra data center. Questo approccio riduce al minimo la latenza e consente a più siti di operare insieme come un unico grande supercomputer di intelligenza artificiale. Collaborazione nella catena elettrica Per supportare la transizione alla corrente continua a 800 volt, NVIDIA sta collaborando con i partner dal livello del chip alla rete. L’azienda sta collaborando con Onsemi e Infineon per i componenti di alimentazione, con Delta, Flex e Lite-On a livello di rack e con Schneider Electric e Siemens per i progetti dei data center. In occasione dell’OCP Summit verrà pubblicato un white paper tecnico che illustra questo approccio. DeLaere ha descritto questo approccio come una “progettazione olistica, dal silicio alla fornitura di energia”, che garantisce che tutti i sistemi lavorino insieme senza problemi negli ambienti AI ad alta densità in cui operano aziende come Meta e Oracle. Vantaggi in termini di prestazioni per gli hyperscaler Spectrum-X Ethernet è stato costruito appositamente per l’elaborazione distribuita e i carichi di lavoro dell’IA. Shainer ha dichiarato che offre un routing adattivo e un controllo della congestione basato sulla telemetria per

Cosa devono capire i marketer sulla fiducia del pubblico nell’era dell’intelligenza artificiale

Cosa devono capire i marketer sulla fiducia del pubblico nell'era dell'intelligenza artificiale

Questo post è stato creato in collaborazione con Chase Media Solutions Punti di forza La costruzione della fiducia nel marchio inizia all’interno con una missione e una cultura aziendale coerenti. Ricostruire la fiducia dopo un passo falso è la prova definitiva di un marchio. I brand devono costruire relazioni dirette per affrontare la disruption dell’IA. La fiducia è diventata la valuta più preziosa che un marchio possa detenere. I consumatori hanno il controllo e concedono la loro fedeltà alle aziende che dimostrano affidabilità, trasparenza e impegno nel fare la cosa giusta. Durante una chat di gruppo di ADWEEK House Advertising HQ, organizzata in collaborazione con Chase Media Solutions, un gruppo di leader del marketing ha esplorato la moderna architettura della fiducia: come costruirla dall’interno, difenderla dalle minacce moderne ed evolverla per il futuro. Guadagnare fiducia attraverso la coerenza e l’azione La conversazione è iniziata con l’alta posta in gioco della fiducia istituzionale. Lauren Griewski, amministratore delegato, responsabile delle vendite e delle partnership di Chase Media Solutions, ha inquadrato la sfida. “Warren Buffett lo dice meglio di tutti: Ci vogliono 20 anni per costruire una reputazione e cinque minuti per distruggerla”, ha detto. “E quindi, in Chase, la fiducia è un bene molto prezioso che trasmettiamo ai nostri partner commerciali e ai nostri marchi” Questo principio della fiducia come bene fragile e a lungo termine è stato ribadito da Tusar Barik, SVP del marketing del New York Times Advertising: “Per me la fiducia è coerenza nel tempo. Ci vuole tempo”, ha detto. Ma la coerenza senza una bussola morale non ha senso. Ecco perché, secondo Eliot Hamlisch, Chief Commercial Officer di Amtrak, deve essere ancorata a una missione fondamentale. “In Amtrak abbiamo tre pilastri, uno dei quali è fare la cosa giusta”, ha spiegato. “Se questo è il fulcro della tua offerta, è molto importante”

Perché il rilevamento del phishing da parte dell’intelligenza artificiale definirà la cybersecurity nel 2026

Perché il rilevamento del phishing da parte dell'intelligenza artificiale definirà la cybersecurity nel 2026

Reuters ha recentemente pubblicato un esperimento congiunto con Harvard, in cui ha chiesto a popolari chatbot AI come Grok, ChatGPT, DeepSeek e altri di creare la “perfetta email di phishing” Le email generate sono state poi inviate a 108 volontari, l’11% dei quali ha cliccato sui link malevoli. Con un semplice suggerimento, i ricercatori si sono armati di messaggi altamente persuasivi in grado di ingannare persone reali. L’esperimento dovrebbe servire come un severo controllo della realtà. Per quanto il phishing sia stato dirompente nel corso degli anni, l’intelligenza artificiale lo sta trasformando in una minaccia più veloce, più economica e più efficace. Per il 2026, il rilevamento del phishing tramite intelligenza artificiale deve diventare una priorità assoluta per le aziende che vogliono essere più sicure in un ambiente di minacce sempre più complesso. L’emergere dell’AI phishing come minaccia principale Un fattore importante è l’ascesa del Phishing-as-a-Service (PhaaS). Piattaforme del dark web come Lighthouse e Lucid offrono kit in abbonamento che consentono a criminali poco qualificati di lanciare campagne sofisticate. Secondorecenti rapporti, questi servizi hanno generato più di 17.500 domini di phishing in 74 paesi, prendendo di mira centinaia di marchi globali. In soli 30 secondi, i criminali possono creare portali di login clonati per servizi come Okta, Google o Microsoft, praticamente identici a quelli reali. Con l’infrastruttura di phishing ora disponibile su richiesta, le barriere all’ingresso per la criminalità informatica sono quasi inesistenti. Allo stesso tempo, gli strumenti di intelligenza artificiale generativa consentono ai criminali di creare email di phishing convincenti e personalizzate in pochi secondi. Le email non sono spam generico. Grazie allo scraping di dati da LinkedIn, siti web o violazioni passate, gli strumenti di AI creano messaggi che rispecchiano il contesto aziendale reale, invogliando i dipendenti più attenti a cliccare. La tecnologia sta anche alimentando un boom di deepfake phishing audio e video. Negli ultimi dieci anni, gli attacchi legati al deepfake sono aumentati del 1.000%. I criminali di solito impersonano amministratori delegati, familiari e colleghi fidati su canali di comunicazione come Zoom, WhatsApp e Teams. Le difese tradizionali non funzionano Il rilevamento basato sulle firme utilizzato dai filtri e-mail tradizionali è insufficiente contro il phishing alimentato dall’intelligenza artificiale. Gli attori delle minacce possono facilmente ruotare la loro infrastruttura, includendo domini, oggetti e altre varianti uniche che sfuggono alle misure di sicurezza statiche. Una volta che il phish arriva nella casella di posta, spetta al dipendente decidere se fidarsi o meno. Purtroppo, visto quanto sono convincenti le odierne email di phishing con l’intelligenza artificiale, è probabile che anche un dipendente ben addestrato possa commettere un errore. Il controllo a campione della cattiva grammatica è un ricordo del passato. Inoltre, la sofisticazione delle campagne di phishing potrebbe non essere la minaccia principale. Ciò che preoccupa di più è la portata degli attacchi. I criminali possono lanciare migliaia di nuovi domini e siti clonati in poche ore. Anche se un’ondata viene abbattuta, un’altra la sostituisce rapidamente, garantendo un flusso costante di nuove minacce. È una tempesta perfetta di AI che richiede un approccio più strategico per essere affrontata. Ciò che funzionava contro i rozzi tentativi di phishing di ieri non è all’altezza della scala e della sofisticazione delle campagne moderne. Strategie chiave per il rilevamento del phishing da parte dell’intelligenza artificiale Come consigliano spesso gli esperti di cybersecurity e gli enti governativi, la cosa migliore è adottare un approccio a più livelli per tutta la cybersecurity, compreso il rilevamento degli attacchi di phishing AI. La prima linea di difesa è una migliore analisi delle minacce. Piuttosto che filtri statici che si basano su informazioni potenzialmente obsolete sulle minacce, i modelli NLP addestrati su modelli di comunicazione legittimi possono cogliere sottili deviazioni nel tono, nella formulazione o nella struttura che un umano addestrato potrebbe non notare. Ma nessuna automazione può sostituire il valore della consapevolezza della sicurezza da parte dei dipendenti. È molto probabile che alcune email di AI phishing finiscano nella casella di posta elettronica, quindi per individuarle è necessario avere una forza lavoro ben addestrata. Esistono molti metodi di formazione sulla sicurezza. La formazione basata sulla simulazione è la più efficace, perché permette ai dipendenti di prepararsi all’aspetto reale dell’AI phishing. Le moderne simulazioni vanno oltre la semplice formazione “individua il refuso”. Rispecchiano campagne reali legate al ruolo dell’utente, in modo che i dipendenti siano preparati all’esatto tipo di attacchi che è più probabile che subiscano. L’obiettivo non è quello di mettere alla prova i dipendenti, ma di creare una memoria muscolare in modo che la segnalazione di attività sospette venga naturale. L’ultimo livello di difesa è l’UEBA (User and Entity Behaviour Analytics), che garantisce che un tentativo di phishing riuscito non sfoci in una compromissione su larga scala. I sistemi UEBA rilevano le attività insolite degli utenti o del sistema per avvisare i difensori di una potenziale intrusione. Di solito si tratta di un avviso, magari relativo a un accesso da una posizione inaspettata o a modifiche insolite della casella di posta elettronica che non sono in linea con i criteri IT. Conclusione L’intelligenza artificiale sta avanzando e scalando il phishing a livelli che possono facilmente sopraffare o aggirare le difese tradizionali. In vista del 2026, le organizzazioni devono dare priorità al rilevamento guidato dall’intelligenza artificiale, al monitoraggio continuo e alla formazione con simulazioni realistiche. Il successo dipenderà dalla combinazione di tecnologia avanzata e prontezza umana. Quelle che riusciranno a trovare questo equilibrio saranno ben posizionate per essere più resilienti quando gli attacchi di phishing continueranno a evolversi con l’intelligenza artificiale. Fonte dell’immagine: Unsplash Leggi di più su www.artificialintelligence-news.com

Come evitare che il CMO diventi una specie in via di estinzione

Come evitare che il CMO diventi una specie in via di estinzione

Sebbene la figura del Chief Marketing Officer (CMO) non sia destinata a scomparire domani, è impossibile ignorare le prove sempre più evidenti della sua costante erosione. Come ha riportato ADWEEK ad agosto, la durata media di un CMO è passata da 4,1 anni nel 2024 a 3,9 anni nel 2025. L’anno scorso, il 63% delle aziende Fortune 500 aveva un CMO, ma nel 2025 questa cifra è scesa del 5%. La situazione è ancora peggiore. Un documento di McKinsey pubblicato a giugno ha rilevato che “i CFO spesso considerano il marketing come un centro di costo piuttosto che come un investimento” E i dati relativi al 2025 raccolti dalla società di marketing Boathouse rivelano che il 14% degli amministratori delegati ammette di aver pensato di eliminare la posizione del CMO. Spaventoso? Molto. Ma nonostante i numeri, i CMO stessi non sono così fatalisti sul loro futuro. Durante una tavola rotonda tenutasi all’ADWEEK House: Advertising HQ giovedì scorso, Jenny Rooney, chief brand and community officer di ADWEEK, ha invitato tre importanti CMO a sfidare l’idea che i marketer siano una specie in via di estinzione nella C-suite e a sostenere questa contro-narrazione con i motivi per cui i CMO sono ancora importanti. Alison Hiatt di Vera Bradley, Uzma Rawn Dowler della Major League Baseball e Christie Sclater di Clinique hanno suggerito i modi in cui i CMO possono trasmettere la loro importanza agli amministratori delegati che sono costretti a tagliare i costi e che guardano sempre più all’intelligenza artificiale come una panacea. Eccone alcuni. Sii più di un marketer Oggi le responsabilità di un CMO vanno ben oltre i confini tradizionali della pubblicità e della promozione, ma i CFO e i CEO spesso non se ne rendono conto. Per questo motivo, è compito del Chief Marketer non solo difendere il proprio lavoro, ma anche tradurlo. “Il ruolo del CMO, a mio avviso, è come quello di un funzionario che fa le cose per bene”, ha affermato Dowler. “La ‘C’ e la ‘O’ sono lì, e poi nel mezzo dovresti mettere tutto quello che ti serve, perché i nostri ruoli non sono solo di marketing” Fai marketing ai tuoi clienti, non a te stesso Gli amministratori delegati, ossessionati dai risultati e sempre più scettici, potrebbero essere più propensi a mettere in dubbio il pensiero o la validità di una campagna pubblicitaria o di una strategia di marketing. Probabilmente è una buona idea ricordare agli altri dirigenti aziendali che non sono obbligati ad accettare l’idea. “Se hanno opinioni [scettiche] su certe cose, non c’è problema: devi ricordargli: ‘Ehi, questo non è destinato a te’”, ha detto Dowler. “Ma abbiamo tutti i dati e le ricerche che dimostrano che il prodotto avrà una certa risonanza per le persone a cui è destinato” Anticipare l’IA Con l’avanzare dell’IA generativa, la C-suite sarà sempre più propensa a mettere in discussione ruoli come il CMO e il direttore creativo, o addirittura il reparto marketing in generale. Giustamente o meno, spetterà al CMO spiegare il ruolo dell’IA e il ruolo del marketing al di sopra di essa. “L’intelligenza artificiale è uno strumento, non una strategia”, ha affermato Hiatt, aggiungendo che i CEO dovrebbero ricordare che i CMO non stanno vendendo un’idea intelligente, ma stanno fornendo ciò di cui un marchio ha più bisogno: i consumatori. “In fin dei conti, con il marketing si compra un cliente”, ha detto Hiatt. “Non ne parliamo abbastanza” Spiega perché la leadership è fondamentale Sclater ha sottolineato che l’intelligenza artificiale può essere in grado di generare contenuti, ma non può sostituire un leader del marketing in grado di fungere da coach, interlocutore, decisore e innovatore. “In assenza di un CMO, stiamo solo facendo una staffetta e il business diventa il passaggio di consegne per un altro passaggio: quando si arriva alla fine, dov’è il cliente? Ha detto Sclater. “Ci sarà sempre bisogno di unire le cose, di riunire le idee intorno alla missione centrale di servire il cliente” Mantenere la coerenza dove gli algoritmi non riescono a farlo Poiché l’AI è in grado di generare infinite permutazioni di un marchio, il CMO diventa l’ultimo garante della tradizione, della riconoscibilità e della solidità. “Il CMO si tiene stretto il marchio”, ha detto Sclater. se non c’è un luogo in cui la purezza o l’essenza sono distillate e forti, l’algoritmo si muoverà per creare versioni diverse del marchio”. Il CMO al suo meglio è anche in grado di mantenere quella purezza e quella coerenza” Leggi di più su www.adweek.com

Perplexity mette in pausa i nuovi accordi pubblicitari per rivalutare le proprie ambizioni

Perplexity mette in pausa i nuovi accordi pubblicitari per rivalutare le proprie ambizioni

Perplexity ha sospeso l’accettazione di nuovi inserzionisti mentre ripensa a come gli annunci pubblicitari si inseriscono nella sua esperienza di ricerca AI, segnalando un cambiamento nella sua spinta alla monetizzazione. All’Advertising Week di New York, Jessica Chan, responsabile delle partnership con gli editori di Perplexity, ha dichiarato che l’azienda non sta “accettando nuovi inserzionisti” e che gli annunci pubblicitari non sono attualmente sulla tabella di marcia del browser AI di Perplexity, Comet. La mossa arriva dopo la partenza ad agosto del responsabile delle vendite pubblicitarie Taz Patel, segnalando un cambiamento rispetto al precedente piano di Perplexity di scalare il proprio business pubblicitario al di fuori degli Stati Uniti. A dicembre, Perplexity ha aggiunto The Independent, LA Times e Blavity al suo Perplexity’s Publisher Program che paga gli editori quando i contenuti appaiono accanto agli annunci pubblicitari. In quell’occasione, Chan ha citato le partnership internazionali come chiave per la crescita di Perplexity. Perplexity ha lanciato la sua offerta di annunci l’anno scorso e ha iniziato a testare campagne con marchi come Indeed, PMG, Universal McCann e Whole Foods Market. Le prime campagne consentivano ai marchi di sponsorizzare domande di follow-up nei risultati di ricerca. “Questo esiste ancora oggi, ma non volevamo inondare l’esperienza dell’utente con una tonnellata di annunci in una notte”, ha detto Chan durante il panel. “Stiamo continuando a scalare in modo molto ponderato e metodico, probabilmente non nella misura che tutti sperano” Ha inoltre sottolineato che i brand stanno ripensando a come spendere i loro budget. Chan ha detto che molti inserzionisti si stanno allontanando dalla ricerca tradizionale incentrata sulle prestazioni per orientarsi verso la consapevolezza del marchio nel top-of-funnel, un’area che Perplexity potrebbe perseguire in futuro. Perplexity non ha risposto alla richiesta di ulteriori commenti oltre a quelli di Chan alla Advertising Week. La pubblicità sembra costituire solo una piccola parte delle entrate di Perplexity. Secondo The Information, l’anno scorso l’azienda ha generato solo 20.000 dollari di entrate pubblicitarie su 34 milioni di dollari di entrate totali . Mentre Perplexity rivaluta le sue ambizioni in fatto di annunci pubblicitari, rimangono dubbi sull’entità dei ricavi che il suo modello sta effettivamente generando per gli editori. Due acquirenti di annunci hanno dichiarato ad ADWEEK di aver avuto difficoltà a misurare le metriche di performance come i tassi di click-through e il ritorno sulla spesa pubblicitaria su Perplexity perché la piattaforma non offre strumenti simili a quelli degli operatori pubblicitari affermati. Un editore che partecipa al programma di condivisione delle entrate di Perplexity ha dichiarato che finora l’azienda ha generato poche entrate significative. “I modelli di business digitali che si sono dimostrati più efficaci sono quelli basati sulle prestazioni”, ha dichiarato Debra Aho Williamson, fondatrice e analista capo di Sonata Insights. “Le aziende che hanno lanciato un modello di brand awareness come Perplexity hanno faticato a mantenere lo slancio” A parte la pubblicità, Perplexity continua a costruire il suo ecosistema intorno al browser web Comet. Perplexity descrive Comet come un browser per “editori e giornalisti di fiducia”, tra cui CNN, Condé Nast, The Washington Post, Los Angeles Times, Fortune, Le Monde e Le Figaro. Il mese scorso, Perplexity ha reso Comet gratuito per tutti gli utenti. Leggi di più su www.adweek.com

Il piccolo modello di intelligenza artificiale di Samsung batte i giganteschi LLM di ragionamento

Il piccolo modello di intelligenza artificiale di Samsung batte i giganteschi LLM di ragionamento

Un nuovo documento di un ricercatore Samsung AI spiega come una piccola rete possa battere i grandi modelli linguistici (LLM) in ragionamenti complessi. Nella corsa alla supremazia dell’intelligenza artificiale, il mantra del settore è stato spesso “più grande è meglio” I giganti tecnologici hanno investito miliardi nella creazione di modelli sempre più grandi, ma secondo Alexia Jolicoeur-Martineau di Samsung SAIL Montréal, con il Tiny Recursive Model (TRM) è possibile percorrere una strada radicalmente diversa e più efficiente. Utilizzando un modello con soli 7 milioni di parametri, meno dello 0,01% delle dimensioni dei principali LLM, il TRM raggiunge nuovi risultati all’avanguardia su benchmark notoriamente difficili come il test di intelligenza ARC-AGI. Il lavoro di Samsung sfida l’ipotesi prevalente che la scala pura sia l’unico modo per far progredire le capacità dei modelli di intelligenza artificiale, offrendo un’alternativa più sostenibile ed efficiente dal punto di vista dei parametri. Superare i limiti della scala Sebbene i LLM abbiano dimostrato un’incredibile abilità nel generare testi simili a quelli umani, la loro capacità di eseguire ragionamenti complessi e in più fasi può essere fragile. Poiché generano risposte token per token, un singolo errore nelle prime fasi del processo può far deragliare l’intera soluzione, portando a una risposta finale non valida. Per ovviare a questo problema sono state sviluppate tecniche come la Chain-of-Thought, in cui un modello “pensa ad alta voce” per risolvere un problema. Tuttavia, questi metodi sono computazionalmente costosi, spesso richiedono grandi quantità di dati di ragionamento di alta qualità che potrebbero non essere disponibili e possono comunque produrre una logica errata. Anche con questi miglioramenti, gli LLM faticano a risolvere alcuni enigmi in cui è necessaria una perfetta esecuzione logica. Il lavoro di Samsung si basa su un recente modello di intelligenza artificiale noto come Hierarchical Reasoning Model (HRM). L’HRM ha introdotto un metodo innovativo che utilizza due piccole reti neurali che lavorano ricorsivamente su un problema a frequenze diverse per perfezionare una risposta. Il metodo era molto promettente ma complicato, in quanto si basava su argomentazioni biologiche incerte e su complessi teoremi a punto fisso di cui non era garantita l’applicabilità. Invece delle due reti dell’HRM, il TRM utilizza un’unica, piccola rete che migliora ricorsivamente sia il suo “ragionamento” interno che la “risposta” proposta. Il modello riceve la domanda, un’ipotesi iniziale di risposta e una caratteristica di ragionamento latente. Prima esegue diversi cicli per affinare il suo ragionamento latente sulla base di tutti e tre gli input. Poi, utilizzando questo ragionamento migliorato, aggiorna la sua previsione per la risposta finale. L’intero processo può essere ripetuto fino a 16 volte, consentendo al modello di correggere progressivamente i propri errori in modo estremamente efficiente dal punto di vista dei parametri. Controintuitivamente, la ricerca ha scoperto che una piccola rete con soli due strati ha ottenuto una generalizzazione di gran lunga migliore rispetto a una versione a quattro strati. Questa riduzione delle dimensioni sembra impedire al modello di adattarsi in modo eccessivo, un problema comune quando ci si allena su set di dati più piccoli e specializzati. Inoltre, il TRM elimina le complesse giustificazioni matematiche utilizzate dal suo predecessore. Il modello HRM originale richiedeva l’assunzione che le sue funzioni convergessero a un punto fisso per giustificare il suo metodo di addestramento. Il modello TRM lo aggira completamente, semplicemente eseguendo un back-propagation attraverso l’intero processo di ricorsione. Questa modifica da sola ha dato un enorme impulso alle prestazioni, migliorando l’accuratezza del benchmark Sudoku-Extreme dal 56,5% all’87,4% in uno studio di ablazione. Il modello di Samsung supera i benchmark dell’intelligenza artificiale con meno risorse I risultati parlano da soli. Sul dataset Sudoku-Extreme, che utilizza solo 1.000 esempi di addestramento, TRM raggiunge un’accuratezza di test dell’87,4%, un enorme balzo rispetto al 55% di HRM. Su Maze-Hard, un compito che prevede la ricerca di percorsi lunghi attraverso labirinti 30×30, TRM ottiene l’85,3% rispetto al 74,5% di HRM. Soprattutto, TRM fa passi da gigante nell’Abstraction and Reasoning Corpus (ARC-AGI), un benchmark progettato per misurare la vera intelligenza fluida nell’IA. Con soli 7 milioni di parametri, TRM raggiunge un’accuratezza del 44,6% su ARC-AGI-1 e del 7,8% su ARC-AGI-2. Questo risultato supera HRM, che utilizzava un modello con 27 milioni di parametri, e supera persino molti dei più grandi LLM del mondo. Per fare un confronto, Gemini 2.5 Pro ha ottenuto solo il 4,9% su ARC-AGI-2. Anche il processo di formazione del TRM è stato reso più efficiente. Un meccanismo adattivo chiamato ACT – che decide quando il modello ha migliorato a sufficienza una risposta e può passare a un nuovo campione di dati – è stato semplificato per eliminare la necessità di un secondo, costoso passaggio in avanti attraverso la rete durante ogni fase di formazione. Questa modifica è stata apportata senza grandi differenze nella generalizzazione finale. Questa ricerca di Samsung presenta un argomento convincente contro l’attuale traiettoria di modelli di intelligenza artificiale in continua espansione. Dimostra che progettando architetture in grado di ragionare e autocorreggersi in modo iterativo, è possibile risolvere problemi estremamente difficili con una frazione minima delle risorse computazionali. Leggi di più su www.artificialintelligence-news.com