Aluminium OS è il successore AI di ChromeOS

La convergenza dei sistemi operativi per dispositivi mobili e desktop è un obiettivo che è rimasto irraggiungibile per le grandi aziende tecnologiche fin dagli albori degli smartphone. Il tentativo di Microsoft, sotto forma di Windows Mobile, era giunto alla fine del suo percorso nel 2010 e, nonostante iOS/iPadOS e macOS di Apple si siano avvicinati molto lentamente negli ultimi anni, Cupertino non ha ancora raggiunto il favoloso obiettivo di un unico sistema operativo che li domini tutti. Ma il grande progetto di Google di unire ChromeOS e Android in una piattaforma PC unificata (con il nome in codice anglicizzato Aluminium OS) sta gradualmente prendendo forma. L’uscita dei laptop con Android è prevista per il 2026 e l’azienda vuole mettere i suoi LLM al centro dell’esperienza dell’utente. Nel prossimo anno, quindi, le decisioni di acquisto dell’hardware potrebbero essere in linea con la strategia di AI dell’azienda in ambito aziendale. La prospettiva di dispositivi in stile chromebook e di un prezzo più basso sarà interessante sia per le organizzazioni che stanno valutando il prossimo ciclo di aggiornamento delle macchine, sia per gli strateghi che vogliono mettere l’IA al centro del lavoro quotidiano dei loro dipendenti. Presto potrebbero avere una soluzione in comune. Lo sviluppo del dispositivo convergente di Google è ancora agli inizi, ma l’azienda è ben nota per aver lanciato idee che non vanno lontano e per aver abbandonato le tecnologie che non riesce a monetizzare in modo sufficientemente efficace. A differenza di alcuni progetti dell’azienda che potrebbero derivare dalla sua politica del “20%” (i dipendenti di Google sono incoraggiati a dedicare il 20% del loro tempo a progetti moonshot), la consistente comunità di sviluppatori di Android e la politica di Google di mettere Gemini in primo piano potrebbero essere l’acceleratore di cui ha bisogno il nuovo sistema operativo convergente. Le funzionalità AI esistenti di Android, come il Magic Editor per le foto, la trascrizione audio e il riassunto, si adatterebbero molto bene al desktop dell’ambiente di lavoro. Tuttavia, se Google vuole placare i timori dei professionisti della sicurezza, potrebbe dover fare affidamento su modelli locali e di piccole dimensioni per l’elaborazione dell’intelligenza artificiale, piuttosto che rivolgersi alle istanze cloud di Gemini per ottenere la potenza di calcolo necessaria. Questo mette in discussione il mantenimento di uno dei punti di forza della gamma chromebook: il suo prezzo ridotto rispetto alle workstation vere e proprie. C’è anche un delicato equilibrio che l’azienda deve raggiungere. Costringere gli utenti a un flusso di lavoro incentrato sull’intelligenza artificiale non è stato un buon affare per Microsoft: basti pensare al clamore suscitato da Recall e alla risposta in sordina alla sua progenie, molto ridimensionata, nata dai Copilot Labs. Ciò di cui Google ha bisogno è una funzione di AI che sia utile alle aziende e che possa o meno essere rivolta agli utenti. È innegabile che l’aggiunta di Gemini a Google Workspace abbia fatto miracoli per la piattaforma in termini di competitività con Office 365 – nonostante un aumento significativo dei prezzi all’inizio di quest’anno – grazie anche a nuove funzionalità come la traduzione dal vivo in Google Meet e le risposte AI disponibili in Gmail. Gli utenti trovano utili alcuni strumenti di intelligenza artificiale, ma forse sta diventando evidente che l’intelligenza artificiale rivolta all’utente è un’utile aggiunta ai flussi di lavoro esistenti, piuttosto che un catalizzatore che cambia tutto. Se Gemini o Gemini Nano saranno al centro del nuovo sistema operativo, quindi, è possibile che Google stia cercando di offrire valore a diversi settori dell’azienda rispetto alle attività quotidiane degli utenti. Android Authority suggerisce che la gestione intelligente dell’energia, il provisioning dei dispositivi e la consapevolezza contestuale nell’accesso alle risorse aziendali potrebbero essere in discussione. Tuttavia, è difficile capire come questi elementi possano cambiare le carte in tavola per i team di approvvigionamento. Google ha molti problemi da risolvere a un livello più profondo, come la compatibilità con le periferiche, i driver a livello di sistema operativo e le modifiche necessarie all’interfaccia grafica di Android per rendere l’esperienza degli utenti finali con mouse e tastiera. Tuttavia, se l’azienda si impegna e investe a sufficienza (cosa che non manca), si tratta di problemi che possono essere superati con relativa facilità. Un fiorente ecosistema di app garantirà che gli strumenti necessari, se non immediatamente disponibili, possano essere resi tali con il minimo sforzo. In definitiva, il successo di Aluminium OS dipenderà dalla capacità di Google di offrire una piattaforma che risolva problemi tangibili e si integri nei flussi di lavoro esistenti. Google vede l’intelligenza artificiale sotto forma di Gemini (o di un’istanza localizzata di Gemini Nano) che alimenta una piattaforma in grado di risolvere problemi integrati. Il raggiungimento di questo obiettivo genererà domanda e un prezzo più basso per macchina potrebbe essere l’elemento decisivo per i team di approvvigionamento. Se Google riuscirà a centrare l’obiettivo, potrebbe ripetere il successo ottenuto nel mercato dell’istruzione con il progetto originale dei chromebook, e potrebbe assistere a un passaggio sostanziale delle flotte aziendali a Aluminium OS e Google Workspaces. Ci sono grandi vantaggi per un’azienda che domina il mercato dei dispositivi mobili in tutto il mondo e che si sta facendo strada nel mercato delle workstation aziendali. Inoltre, l’inafferrabile convergenza dei dispositivi sarebbe molto più vicina a diventare realtà. (Fonte immagine: “Macro Monday: bottoni di alluminio (Al sulla tavola periodica)” di cchana è concessa in licenza CC BY-SA 2.0.) Leggi di più su www.artificialintelligence-news.com
IBM cita l’IA agenziale, le politiche sui dati e la quantistica come tendenze per il 2026

Secondo un documento pubblicato dall’IBM Institute for Business Value, i leader aziendali entrano nel 2026 con un mix scomodo di volatilità, ottimismo e pressione a muoversi più velocemente con l’IA e il quantum computing. I risultati si basano su oltre 1.000 dirigenti C-suite e 8.500 dipendenti e consumatori. Mentre solo un terzo circa dei dirigenti è ottimista sull’economia globale, più di quattro su cinque sono fiduciosi sulle prestazioni della propria organizzazione nell’anno a venire. I dirigenti si aspettano di prendere decisioni più rapide e sono disposti a riprogettare i modelli operativi, mentre i dipendenti sono ampiamente positivi riguardo all’IA nella loro vita lavorativa. I clienti, a loro volta, sono pronti a premiare (o punire) i marchi in base a come le aziende utilizzano i loro dati. Tendenza 1: l’IA agenziale come asset strategico L’IA agenziale sta emergendo come uno dei principali strumenti che i leader si aspettano di utilizzare nel prossimo anno e la maggior parte dei dirigenti afferma che gli agenti di IA li stanno già aiutando. Tuttavia, affinché l’IA agenziale abbia successo, le opinioni espresse affermano che: L’architettura dei dati deve supportare una visione quasi in tempo reale, non una reportistica periodica. Il successo degli agenti AI dipenderà dall’accesso ai sistemi principali (ERP, CRM, piattaforme di supply chain). L’IA agenziale passa da sperimentale a operativa. I leader ritengono di dover decidere quali decisioni possono essere delegate agli agenti di IA, quali richiedono una revisione umana e quali devono rimanere guidate dall’uomo. Tendenza 2: i dipendenti chiederanno più formazione e l’IA è ok La maggior parte dei dipendenti afferma che il ritmo dei cambiamenti tecnologici nei loro ruoli è sostenibile e che sono sicuri di riuscire a stare al passo con i nuovi strumenti. Il doppio dei dipendenti afferma che accetterebbe, e non si opporrebbe, a un maggiore utilizzo dell’IA sul posto di lavoro, considerando la tecnologia come un modo per eliminare le attività ripetitive e apprendere nuove competenze. Questo dato è in linea con i risultati di una ricerca di KPMG. I dirigenti si aspettano una significativa riqualificazione dei loro dipendenti, quindi dovrebbero prevedere che almeno la metà della loro forza lavoro avrà bisogno di una qualche forma di riqualificazione entro la fine del 2026, grazie all’automazione dell’IA. Altri sondaggi concordano con IBM e affermano che le competenze più richieste sono la risoluzione dei problemi, la creatività e l’innovazione. I dipendenti dichiarano di essere disposti a cambiare datore di lavoro per avere accesso a migliori opportunità di formazione, il che significa che lo sviluppo delle competenze gioca un ruolo diretto nella riduzione del turnover dei dipendenti. Tendenza 3: i clienti chiederanno conto delle politiche sui dati I dirigenti intervistati concordano sul fatto che la fiducia dei consumatori nell’uso dell’IA da parte di un marchio definirà il successo di nuovi prodotti e servizi. I consumatori sono disposti a tollerare errori occasionali, ma non l’opacità. I clienti vogliono spiegazioni su come vengono utilizzati i loro dati, sapere quando l’IA è coinvolta nelle interazioni con loro e trovare modi semplici per scegliere di partecipare o meno. Gli studi di Deloitte e KPMG (vedi sopra) rafforzano questo quadro. Le implicazioni per i leader includono il trattamento della trasparenza come caratteristica del prodotto e la scelta di modelli che supportino la spiegabilità. Tendenza 4: l’AI e il cloud richiederanno una fornitura locale La sovranità dell’IA – la capacità di un’organizzazione di controllare e governare i propri sistemi, dati e infrastrutture di IA – è diventata il fulcro della pianificazione della resilienza. Quasi tutti i dirigenti intervistati hanno dichiarato che terranno conto della sovranità dell’IA nella loro strategia per il 2026. Alla luce delle preoccupazioni sulla residenza dei dati e sulla giurisdizione del cloud, i leader stanno ripensando a dove vengono eseguiti i modelli e dove vivono i dati. Gli studi condotti dai leader IT del Regno Unito e dell’Europa mostrano una crescente preoccupazione per l’eccessiva dipendenza da servizi cloud stranieri (in quest’ultimo caso, “basati negli Stati Uniti”). Anche la società di consulenza Accenture esorta i leader [PDF] a sviluppare strategie di AI sovrane che diano priorità al controllo, alla trasparenza e alla scelta. I punti chiave includono la necessità di piattaforme di IA portatili, il monitoraggio della conformità dei dati e una forte enfasi sull’ubicazione fisica dei dati. La resilienza dell’IA riguarda in ultima analisi la continuità e la trasparenza. È necessario garantire che l’organizzazione sia in grado di adattarsi e di operare in modo aperto, anche quando il panorama tecnologico e geopolitico globale cambia. Tendenza 5: pianificare il vantaggio quantistico Secondo i risultati del rapporto, la quantistica si sta spostando verso la sperimentazione nel breve termine. La ricerca di IBM sulla prontezza quantistica (in linea con la sua monetizzazione dei servizi quantistici) suggerisce che il vantaggio quantistico iniziale è probabile in settori mirati come l’ottimizzazione e la scienza dei materiali. Il rapporto invita a individuare un numero limitato di utilizzi quantistici ad alto impatto nell’impresa e a unire gli ecosistemi in tempi brevi. “Identifica le grandi scommesse per vincere con le tecnologie emergenti, compresa la quantistica, e collabora all’innovazione per condividere i costi”, si legge nel rapporto. (Fonte immagine:“California Perfect” di moonjazz è concessa in licenza CC BY-SA 2.0.) Leggi di più su www.artificialintelligence-news.com
Fox News Media firma un accordo per l’intelligenza artificiale con Palantir

Top of the Ticker: Fox News e Palantir hanno siglato un accordo sull’intelligenza artificiale che porterà alla creazione di strumenti personalizzati di AI per i giornalisti del network. La partnership, in corso da un anno, garantisce a Palantir un ampio accesso al flusso di lavoro di Fox News Media per facilitare la trasformazione dell’intelligenza artificiale, senza che la società di media rinunci alla sua proprietà intellettuale. Gli strumenti a disposizione dei giornalisti includono Topic Radar, che aiuta i reporter ad aggiornarsi rapidamente su una particolare storia attraverso un briefing personalizzato. Text Editor, che valuta lo stile e l’efficienza dei testi, come ad esempio il controllo dei link non funzionanti e l’aderenza alla guida di stile di Fox News. Infine, Article Insights analizza le prestazioni degli articoli digitali di Fox News per fornire indicazioni su come ottimizzare le storie. Per quanto riguarda Fox News, giovedì la rete ha annunciato che Bill Melugin si è trasferito da Los Angeles a Washington D.C., diventando il nuovo corrispondente per il Congresso. Si occuperà degli sviluppi legislativi, delle dinamiche politiche e delle decisioni che avvengono a Capitol Hill. Aggiornamento personale! Sono entusiasta di annunciare che mi sono trasferito a Washington D.C. dove assumerò un nuovo ruolo con @FoxNews come corrispondente dal Congresso per Capitol Hill! Sono entusiasta di unirmi al team e sono pronto a mettermi al lavoro! pic.twitter.com/AmFSmok74c – Bill Melugin (@BillMelugin_) 20 novembre 2025 Infine, Fox News Audio ha siglato un accordo di licenza per l’acquisizione di 52 episodi di The Life of Jesus Podcast da Gulfstream Studios. Questi podcast faranno parte della verticale religiosa di Fox News Media, Fox Faith, e debutteranno in quattro puntate con il primo lotto disponibile a novembre. I podcast successivi si allineeranno ai momenti chiave del calendario cristiano, con la co-conduttrice di Fox & Friends Ainsley Earhardt che introdurrà ogni episodio di 30 minuti, con la partecipazione di Kristen Bell, Neal McDonough e Sean Astin. Podcast di spicco: Il podcast Dateline NBC di NBC News e il podcast The Best People with Nicolle Wallace di MSNBC sono stati inseriti nella classifica dei podcast di Apple per il 2025. Dateline NBC è stato molto presente in varie classifiche, tra cui la quinta più popolare dell’anno, mentre The Best People ha ottenuto il n. 10 nella classifica dei migliori nuovi programmi per il 2025. Riflettendo su ciò che rende Dateline NBC un programma di successo nel mondo dei podcast, la senior ep Liz Cole ha dichiarato a TVNewser: “Sono gli stessi elementi che hanno reso Dateline un programma di successo in TV per decenni: grandi storie, ben raccontate. E siamo fortunati ad avere alcune delle voci più iconiche del true crime che le portano in vita” NUOVO: @ApplePodcasts nomina @DatelineNBC come il quinto podcast più popolare del 2025. anche 🎖️Deadly Mirage e Murder in the Moonlight sono tra i nuovi programmi più popolari 🎖️#Dateline è uno dei canali top e uno degli show con il maggior numero di abbonati dell’anno https://t.co/NMytVzyYsT – NBC News PR (@NBCNewsPR) 18 novembre 2025 Riconoscimenti meritati: David Muir di ABC News ha ricevuto un premio alla carriera dalla Library of American Broadcasting Foundation (LABF) venerdì 14 novembre. Introdotto da Bill Whitaker di CBS News, il conduttore e direttore generale di World News Tonight ha detto: “Il motivo per cui siamo qui è che stiamo sulle spalle delle persone che ci hanno aperto la porta. Le porte di quella stazione televisiva quando avevo 13 anni” Muir ha aggiunto: “Quindi lasciatemi dire grazie… e guardiamoci tutti alle spalle un po’ di più e assicuriamoci di raggiungere i giovani che saranno i prossimi, perché abbiamo bisogno di giovani, i leader e i giornalisti di domani, ora più che mai” Nel frattempo, sabato sera, la conduttrice di CBS News Sunday Morning Jane Pauley ha ricevuto la 2025 Poynter Medal for Lifetime Achievement in Journalism dal Poynter Institute. Il premio è stato consegnato a Pauley durante l’annuale Bowtie Ball di Poynter a Tampa, in Florida. All’evento sono stati premiati anche l’editore del New York Times Dean Baquet e il creatore di Doonesbury G.B. “Garry” Trudeau, che ha ricevuto un premio per il servizio. 🏆 Che serata fenomenale! Il 2025 Bowtie Ball di Poynter è stata una serata ricca di momenti indimenticabili. Congratulazioni ai nostri tre magnifici premiati e grazie alle centinaia di ospiti e all’incredibile staff di Poynter che ha reso possibile la serata. Ci vediamo l’anno prossimo! pic.twitter.com/N1QiAkpZz8 – Poynter (@Poynter) 17 novembre 2025 Leggi di più su www.adweek.com
Regno Unito e Germania progettano di commercializzare il supercalcolo quantistico

Il Regno Unito e la Germania intendono integrare i loro settori scientifici per accelerare la commercializzazione della tecnologia di supercalcolo quantistico. Annunciati l’ultimo giorno della visita di Stato del presidente tedesco, questi impegni congiunti mirano a colmare il divario tra la ricerca e lo sviluppo e le applicazioni aziendali nel campo dell’informatica, del rilevamento e della tempistica. La partnership prevede finanziamenti specifici per accelerare lo sviluppo dei prodotti e stabilire standard operativi condivisi. La tecnologia quantistica è al momento un’incognita per la maggior parte delle roadmap, ma i modelli economici suggeriscono un contributo di 11 miliardi di sterline al PIL del Regno Unito entro il 2045, con oltre 100.000 posti di lavoro. Per catalizzare tutto questo, all’inizio del 2026 verrà lanciato un bando di finanziamento congiunto per la R&S da 6 milioni di sterline, con un contributo di 3 milioni di sterline ciascuno da parte di Innovate UK e VDI. Questo capitale ha lo scopo di aiutare le imprese a portare nuovi prodotti sul mercato piuttosto che finanziare studi puramente accademici. La maturità della catena di approvvigionamento rimane un ostacolo. Un investimento di 8 milioni di sterline nel Fraunhofer Centre for Applied Photonics di Glasgow affronta questo problema sostenendo lo sviluppo della fotonica applicata, una componente necessaria per il rilevamento quantistico commerciale. Affrontare gli ostacoli nel Regno Unito, in Germania e altrove per commercializzare il supercalcolo quantistico La frammentazione normativa spesso blocca l’adozione. Un nuovo protocollo d’intesa tra il National Physical Laboratory (NPL) del Regno Unito e il Physikalisch-Technische Bundesanstalt (PTB) della Germania mira ad armonizzare gli standard di misurazione. Questo accordo integra l’iniziativa NMI-Q, uno sforzo globale per sviluppare norme condivise. Il Ministro della Scienza britannico Lord Vallance ha dichiarato: “La tecnologia quantistica rivoluzionerà campi come la sicurezza informatica, la scoperta di farmaci, l’imaging medico e molto altro ancora. La collaborazione internazionale è fondamentale per sbloccare questi vantaggi” In termini pratici, questi progressi consentono alle aziende farmaceutiche di individuare più velocemente nuovi farmaci. Allo stesso modo, i sensori di nuova generazione promettono scanner medici più accessibili, portatili e precisi rispetto alle versioni attuali. La collaborazione si estende anche al calcolo ad alte prestazioni (HPC). Il National Supercomputing Centre dell’Università di Edimburgo è stato selezionato dall’EuroHPC Joint Undertaking per ospitare l’Antenna AI Factory del Regno Unito, in collaborazione con la HammerHAI AI Factory di Stoccarda. Per sostenere l’integrazione dell’HPC prima della commercializzazione della tecnologia di supercalcolo quantistico, il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) sta stanziando fino a 3,9 milioni di sterline per finanziare la partecipazione del Regno Unito a tre bandi EuroHPC aperti. Questo finanziamento aiuta i team che sviluppano software exascale e AI-ready. Nel settore aerospaziale, le due nazioni hanno recentemente impegnato un finanziamento congiunto di oltre 6 miliardi di euro per l’Agenzia Spaziale Europea. Tra questi, 1 miliardo di euro per i programmi di lancio e 10 milioni di euro per la Rocket Factory Augsburg, che prevede un lancio dalla Scozia nel 2026. Il Presidente tedesco Frank-Walter Steinmeier ha concluso la sua visita alla Siemens Healthineers di Oxford. Il sito produce magneti superconduttori per gli scanner MRI, un esempio di come i legami scientifici bilaterali sostengano la produzione altamente qualificata e i risultati in termini di salute. Con l’intensificarsi di questa cooperazione bilaterale, l’approccio integrato tra Regno Unito e Germania verso il supercalcolo e l’infrastruttura quantistica mira a offrire alle imprese una base potente per scalare i carichi di lavoro ad alte prestazioni in tutta Europa. Leggi di più su www.artificialintelligence-news.com
Gli agenti AI di frontiera sostituiscono i chatbot

Secondo AWS, in occasione del re:Invent 2025 di questa settimana, il ciclo di successo dei chatbot è effettivamente morto e gli agenti AI di frontiera hanno preso il loro posto. Questo è il messaggio senza mezzi termini che arriva da Las Vegas questa settimana. L’ossessione del settore per le interfacce di chat è stata sostituita da un mandato molto più impegnativo: “agenti di frontiera” che non si limitano a parlare, ma lavorano autonomamente per giorni interi. Stiamo passando dalla fase di novità dell’IA generativa a un’era di economia infrastrutturale e idraulica operativa. Il fattore “wow” di un bot che scrive poesie è svanito; ora è arrivato il momento di pagare l’infrastruttura necessaria per far funzionare questi sistemi su scala. Affrontare la crisi idraulica a AWS re:Invent 2025 Fino a poco tempo fa, costruire agenti AI di frontiera in grado di eseguire compiti complessi e non deterministici era un incubo di ingegneria su misura. I primi utilizzatori hanno sprecato risorse per mettere insieme strumenti per gestire il contesto, la memoria e la sicurezza. AWS sta cercando di eliminare questa complessità con Amazon Bedrock AgentCore. Si tratta di un servizio gestito che funge da sistema operativo per gli agenti, gestendo il lavoro di back-end della gestione dello stato e del recupero del contesto. I guadagni in termini di efficienza derivanti dalla standardizzazione di questo livello sono difficili da ignorare. Prendiamo ad esempio MongoDB. Abbandonando la loro infrastruttura fatta in casa per AgentCore, hanno consolidato la loro catena di strumenti e portato in produzione un’applicazione basata su agenti in otto settimane, un processo che in precedenza richiedeva mesi di tempo per la valutazione e la manutenzione. Il PGA TOUR ha ottenuto risultati ancora più brillanti, utilizzando la piattaforma per costruire un sistema di generazione di contenuti che ha aumentato la velocità di scrittura del 1.000% e ha ridotto i costi del 95%. Anche i team di software stanno ottenendo una forza lavoro dedicata. A re:Invent 2025, AWS ha presentato tre agenti AI di frontiera specifici: Kiro (uno sviluppatore virtuale), un agente di sicurezza e un agente DevOps. Kiro non è solo uno strumento di completamento del codice, ma si aggancia direttamente ai flussi di lavoro con “poteri” (integrazioni specializzate per strumenti come Datadog, Figma e Stripe) che gli permettono di agire con un contesto piuttosto che indovinare la sintassi. Gli agenti che funzionano per giorni consumano enormi quantità di calcolo. Se paghi le tariffe standard on-demand per questo, il tuo ROI evapora. AWS lo sa bene ed è per questo che gli annunci hardware di quest’anno sono aggressivi. I nuovi UltraServer Trainium3, alimentati da chip a 3nm, dichiarano un salto di 4,4 volte nelle prestazioni di calcolo rispetto alla generazione precedente. Per le organizzazioni che si occupano della formazione di modelli di base massicci, questo riduce i tempi di formazione da mesi a settimane. Ma il cambiamento più interessante riguarda il luogo in cui risiede l’elaborazione. La sovranità dei dati rimane un problema per le aziende globali, che spesso bloccano l’adozione del cloud per i carichi di lavoro AI sensibili. AWS sta contrastando questo problema con le “fabbriche di AI” (essenzialmente spedendo rack di chip Trainium e GPU NVIDIA direttamente nei data center esistenti dei clienti) Si tratta di un’operazione ibrida che riconosce una semplice verità: per alcuni dati, il cloud pubblico è ancora troppo lontano. Affrontare la montagna del legacy L’innovazione, come quella che stiamo vedendo con gli agenti AI di frontiera, è fantastica, ma la maggior parte dei budget IT è strangolata dal debito tecnico. I team spendono circa il 30% del loro tempo solo per tenere accese le luci. Durante re:Invent 2025, Amazon ha aggiornato AWS Transform per affrontare questo problema in modo specifico, utilizzando l’intelligenza artificiale agenziale per gestire il lavoro di aggiornamento del codice legacy. Il servizio è ora in grado di gestire la modernizzazione full-stack di Windows, compreso l’aggiornamento delle applicazioni .NET e dei database SQL Server. Air Canada lo ha utilizzato per modernizzare migliaia di funzioni Lambda. Hanno finito in pochi giorni. Farlo manualmente sarebbe costato cinque volte di più e avrebbe richiesto settimane. Per gli sviluppatori che vogliono effettivamente scrivere codice, l’ecosistema si sta ampliando. L’SDK di Strands Agents, che in precedenza era solo Python, ora supporta anche TypeScript. Essendo la lingua franca del web, porta la sicurezza dei tipi nell’output caotico degli LLM e rappresenta un’evoluzione necessaria. Una governance sensata nell’era degli agenti AI di frontiera C’è un pericolo. Un agente che lavora autonomamente per “giorni senza intervento” è anche un agente che può distruggere un database o divulgare PII senza che nessuno se ne accorga finché non è troppo tardi. AWS sta tentando di arginare questo rischio con “AgentCore Policy”, una funzione che consente ai team di definire in linguaggio naturale i limiti di ciò che un agente può o non può fare. Insieme a “Evaluations”, che utilizza metriche predefinite per monitorare le prestazioni degli agenti, fornisce una rete di sicurezza molto necessaria. Anche i team che si occupano di sicurezza ricevono una spinta grazie agli aggiornamenti di Security Hub, che ora mette in relazione i segnali provenienti da GuardDuty, Inspector e Macie in singoli “eventi”, anziché inondare la dashboard di avvisi isolati. GuardDuty stesso si sta espandendo, utilizzando il ML per rilevare modelli complessi di minacce su cluster EC2 ed ECS. Abbiamo chiaramente superato la fase dei programmi pilota. Gli strumenti annunciati ad AWS re:Invent 2025, dal silicio specializzato ai framework governati per gli agenti AI di frontiera, sono progettati per la produzione. La domanda che si pongono i leader aziendali non è più “cosa può fare l’IA?”, ma “possiamo permetterci l’infrastruttura per permetterle di fare il suo lavoro?” Leggi di più su www.artificialintelligence-news.com
Gli aggiornamenti del cloud di Microsoft supportano gli obiettivi di AI a lungo termine dell’Indonesia

La spinta dell’Indonesia verso la crescita guidata dall’intelligenza artificiale sta prendendo piede, mentre un numero sempre maggiore di organizzazioni locali cerca un modo per creare le proprie applicazioni, aggiornare i propri sistemi e rafforzare la supervisione dei dati. Il paese ha ora un accesso più ampio agli strumenti cloud e AI dopo che Microsoft ha ampliato i servizi disponibili nella regione cloud Indonesia Central, che è stata attivata per la prima volta sei mesi fa. L’espansione offre alle aziende, agli enti pubblici e agli sviluppatori maggiori possibilità di eseguire i carichi di lavoro AI all’interno del paese invece che nei data center esteri. L’aggiornamento è stato condiviso al Cloud & AI Innovation Summit di Jakarta, dove i leader delle aziende e dei governi si sono incontrati per discutere di come l’Indonesia possa far progredire le sue ambizioni in materia di AI. Sono intervenuti Mike Chan, responsabile di Azure AI Apps & Agents in Asia, e Dharma Simorangkir, President Director di Microsoft Indonesia. Il loro messaggio è stato che la capacità locale è utile solo se le organizzazioni la mettono in pratica. Durante l’evento, Dharma ha affermato che i nuovi servizi “aprono le porte a ogni organizzazione per innovare in Indonesia, per l’Indonesia”, invitando i team dei vari settori a creare soluzioni che rispondano alle esigenze nazionali. Un cambiamento verso la costruzione, non solo l’adozione Molte aziende indonesiane stanno andando oltre le sperimentazioni di base dell’intelligenza artificiale e stanno progettando strumenti che risolvono problemi specifici delle loro attività. Microsoft descrive questo tipo di organizzazioni come “aziende di frontiera”: team che considerano l’IA come una parte fondamentale del loro lavoro, piuttosto che un’aggiunta opzionale. Queste aziende tendono a concentrarsi sulla creazione di applicazioni che semplificano le attività dei clienti, migliorano i processi interni o modernizzano i vecchi flussi di lavoro. Per sostenere questo cambiamento, l’area centrale dell’Indonesia ospita ora una serie di servizi Azure che aiutano i team a progettare e distribuire il software. Questi includono strumenti per la creazione di applicazioni connesse ai dati, servizi per l’archiviazione e la gestione di dati strutturati e una serie di macchine virtuali pronte per l’AI in grado di addestrare ed eseguire modelli avanzati. Le macchine costruite per il lavoro di calcolo pesante consentono ai team di mantenere i dati all’interno del paese mentre lavorano con carichi di lavoro AI complessi. La regione supporta ora Microsoft 365 Copilot, che offre funzionalità di IA agli strumenti di lavoro più comuni. Gli sviluppatori hanno accesso anche a GitHub Copilot, che suggerisce il codice e velocizza lo sviluppo del software. Questi servizi formano uno stack connesso che aiuta i team a superare i piccoli progetti pilota e a passare alla produzione, dove l’affidabilità e il controllo dei costi sono più importanti. I primi progetti cloud di Microsoft in Indonesia L’espansione della regione segue una domanda costante dal lancio nel maggio 2025. Le aziende del settore minerario, dei viaggi e dei servizi digitali stanno già utilizzando l’infrastruttura cloud locale per aggiornare i sistemi esistenti e soddisfare le esigenze di governance dei dati più rigorose. Petrosea e Vale Indonesia sono tra le aziende che utilizzano la regione per supportare gli aggiornamenti tecnici e l’archiviazione sicura dei dati locali. Le aziende digital-first stanno anche sperimentando un impegno più diretto con l’intelligenza artificiale. Un esempio è quello di tiket.com, che ha costruito il proprio assistente di viaggio AI utilizzando il servizio Azure OpenAI. L’assistente permette ai clienti di interagire con la piattaforma con il linguaggio di tutti i giorni, dal controllo degli aggiornamenti dei voli all’aggiunta di servizi extra dopo una prenotazione. “I nostri progressi nel campo dell’intelligenza artificiale sono pensati per offrire la migliore esperienza possibile ai nostri clienti”, ha dichiarato Irvan Bastian Arief, PhD, Vice Presidente della Tecnologia GRAND, Data & AI di tiket.com. L’azienda vede l’intelligenza artificiale conversazionale come un modo per semplificare la pianificazione dei viaggi e ridurre l’attrito nell’assistenza ai clienti. Riunire i dati sparsi in un unico sistema Uno dei temi principali del summit è stata la necessità di mettere ordine nei dati prima di adottare l’IA su scala. A tal fine, Microsoft ha introdotto Microsoft Fabric nel mercato indonesiano. Fabric è un unico ambiente che riunisce l’ingegneria dei dati, l’integrazione, l’archiviazione, l’analisi e la business intelligence. Include funzioni Copilot che aiutano i team a preparare i dati e a creare approfondimenti senza doversi destreggiare tra più strumenti. Per molte organizzazioni, i dati si trovano in diversi sistemi interni e fornitori di cloud. Fabric offre ai team un unico luogo in cui riunire queste fonti, il che può aiutare a migliorare la governance, velocizzare la reportistica e controllare i costi. La piattaforma è pensata per i team che desiderano una struttura senza dover costruire da zero la propria base di dati. Preparare la forza lavoro indonesiana all’AI pratica con gli strumenti Microsoft L’attenzione della giornata non si è limitata alle infrastrutture. Microsoft ha anche evidenziato il suo programma di formazione sull’IA, Microsoft Elevate, che sta entrando nel suo secondo anno. Il programma ha già raggiunto più di 1,2 milioni di studenti e mira a certificare 500.000 persone in competenze AI entro il 2026. La prossima fase si concentrerà sull’utilizzo pratico, incoraggiando i partecipanti ad applicare l’IA in contesti reali anziché limitarsi ad apprendere concetti teorici. La formazione copre un’ampia gamma di gruppi: insegnanti, operatori no-profit, leader di comunità e persone che desiderano migliorare le proprie competenze digitali. I partecipanti imparano attraverso strumenti come Microsoft Copilot, Learning Accelerator, Minecraft Education e moduli progettati per spiegare come l’IA può supportare attività pratiche. Durante il summit, Dharma ha affermato che il cloud e l’IA “sono la spina dorsale della competitività nazionale” e ha sottolineato che le infrastrutture contano solo se le persone sono pronte a usarle. Costruire un ecosistema a lungo termine Questi sforzi rientrano in un impegno più ampio di 1,7 miliardi di dollari che Microsoft ha promesso per l’Indonesia dal 2024 al 2028. L’investimento riguarda le infrastrutture, il supporto ai partner e lo sviluppo dei talenti. L’azienda si sta inoltre preparando a ospitare il GitHub Universe
La scoperta dell’apprendimento avversivo consente la sicurezza dell’intelligenza artificiale in tempo reale

La capacità di eseguire l’apprendimento avversario per la sicurezza dell’intelligenza artificiale in tempo reale offre un vantaggio decisivo rispetto ai meccanismi di difesa statici. L’emergere di attacchi guidati dall’intelligenza artificiale – che utilizzano capacità di apprendimento per rinforzo (RL) e Large Language Model (LLM) – ha creato una classe di “vibe hacking” e minacce adattive che mutano più velocemente di quanto i team umani possano rispondere. Questo rappresenta un rischio operativo e di governance per i leader aziendali che la politica da sola non può mitigare. Gli aggressori ora utilizzano ragionamenti in più fasi e la generazione automatica di codice per aggirare le difese consolidate. Di conseguenza, il settore sta osservando una necessaria migrazione verso la “difesa autonoma” (ossia sistemi in grado di apprendere, anticipare e rispondere in modo intelligente senza l’intervento umano) La transizione verso questi sofisticati modelli di difesa, tuttavia, ha storicamente incontrato un duro limite operativo: la latenza. L’applicazione dell’apprendimento avversario, in cui i modelli di minaccia e di difesa vengono addestrati continuamente l’uno contro l’altro, offre un metodo per contrastare le minacce di sicurezza dell’intelligenza artificiale. Tuttavia, l’implementazione delle necessarie architetture basate su trasformatori in un ambiente di produzione in tempo reale crea un collo di bottiglia. Abe Starosta, Principal Applied Research Manager di Microsoft NEXT.ai, ha dichiarato: “L’apprendimento avversivo funziona in produzione solo quando latenza, throughput e precisione si muovono insieme. I costi di calcolo associati all’esecuzione di questi modelli densi in precedenza costringevano i leader a scegliere tra il rilevamento ad alta precisione (che è lento) e l’euristica ad alta velocità (che è meno accurata). La collaborazione ingegneristica tra Microsoft e NVIDIA mostra come l’accelerazione hardware e l’ottimizzazione a livello di kernel eliminino questa barriera, rendendo la difesa avversaria in tempo reale fattibile su scala aziendale. Per rendere operativi i modelli di trasformatori per il traffico in tempo reale, i team di ingegneri hanno dovuto affrontare i limiti intrinseci dell’inferenza basata su CPU. Le unità di elaborazione standard faticano a gestire il volume e la velocità dei carichi di lavoro di produzione quando vengono caricate di reti neurali complesse. Nei test di base condotti dai team di ricerca, una configurazione basata sulla CPU ha prodotto una latenza end-to-end di 1239,67 ms con un throughput di appena 0,81req/s. Per un istituto finanziario o una piattaforma di e-commerce globale, un ritardo di un secondo per ogni richiesta è insostenibile dal punto di vista operativo. Passando a un’architettura accelerata dalle GPU (in particolare utilizzando le unità NVIDIA H100), la latenza di base è scesa a 17,8ms. I soli aggiornamenti hardware, tuttavia, si sono rivelati insufficienti per soddisfare i severi requisiti della sicurezza dell’intelligenza artificiale in tempo reale. Grazie a un’ulteriore ottimizzazione del motore di inferenza e dei processi di tokenizzazione, i team hanno raggiunto una latenza finale end-to-end di 7,67 ms, con un aumento delle prestazioni di 160 volte rispetto alla CPU di riferimento. Questa riduzione porta il sistema ben al di sotto delle soglie di accettabilità per l’analisi del traffico in linea, consentendo l’implementazione di modelli di rilevamento con un’accuratezza superiore al 95% nei benchmark di apprendimento avversario. Un ostacolo operativo identificato nel corso di questo progetto offre spunti preziosi ai CTO che si occupano dell’integrazione dell’intelligenza artificiale. Mentre il modello di classificazione in sé è pesante dal punto di vista computazionale, la pipeline di pre-elaborazione dei dati – in particolare la tokenizzazione – è emersa come un secondo collo di bottiglia. Le tecniche di tokenizzazione standard, che spesso si basano sulla segmentazione degli spazi bianchi, sono state progettate per l’elaborazione del linguaggio naturale (ad esempio articoli e documentazione). Si rivelano inadeguate per i dati di cybersecurity, che sono costituiti da stringhe di richiesta densamente impacchettate e da payload generati dalla macchina che non presentano interruzioni naturali. Per risolvere questo problema, i team di ingegneri hanno sviluppato un tokenizzatore specifico per il dominio. Integrando punti di segmentazione specifici per la sicurezza, adattati alle sfumature strutturali dei dati macchina, hanno permesso un parallelismo a grana più fine. Questo approccio su misura per la sicurezza ha permesso di ridurre di 3,5 volte la latenza di tokenizzazione, evidenziando che i componenti di IA già pronti per l’uso spesso richiedono una reingegnerizzazione specifica per il dominio per funzionare efficacemente in ambienti di nicchia. Per ottenere questi risultati è stato necessario uno stack di inferenza coeso piuttosto che aggiornamenti isolati. L’architettura ha utilizzato NVIDIA Dynamo e Triton Inference Server per il servizio, insieme a un’implementazione TensorRT del classificatore di minacce di Microsoft. Il processo di ottimizzazione ha comportato la fusione di operazioni chiave – come la normalizzazione, l’incorporazione e le funzioni di attivazione – in singoli kernel CUDA personalizzati. Questa fusione riduce al minimo il traffico di memoria e l’overhead di lancio, che sono spesso i killer silenziosi delle prestazioni nelle applicazioni di sicurezza o di trading ad alta frequenza. TensorRT ha fuso automaticamente le operazioni di normalizzazione nei kernel precedenti, mentre gli sviluppatori hanno creato kernel personalizzati per l’attenzione a finestra scorrevole. Il risultato di queste ottimizzazioni specifiche dell’inferenza è stata una riduzione della latenza del forward-pass da 9,45 ms a 3,39 ms, un aumento di velocità di 2,8 volte che ha contribuito alla maggior parte della riduzione della latenza osservata nelle metriche finali. Rachel Allen, Cybersecurity Manager di NVIDIA, ha spiegato: “Mettere in sicurezza le imprese significa far fronte al volume e alla velocità dei dati di cybersecurity e adattarsi alla velocità di innovazione degli avversari”. “I modelli difensivi hanno bisogno di una latenza bassissima per essere eseguiti ad alta velocità e della capacità di adattarsi alle minacce più recenti. La combinazione dell’apprendimento avversario con i modelli di rilevamento basati su trasformatori accelerati di NVIDIA TensorRT fa proprio questo” Il successo in questo caso indica un requisito più ampio per le infrastrutture aziendali. Poiché gli attori delle minacce sfruttano l’intelligenza artificiale per mutare gli attacchi in tempo reale, i meccanismi di sicurezza devono avere la capacità di calcolo necessaria per eseguire modelli di inferenza complessi senza introdurre latenza. Affidarsi al calcolo della CPU per il rilevamento avanzato delle
Google si impegna a incrementare di 1000 volte l’infrastruttura AI nei prossimi 4-5 anni

Per soddisfare l’enorme domanda di AI, Google vuole raddoppiare le dimensioni complessive dei suoi server ogni sei mesi, un tasso di crescita che creerebbe una capacità 1000 volte superiore nei prossimi quattro o cinque anni. Secondo quanto riportato dalla CNBC, la dichiarazione è stata rilasciata dal responsabile dell’infrastruttura AI di Google, Amin Vahdat, durante una riunione di tutti i dipendenti il 6 novembre. Alphabet, la società madre di Google, sta sicuramente ottenendo buoni risultati, quindi una simile richiesta potrebbe rientrare nelle sue possibilità finanziarie. Alla fine di ottobre ha riportato ottimi dati relativi al terzo trimestre e ha alzato le previsioni di spesa in conto capitale a 93 miliardi di dollari, rispetto ai 91 miliardi di dollari. Vahdat ha risposto alla domanda di un dipendente sul futuro dell’azienda in un momento in cui si parla di “bolla dell’intelligenza artificiale”, ribadendo i rischi di un investimento non abbastanza aggressivo. Nelle sue operazioni di cloud, l’investimento in infrastrutture ha dato i suoi frutti. “Il rischio di un investimento insufficiente è piuttosto alto […] i numeri del cloud sarebbero stati molto migliori se avessimo avuto più calcoli” L’attività cloud di Google continua a crescere di circa il 33% all’anno, creando un flusso di entrate che consente all’azienda di essere “meglio posizionata per resistere alle perdite rispetto ad altre aziende”, ha dichiarato. Grazie a un’infrastruttura migliore con hardware più efficiente, come la Tensor Processing Unit di settima generazione, e a modelli LLM più efficienti, Google è fiduciosa di poter continuare a creare valore per la crescente implementazione delle tecnologie AI da parte dei suoi utenti aziendali. Secondo Markus Nispel di Extreme Networks, che ha scritto su techradar.com a settembre, è l’infrastruttura IT a far vacillare la visione dell’IA delle aziende. L’autore attribuisce la responsabilità del fallimento dei progetti di IA alle elevate esigenze che i carichi di lavoro dell’IA pongono ai sistemi preesistenti, alla necessità di strutture in tempo reale ed edge (spesso assenti nelle aziende attuali) e alla continua presenza di silos di dati. “Anche quando i progetti vengono avviati, spesso sono ostacolati da ritardi causati dalla scarsa disponibilità di dati o dalla frammentazione dei sistemi. Se i dati puliti e in tempo reale non possono fluire liberamente all’interno dell’organizzazione, i modelli di IA non possono funzionare in modo efficace e le informazioni che producono arrivano troppo tardi o non hanno alcun impatto”, ha affermato. “Con l’80% dei progetti di IA che non riescono a soddisfare le aspettative a livello globale, principalmente a causa dei limiti dell’infrastruttura piuttosto che della tecnologia di IA stessa, ciò che conta ora è il modo in cui rispondiamo” Le sue opinioni sono condivise dai responsabili dei grandi fornitori di tecnologia: Si prevede che quest’anno la spesa in conto capitale di Google, Microsoft, Amazon e Meta supererà i 380 miliardi di dollari, la maggior parte dei quali sarà destinata all’infrastruttura AI. Il messaggio degli hyperscaler è chiaro: se lo costruiamo, arriveranno. Affrontare le sfide infrastrutturali che le organizzazioni incontrano è la componente chiave per un’implementazione di successo dei progetti basati sull’IA. Un’infrastruttura agile il più vicino possibile al punto di calcolo e set di dati unificati sono considerati elementi importanti della ricetta per ottenere il massimo valore dai progetti di IA di prossima generazione. Sebbene nei prossimi sei mesi si preveda un certo riallineamento del mercato nel settore dell’IA, aziende come Google sono tra quelle che si prevede riusciranno a consolidare il mercato e a continuare a offrire tecnologie rivoluzionarie basate sull’IA durante la sua evoluzione. (Fonte immagine: “Construction site” by tomavim is licensed under CC BY-NC 2.0.) Leggi di più su www.artificialintelligence-news.com
Come la Royal Navy sta utilizzando l’intelligenza artificiale per ridurre il carico di lavoro del reclutamento

La Royal Navy sta affidando la prima linea delle sue operazioni di reclutamento a un avatar AI in tempo reale chiamato Atlas. Atlas è alimentato da un modello linguistico di grandi dimensioni ed è stato impiegato per rispondere alle domande dei futuri sommergibilisti. L’implementazione dimostra come l’intelligenza artificiale possa favorire il passaggio da un lento triage testuale a un’assistenza automatica veloce e coinvolgente. I progetti IT del settore pubblico spesso soffrono di tempistiche gonfiate e di consegne vaghe, ma l’ultima implementazione della Marina si basa su metriche operative concrete. Il lancio di Atlas segue un caso aziendale specifico: la necessità di filtrare e supportare i candidati a uno dei ruoli più impegnativi del servizio, riducendo al contempo il carico amministrativo del personale. I dati alla base dell’implementazione La Royal Navy, in collaborazione con Wavemaker di WPP Media, ha trascorso anni a perfezionare i punti di ingresso automatizzati. Prima dell’avatar, c’era un assistente basato sul testo. Il sistema iniziale, che è stato recentemente aggiornato a una soluzione completa di LLM e generazione aumentata del reperimento (RAG), ha dimostrato l’efficacia del modello. Ha gestito oltre 460.000 richieste da parte di più di 165.000 utenti e ha registrato un tasso di soddisfazione del 93%. Cosa ancora più importante per i profitti, il sistema basato sul testo ha ridotto del 76% il carico di lavoro dei team di agenti in carne e ossa. Inoltre ha generato 89.000 manifestazioni di interesse, dimostrando che l’automazione può ampliare l’imbuto senza sovraccaricare gli addetti al reclutamento. Atlas è di fatto l’evoluzione visiva di quei successi, progettata per catturare l’attenzione di una fascia demografica più giovane che si impegna in modo diverso con i canali digitali. Sotto il cofano dell’avatar di reclutamento AI L’architettura si basa su un ecosistema di più fornitori piuttosto che su un’unica soluzione. Wavemaker ha guidato la direzione strategica e il design conversazionale, assicurandosi che il “cervello” dell’operazione fosse addestrato alla corretta base di conoscenze. Voxly Digital ha realizzato il front-end e il back-end, con il supporto di Great State, l’agenzia digitale della Marina. Dal punto di vista funzionale, Atlas non si limita a recitare le norme. Utilizza un’interfaccia conversazionale e multimediale. Se un candidato chiede informazioni sulla vita in un sottomarino – un noto punto dolente per la conversione del reclutamento a causa dello stile di vita unico – Atlas è in grado di rispondere con risposte vocali, didascalie sullo schermo e video pertinenti o citazioni del personale in servizio. L’obiettivo è quello di far rimanere l’utente nell’ecosistema più a lungo. Atlas sarà testato durante gli eventi e collegato direttamente all’app NavyReady e al programma Enterprise Customer Relationship Management (e-CRM), garantendo la continuità dei dati. Aumentare, non sostituire Nonostante l’elevato grado di automazione, la Royal Navy inquadra questo avatar dell’IA come uno strumento di incremento della forza lavoro per il reclutamento. Paul Colley, responsabile del marketing della Royal Navy, è stato esplicito sui limiti della tecnologia: “Quando si parla di IA, ci concentriamo su come utilizzarla in modo responsabile e strategico per armare meglio i team che abbiamo. Non si tratta di sostituire il supporto umano. Si tratta di fornire il miglior supporto possibile ovunque e in qualsiasi momento i candidati ne abbiano bisogno”. “Siamo entusiasti di lanciare Atlas e di vedere se è in grado di fornire un nuovo e diverso tipo di supporto a coloro che stanno prendendo in considerazione il servizio sottomarino ma che hanno bisogno di più tempo per esplorare e discutere” Caroline Scott, responsabile dell’e-CRM e dell’innovazione, ha aggiunto: “Sperimentando nuove interfacce e adottando una mentalità di prova e apprendimento, la Royal Navy può essere meglio equipaggiata per capire come queste tecnologie possono trasformare il modo in cui le persone si connettono, si candidano per un ruolo e si impegnano con noi, creando anche esperienze digitali più significative” Per i leader aziendali, il progetto pilota Atlas illustra un approccio maturo all’adozione dell’IA generativa. La Marina non ha iniziato con l’avatar, ma con i dati e un’interfaccia testuale più semplice. Solo dopo aver ottenuto un guadagno di efficienza del 76%, ha deciso di passare a un mezzo visivo più complesso e dispendioso in termini di risorse. Il risultato finale è un sistema di reclutamento assistito dall’intelligenza artificiale che filtra le query di basso valore su scala, consentendo ai reclutatori umani di concentrarsi sui candidati più importanti. Leggi di più su www.artificialintelligence-news.com
Un editore ha guadagnato solo 174 dollari con i crawler AI. Potrebbe cambiare il settore.

Il settore dell’editoria digitale sta attraversando una fase di trasformazione strutturale che potrebbe ridefinire le basi stesse della sua sostenibilità economica. Un dato recente ha acceso i riflettori su questa transizione: un editore ha rivelato di aver incassato appena 174 dollari dai sistemi di intelligenza artificiale che utilizzano i suoi contenuti. Questo numero, al di là del caso specifico, funge da indicatore di un modello di business – quello basato sul traffico web tradizionale – che sta mostrando i suoi limiti nell’era dell’AI generativa. La questione tecnica è chiara: i “crawler” (i software automatici che scansionano il web per addestrare i modelli di linguaggio o generare risposte in tempo reale) accedono ai siti, prelevano le informazioni e le rielaborano. Questo processo spesso soddisfa la curiosità dell’utente direttamente nell’interfaccia dell’AI, rendendo superfluo il clic verso la fonte originale. Di fronte al calo fisiologico del traffico umano, il mercato sta rispondendo con una nuova logica economica: se i dati sono il carburante dell’AI, l’accesso a questi dati deve diventare un servizio a pagamento. In questo articolo La Fine del Modello Pubblicitario Classico? La Soluzione Tecnologica: Il Modello Pay Per Crawl Il Ruolo delle Infrastrutture: Il Caso Cloudflare Nuove Prospettive per la Sostenibilità Editoriale La Fine del Modello Pubblicitario Classico? Per decenni, il patto implicito del web è stato semplice: i contenuti sono gratuiti in cambio dell’attenzione dell’utente, monetizzata tramite la pubblicità. Tuttavia, l’avvento delle risposte generate dall’AI (le cosiddette zero-click searches) rompe questa catena. Se l’utente non atterra sulla pagina, l’editore non può mostrare il banner pubblicitario né proporre un abbonamento. I costi per mantenere le infrastrutture server, però, rimangono, aggravati dal massiccio volume di richieste inviate proprio dai bot dell’AI. In questo scenario, il valore si sposta dall’interazione umana alla qualità del dato grezzo. Gli editori, specialmente quelli che producono informazione verificata e di alta qualità, possiedono l’asset più prezioso per le aziende tecnologiche: la “verità” fattuale necessaria per addestrare modelli affidabili ed evitare che l’AI generi errori o allucinazioni. La Soluzione Tecnologica: Il Modello Pay Per Crawl La risposta del mercato si sta orientando verso la standardizzazione delle licenze. Iniziative come il protocollo Really Simple Licensing (RSL) stanno emergendo per creare un linguaggio comune tra editori e crawler. L’obiettivo è trasformare ogni scansione del sito in una transazione economica misurabile. Si delineano due percorsi principali: Pay-per-Crawl: Un micro-pagamento per ogni pagina scansionata e archiviata dal bot. Pay-per-Inference: Una royalty che scatta ogni volta che il contenuto scansionato viene utilizzato attivamente dall’AI per generare una risposta all’utente finale. Questo approccio trasforma gli editori da semplici destinazioni di traffico a fornitori di dati strutturati per l’industria tecnologica, aprendo un canale di ricavi B2B (Business to Business) che potrebbe compensare le perdite sul fronte pubblicitario. Il Ruolo delle Infrastrutture: Il Caso Cloudflare Perché questo modello funzioni, serve un “casello” digitale, un’infrastruttura capace di distinguere tra un utente umano, un bot malevolo e un crawler autorizzato disposto a pagare. Qui entrano in gioco i grandi gestori delle reti di distribuzione dei contenuti (CDN). Cloudflare, una delle aziende leader nel settore, ha iniziato a implementare strumenti che permettono ai proprietari dei siti di gestire questo flusso con precisione granulare. Le nuove funzionalità consentono agli editori di: Identificare con certezza i bot delle diverse compagnie di AI. Bloccare l’accesso ai crawler che non rispettano gli accordi di licenza. Abilitare meccanismi di negoziazione automatica per l’accesso ai contenuti. Questo sposta il potere contrattuale: l’editore può tecnicamente “chiudere i rubinetti” ai modelli che non contribuiscono economicamente, degradando la qualità delle risposte di quei sistemi (il principio informatico del “garbage in, garbage out”). Nuove Prospettive per la Sostenibilità Editoriale Non siamo di fronte alla fine del giornalismo, ma alla sua evoluzione industriale. Se le visite umane diminuiscono, il valore della produzione giornalistica paradossalmente aumenta agli occhi delle macchine. I modelli di linguaggio, per rimanere rilevanti e precisi, hanno bisogno di un flusso costante di informazioni aggiornate e verificate, qualcosa che l’AI non può generare da sola. Gli editori che sapranno adattarsi a questo scenario potranno diversificare le loro entrate: da un lato continueranno a servire il pubblico umano (magari con formati più approfonditi e analitici), dall’altro diventeranno partner essenziali per le Big Tech. La sfida per il futuro non sarà più solo “fare click”, ma garantire che ogni contenuto prodotto sia tracciato, valorizzato e retribuito all’interno della filiera dell’intelligenza artificiale. È un passaggio verso una maggiore sostenibilità strutturale dell’ecosistema informativo.
