L’AI è in bolla? Avere successo nonostante la correzione del mercato

Tra le pressioni per l’implementazione di soluzioni generative e agenziali, sta emergendo una domanda familiare: “Esiste una bolla dell’IA e sta per scoppiare?” Per molte organizzazioni, questa nuova ondata di IA generativa e agenziale è ancora in fase sperimentale. L’obiettivo principale, e il frutto più facile da ottenere, è stato l’interno. La maggior parte delle aziende guarda all’IA per aumentare l’efficienza, ad esempio automatizzando i flussi di lavoro o semplificando l’assistenza ai clienti. Il problema è che questi guadagni si stanno rivelando sfuggenti. Ben Gilbert, VP di 15gifts, sottolinea che “questi benefici spesso richiedono anni per mostrare un ritorno reale e sono difficili da misurare oltre al risparmio di tempo” È qui che iniziano a manifestarsi le crepe. La corsa all’implementazione è scomodamente familiare e, per alcuni, può provocare una sensazione di PTSD. “La tendenza delle aziende a tuffarsi a capofitto in progetti o soluzioni di IA rispecchia i modelli che abbiamo visto più volte in precedenti bolle tecnologiche, come quella delle dot-com”, spiega Gilbert. Questo divario tra spese sperimentali e profitti misurabili è proprio il punto più debole della bolla. Gilbert sostiene che i progetti di IA che “si concentrano sui guadagni di efficienza e forniscono un ROI poco chiaro o ritardato” saranno i primi a fallire in caso di bolla. Quando gli investimenti “rischiano di diventare costosi esperimenti piuttosto che strumenti redditizi”, il ritiro è inevitabile. “Potremmo vedere i budget restringersi, le startup chiudere e le grandi aziende rivalutare le loro strategie di IA”, afferma Gilbert. Si tratta di un avvertimento supportato dai dati. Gartner ha già previsto che “oltre il 40% dei progetti di IA agenziale fallirà entro il 2027 a causa dell’aumento dei costi, delle sfide di governance e della mancanza di ROI”. Quindi, cosa separa una strategia di IA valida, in grado di sopravvivere allo scoppio di una bolla speculativa, da un esperimento costoso? Gilbert suggerisce che si tratta di sfumature umane; qualcosa che molti progetti trascurano nella fretta di automatizzare. C’è una curiosa discrepanza, osserva: “Perché l’IA è stata adottata in modo così completo per l’aumento dell’efficienza e l’assistenza ai clienti, ma non per le vendite?”. La risposta potrebbe essere che gli algoritmi sono molto utili per vagliare i dati e informare il processo decisionale, ma i consumatori vogliono anche il coinvolgimento, l’intuitività e la fluidità dell’interazione umana. Il successo, quindi, non consiste nel sostituire le persone, ma nell’aumentarle. Gilbert sostiene che “l’IA dovrebbe essere istruita da persone reali, in modo da poter comprendere le sfumature del linguaggio, delle esigenze e delle emozioni umane”. Ciò richiede un processo trasparente, in cui “l’annotazione umana delle conversazioni guidate dall’IA può aiutare a stabilire parametri chiari e a perfezionare le prestazioni di una piattaforma” Non è detto che una bolla di sapone dell’intelligenza artificiale sia imminente. Gilbert spiega che è più probabile assistere a una “correzione del mercato piuttosto che a un crollo completo” e che il potenziale di fondo dell’IA rimane forte. Tuttavia, l’entusiasmo si sgonfierà. Per i leader aziendali, il percorso da seguire richiede un ritorno ai principi fondamentali. “I progetti di IA, sia che si basino sull’hype che sul valore aziendale, per avere successo devono rispondere a una reale esigenza umana”, afferma Gilbert. Che si tratti di una bolla o di una sana correzione del mercato, questo periodo di raffreddamento potrebbe anche essere positivo, in quanto offre alle aziende la possibilità di concentrarsi sulla qualità dell’IA piuttosto che sul clamore e su un’etica più intelligente. Per i CIO e i CFO che gestiscono i budget, Gilbert ritiene che i marchi che prospereranno “saranno quelli che utilizzeranno l’IA per migliorare le capacità umane, non per automatizzarle” “Senza empatia, trasparenza e comprensione umana, anche l’IA più intelligente è destinata a fallire” Leggi di più su www.artificialintelligence-news.com
Svelata la strategia di efficienza del governo AI di Dubai

Quando Dubai ha lanciato il suo Rapporto sullo Stato dell’AI nell’aprile del 2025, rivelando oltre 100 casi d’uso dell’AI ad alto impatto, l’emirato non stava solo mettendo in mostra la sua abilità tecnologica, ma stava facendo una scommessa calcolata sul fatto che sarebbe stata la velocità, e non la spesa, a determinare quali città avrebbero vinto la gara globale per la governance alimentata dall’AI. In un’intervista esclusiva, Matar Al Hemeiri, Chief Executive del Digital Dubai Government Establishment, ha rivelato come l’approccio di Dubai all’efficienza del governo basato sull’IA differisca fondamentalmente sia dai suoi concorrenti regionali che dagli affermati hub tecnologici asiatici, e perché l’emirato ritiene che il suo modello di rapida implementazione abbinato a quadri etici vincolanti offra un modello che gli altri governi seguiranno. Il vantaggio di DubaiAI: 180 servizi, un assistente virtuale Mentre la vicina Abu Dhabi ha annunciato un investimento di 4,8 miliardi di dollari per diventare il primo governo al mondo completamente alimentato dall’intelligenza artificiale entro il 2027, Dubai ha intrapreso un percorso diverso. “L’investimento di Abu Dhabi si concentra sulla costruzione di un’infrastruttura governativa end-to-end alimentata dall’intelligenza artificiale”, ha spiegato Al Hemeiri. “Il modello di Dubai consiste nell’incorporare l’etica, l’interoperabilità e la spiegabilità dell’IA in un quadro di governance scalabile” I risultati sono già visibili. DubaiAI, l’assistente virtuale alimentato dall’AI di tutta la città, fornisce ora informazioni su oltre 180 servizi pubblici, una cifra che rappresenta una delle più complete implementazioni di chatbot AI governative a livello globale. Il sistema gestisce il 60% delle richieste governative di routine, riducendo i costi operativi del 35%. Ma Al Hemeiri ha respinto l’idea che l’automazione dell’IA comporti inevitabilmente la perdita di posti di lavoro. “L’automazione libera la nostra forza lavoro da compiti ripetitivi e informativi”, ha affermato. “I dipendenti vengono riqualificati e reimpiegati in ruoli di maggior valore come la supervisione dell’IA, la progettazione di servizi e il lavoro di politica strategica” Il momento non potrebbe essere più critico. Secondo Al Hemeiri, la crescita demografica di Dubai ha creato “un’immensa domanda di servizi governativi”, rendendo l’efficienza guidata dall’IA non solo un vantaggio competitivo ma anche una necessità operativa. La velocità come strategia: Dal progetto pilota all’implementazione in pochi mesi Ciò che distingue Dubai nell’efficienza dell’AI governativa non è solo ciò che costruisce, ma anche la rapidità di implementazione. “A Dubai, una volta annunciata un’iniziativa di IA, questa viene attivata rapidamente, passando dal progetto pilota all’implementazione nel giro di pochi mesi, molto più velocemente rispetto alla norma globale”, ha sottolineato Al Hemeiri. I numeri confermano questa affermazione. Nel 2025, oltre il 96% degli enti governativi ha adottato almeno una soluzione di IA e il 60% degli utenti intervistati preferisce i servizi supportati dall’IA. Dubai si confronta con città intelligenti leader come Singapore, Berlino, Helsinki e Tallinn, ma sostiene che la sua integrazione dell’etica dell’IA direttamente negli appalti e nell’implementazione fornisce un vantaggio decisivo. “Il nostro vantaggio competitivo sta nella velocità con cui Dubai rende operativa la sua etica”, ha detto Al Hemeiri, rispondendo a una critica comune secondo cui i quadri di governance dell’IA sono puramente teorici. “La politica sull’IA non è un quadro teorico; è un insieme vincolante di principi e requisiti tecnici applicati a ogni implementazione dell’IA in tutto il governo” Questo approccio si basa sull’Ethical AI Toolkit lanciato nel 2019, rendendo Dubai una delle poche città a livello globale in cui la conformità etica è incorporata dagli appalti alla valutazione delle prestazioni. Oltre i chatbot: sanità, energia e servizi predittivi Mentre DubaiAI cattura i titoli dei giornali, Al Hemeiri ha sottolineato le implementazioni meno pubblicizzate che hanno un impatto misurabile. I modelli di intelligenza artificiale stanno ora rilevando patologie croniche come il diabete in fase precoce, mentre gli algoritmi predittivi migliorano i sistemi di revisione all’interno dell’Autorità Sanitaria di Dubai. Nelle infrastrutture energetiche, le reti intelligenti alimentate da strumenti di previsione AI in tempo reale stanno ottimizzando i consumi e riducendo l’impatto ambientale. Il progetto più ambizioso attualmente in fase di sviluppo è la piattaforma di servizi pubblici predittivi di Dubai, che utilizzerà dati integrati e l’intelligenza artificiale per anticipare le esigenze dei cittadini, dai rinnovi automatici delle patenti alle notifiche di prevenzione sanitaria. “Abbiamo iniziato a lavorare alla realizzazione di questo progetto, il cui lancio è previsto per l’inizio del 2030”, ha rivelato Al Hemeiri. Alcuni elementi di questa visione sono già in fase di sperimentazione attraverso strumenti di pianificazione urbana abilitati dall’intelligenza artificiale e gemelli digitali a livello cittadino che simulano i risultati delle politiche prima della loro attuazione. Sovranità dei dati: Un modello ibrido tra Cina e GDPR L’approccio di Dubai alla governance dei dati offre una via di mezzo tra i rigidi requisiti di localizzazione della Cina e il quadro GDPR dell’UE. “Il modello di Dubai offre un modello ibrido: i dati dei cittadini anonimizzati rimangono nella giurisdizione di Dubai in base a solide leggi sulla sovranità, ma possono essere condivisi in modo sicuro tra le varie entità con il consenso dell’utente per i servizi governativi, attraverso la piattaforma ufficiale di identità digitale della nazione: UAE PASS”, ha spiegato Al Hemeiri. Un elemento di differenziazione fondamentale è l’adozione da parte di Dubai di framework di dati sintetici. “Ci permettono di sviluppare e testare sistemi di intelligenza artificiale su scala, preservando la privacy e mantenendo la conformità con i requisiti di sovranità dei dati di Dubai”, ha dichiarato. Questo approccio consente di accelerare i cicli di innovazione e di risolvere i problemi di privacy che hanno ostacolato lo sviluppo dell’IA in altre giurisdizioni. La sandbox per le startup: Integrazione reale, non solo sgravi normativi Dubai si posiziona come terreno di prova per le startup dell’IA, ma Al Hemeiri ha affermato che l’emirato offre più della flessibilità normativa. “Le sandbox AI di Dubai combinano la flessibilità normativa con l’accesso diretto ai set di dati governativi e agli ambienti di test del mondo reale”, ha affermato. Una startup di diagnostica sanitaria sperimentata all’interno della sandbox di Dubai ha già integrato il suo strumento di triage AI nei servizi dell’Autorità Sanitaria di Dubai. “Poiché il
Un nuovo modello di progettazione potrebbe risolvere i costi elevati dell’IA aziendale

I leader aziendali alle prese con i costi elevati dell’implementazione di modelli di IA potrebbero trovare una tregua grazie a una nuova architettura. Sebbene le capacità dell’IA generativa siano interessanti, i loro immensi requisiti computazionali per l’addestramento e l’inferenza comportano spese proibitive e crescenti preoccupazioni ambientali. Al centro di questa inefficienza c’è il “collo di bottiglia fondamentale” dei modelli, ovvero un processo autoregressivo che genera testo in modo sequenziale, token per token. Per le aziende che elaborano grandi flussi di dati, dalle reti IoT ai mercati finanziari, questa limitazione rende la generazione di analisi a lungo termine lenta ed economicamente impegnativa. Tuttavia, una nuova ricerca di Tencent AI e della Tsinghua University propone un’alternativa. Un nuovo approccio all’efficienza dell’IA La ricerca introduce i modelli linguistici autoregressivi continui (CALM). Questo metodo rielabora il processo di generazione per prevedere un vettore continuo anziché un token discreto. Un autoencoder ad alta fedeltà “comprime un gruppo di K token in un singolo vettore continuo”, che ha una larghezza di banda semantica molto più elevata. Invece di elaborare qualcosa come “il”, “gatto”, “seduto” in tre passaggi, il modello li comprime in uno solo. Questo design “riduce direttamente il numero di passaggi generativi”, riducendo il carico computazionale. I risultati sperimentali dimostrano un miglior compromesso tra prestazioni e calcolo. Un modello CALM AI che raggruppa quattro token ha fornito prestazioni “paragonabili alle linee di base discrete e forti, ma a un costo computazionale significativamente inferiore” per un’azienda. Un modello CALM, ad esempio, ha richiesto il 44% in meno di FLOP di addestramento e il 34% in meno di FLOP di inferenza rispetto a un Transformer di base con capacità simili. Ciò indica un risparmio sia sulla spesa iniziale di capitale per la formazione sia sulla spesa operativa ricorrente per l’inferenza. Ricostruire il kit di strumenti per il dominio continuo Il passaggio da un vocabolario finito e discreto a uno spazio vettoriale infinito e continuo rompe il toolkit standard di LLM. I ricercatori hanno dovuto sviluppare un “quadro completo privo di verosimiglianza” per rendere fattibile il nuovo modello. Per l’addestramento, il modello non può utilizzare un livello softmax standard o la stima della massima verosimiglianza. Per risolvere questo problema, il team ha utilizzato un obiettivo “senza verosimiglianza” con un Trasformatore di Energia, che premia il modello per le previsioni accurate senza calcolare probabilità esplicite. Questo nuovo metodo di formazione ha richiesto anche una nuova metrica di valutazione. I benchmark standard come la Perplexity sono inapplicabili perché si basano sulle stesse probabilità che il modello non calcola più. Il team ha proposto BrierLM, una nuova metrica basata sul punteggio di Brier che può essere stimato esclusivamente dai campioni del modello. La convalida ha confermato che BrierLM è un’alternativa affidabile, mostrando una “correlazione di rango di Spearman di -0,991” con le metriche di perdita tradizionali. Infine, il framework ripristina la generazione controllata, una caratteristica fondamentale per l’uso aziendale. Il campionamento standard della temperatura è impossibile senza una distribuzione di probabilità. Il documento introduce un nuovo “algoritmo di campionamento senza verosimiglianza”, che include un metodo pratico di approssimazione dei lotti, per gestire il compromesso tra l’accuratezza dell’output e la diversità. Ridurre i costi dell’IA aziendale Questa ricerca offre uno sguardo a un futuro in cui l’IA generativa non è definita solo da un numero sempre maggiore di parametri, ma anche dall’efficienza architettonica. L’attuale percorso di scalabilità dei modelli si scontra con un muro di rendimenti decrescenti e costi crescenti. Il framework CALM stabilisce un “nuovo asse di progettazione per la scalabilità dei LLM: aumentare la larghezza di banda semantica di ogni fase generativa”. Pur trattandosi di un framework di ricerca e non di un prodotto pronto all’uso, indica un percorso potente e scalabile verso modelli linguistici ultra-efficienti. Quando valutano le roadmap dei fornitori, i leader tecnologici dovrebbero guardare oltre le dimensioni del modello e iniziare a chiedersi quale sia l’efficienza architettonica. La capacità di ridurre i FLOP per token generato diventerà un vantaggio competitivo determinante, consentendo all’IA di essere implementata in modo più economico e sostenibile in tutta l’azienda per ridurre i costi, dal data center alle applicazioni edge che utilizzano i dati. Leggi di più su www.artificialintelligence-news.com
I parametri di riferimento dell’intelligenza artificiale mettono a rischio i budget delle aziende

Un nuovo studio accademico suggerisce che i parametri di riferimento dell’IA sono errati e potrebbero portare le aziende a prendere decisioni importanti sulla base di dati “fuorvianti”. I leader delle aziende stanno impegnando budget a otto o nove cifre per programmi di IA generativa. Queste decisioni di acquisto e sviluppo spesso si basano su classifiche e benchmark pubblici per confrontare le capacità dei modelli. Uno studio su larga scala, “Measuring what Matters: Construct Validity in Large Language Model Benchmarks”, ha analizzato 445 benchmark distinti di LLM provenienti dalle principali conferenze sull’IA. Un team di 29 revisori esperti ha scoperto che “quasi tutti gli articoli presentano punti deboli in almeno un’area”, compromettendo le affermazioni sulle prestazioni dei modelli. Per i CTO e i Chief Data Officer, la questione tocca il cuore della governance dell’IA e della strategia di investimento. Se un benchmark che sostiene di misurare la “sicurezza” o la “robustezza” non coglie effettivamente queste qualità, un’organizzazione potrebbe impiegare un modello che la espone a gravi rischi finanziari e di reputazione. Il problema della “validità del costrutto I ricercatori si sono concentrati su un principio scientifico fondamentale noto come validità del costrutto. In parole povere, si tratta del grado in cui un test misura il concetto astratto che dichiara di misurare. Ad esempio, mentre l’”intelligenza” non può essere misurata direttamente, i test vengono creati per servire come proxy misurabili. Il documento osserva che se un parametro di riferimento ha una bassa validità del costrutto, “un punteggio elevato può essere irrilevante o addirittura fuorviante”. Questo problema è molto diffuso nella valutazione dell’intelligenza artificiale. Lo studio ha rilevato che i concetti chiave sono spesso “mal definiti o resi operativi”. Questo può portare a “affermazioni scientifiche poco supportate, ricerche sbagliate e implicazioni politiche non fondate su prove solide”. Quando i fornitori competono per ottenere contratti aziendali mettendo in evidenza i loro migliori punteggi nei benchmark, i leader si fidano effettivamente del fatto che questi punteggi siano una proxy affidabile delle prestazioni aziendali reali. Questa nuova ricerca suggerisce che la fiducia potrebbe essere mal riposta. Dove falliscono i benchmark dell’AI aziendale L’analisi ha individuato carenze sistemiche su tutta la linea, dal modo in cui vengono progettati i benchmark al modo in cui vengono riportati i risultati. Definizioni vaghe o contestate: Non si può misurare ciò che non si riesce a definire. Lo studio ha rilevato che anche quando venivano fornite le definizioni di un fenomeno, il 47,8% era “contestato”, ovvero si trattava di concetti con “molte definizioni possibili o nessuna definizione chiara”. Il documento utilizza l’”innocuità”, un obiettivo chiave nell’allineamento della sicurezza aziendale, come esempio di un fenomeno che spesso manca di una definizione chiara e condivisa. Se due fornitori ottengono punteggi diversi in un benchmark di “innocuità”, ciò potrebbe riflettere solo due diverse definizioni arbitrarie del termine, non una vera e propria differenza nella sicurezza del modello. Mancanza di rigore statistico: Forse l’aspetto più allarmante per le organizzazioni basate sui dati è che la revisione ha rilevato che solo il 16% dei 445 benchmark utilizzava stime di incertezza o test statistici per confrontare i risultati dei modelli. Senza un’analisi statistica, è impossibile sapere se un vantaggio del 2% del modello A rispetto al modello B sia una vera differenza di capacità o una semplice casualità. Le decisioni aziendali sono guidate da numeri che non supererebbero un esame scientifico o di business intelligence. Contaminazione e memorizzazione dei dati: Molti benchmark, soprattutto quelli per il ragionamento (come l’ampiamente utilizzato GSM8K), vengono compromessi quando le loro domande e risposte compaiono nei dati di pre-addestramento del modello. Quando ciò accade, il modello non sta ragionando per trovare la risposta, ma la sta semplicemente memorizzando. Un punteggio elevato può indicare una buona memoria, non la capacità di ragionamento avanzato di cui un’azienda ha effettivamente bisogno per un compito complesso. Il documento avverte che questo “mina la validità dei risultati” e raccomanda di inserire i controlli di contaminazione direttamente nel benchmark. Set di dati non rappresentativi: Lo studio ha rilevato che il 27% dei benchmark ha utilizzato un “campionamento di convenienza”, come il riutilizzo di dati provenienti da benchmark esistenti o da esami umani. Spesso questi dati non sono rappresentativi del fenomeno reale. Ad esempio, gli autori notano che il riutilizzo di domande di un “esame senza calcolatrice” significa che i problemi utilizzano numeri scelti per essere facili per l’aritmetica di base. Un modello potrebbe ottenere un buon punteggio in questo test, ma questo punteggio “non predice le prestazioni su numeri più grandi, dove i LLM fanno fatica”. Questo crea un punto cieco critico, che nasconde una debolezza nota del modello. Dalle metriche pubbliche alla convalida interna Per i leader aziendali, lo studio rappresenta un forte avvertimento: i benchmark pubblici dell’intelligenza artificiale non sostituiscono la valutazione interna e specifica del settore. Un punteggio elevato in una classifica pubblica non è una garanzia di idoneità per uno specifico scopo aziendale. Isabella Grandi, Director for Data Strategy & Governance di NTT DATA UK&I, ha commentato: “Un singolo benchmark potrebbe non essere il modo giusto per catturare la complessità dei sistemi di IA, e aspettarsi che lo faccia rischia di ridurre i progressi a un gioco di numeri piuttosto che a una misura della responsabilità del mondo reale. Ciò che conta di più è una valutazione coerente rispetto a principi chiari che garantiscano che la tecnologia sia al servizio delle persone e del progresso. “Una buona metodologia, come quella definita dalla norma ISO/IEC 42001:2023, riflette questo equilibrio attraverso cinque principi fondamentali: responsabilità, equità, trasparenza, sicurezza e riparazione. La responsabilità stabilisce la titolarità e la responsabilità di qualsiasi sistema di IA che viene implementato. La trasparenza e l’equità guidano le decisioni verso risultati etici e spiegabili. La sicurezza e la privacy non sono negoziabili, in quanto impediscono un uso improprio e rafforzano la fiducia del pubblico. Il ricorso e la contestabilità forniscono un meccanismo vitale per la supervisione, assicurando che le persone possano contestare e correggere i risultati quando necessario. “Il vero progresso nell’IA dipende dalla collaborazione che unisce la visione del governo,
OpenAI scommette 600 miliardi di dollari in cloud AI su AWS, Oracle e Microsoft

OpenAI sta spendendo molto per garantire la sua catena di calcolo AI, firmando un nuovo accordo con AWS come parte della sua strategia multi-cloud. L’azienda ha recentemente chiuso la sua partnership esclusiva per il cloud computing con Microsoft. Da allora ha stanziato 250 miliardi di dollari per Microsoft, 300 miliardi di dollari per Oracle e ora 38 miliardi di dollari per Amazon Web Services (AWS) in un nuovo accordo pluriennale. L’accordo con AWS da 38 miliardi di dollari, sebbene sia il più piccolo dei tre, fa parte del piano di diversificazione di OpenAI. Per i leader del settore, le azioni di OpenAI dimostrano che l’accesso alle GPU ad alte prestazioni non è più un bene su richiesta. Ora è una risorsa scarsa che richiede un massiccio impegno di capitale a lungo termine. L’accordo con AWS offre a OpenAI l’accesso a centinaia di migliaia di GPU NVIDIA, comprese le nuove GB200 e GB300, e la possibilità di sfruttare decine di milioni di CPU. Questa potente infrastruttura non serve solo per l’addestramento dei modelli di domani, ma è necessaria per eseguire gli enormi carichi di lavoro di inferenza dell’attuale ChatGPT. Come ha dichiarato Sam Altman, cofondatore e CEO di OpenAI, “la scalabilità dell’IA di frontiera richiede calcoli massicci e affidabili”. Questa corsa alla spesa sta imponendo una risposta competitiva da parte degli hyperscaler. Mentre AWS rimane il più grande fornitore di cloud del settore, Microsoft e Google hanno recentemente registrato una crescita più rapida dei ricavi da cloud, spesso grazie all’acquisizione di nuovi clienti AI. L’accordo con AWS è un chiaro tentativo di assicurarsi un carico di lavoro fondamentale per l’AI e di dimostrare le sue capacità di AI su larga scala, che secondo l’azienda includono l’esecuzione di cluster di oltre 500.000 chip. AWS non si limita a fornire server standard. Sta realizzando un’architettura sofisticata e appositamente costruita per OpenAI, utilizzando gli UltraServer EC2 per collegare le GPU e ottenere la rete a bassa latenza richiesta dalla formazione su larga scala. “L’ampiezza e la disponibilità immediata di calcolo ottimizzato dimostrano perché AWS è in una posizione unica per supportare i vasti carichi di lavoro dell’IA di OpenAI”, ha dichiarato Matt Garman, CEO di AWS. Ma “immediata” è relativo. L’intera capacità derivante dall’ultimo accordo di OpenAI sull’AI in cloud non sarà completamente distribuita fino alla fine del 2026, con la possibilità di espandersi ulteriormente fino al 2027. Questa tempistica offre una dose di realismo a tutti i dirigenti che stanno pianificando un’implementazione dell’IA: la catena di fornitura dell’hardware è complessa e opera su programmi pluriennali. Che cosa dovrebbero dedurre i leader aziendali da questo dato? Innanzitutto, il dibattito “costruire o comprare” per l’infrastruttura di IA è praticamente finito. OpenAI sta spendendo centinaia di miliardi per costruire su hardware a noleggio. Poche, se non nessuna, altre aziende possono o dovrebbero seguirne l’esempio. Questo spinge il resto del mercato verso piattaforme gestite come Amazon Bedrock, Google Vertex AI o IBM watsonx, dove gli hyperscaler assorbono il rischio dell’infrastruttura. In secondo luogo, i giorni del sourcing single-cloud per i carichi di lavoro AI potrebbero essere contati. Il passaggio di OpenAI a un modello multi-provider è un caso da manuale di mitigazione del rischio di concentrazione. Per un CIO, affidarsi a un solo fornitore per il calcolo che gestisce un processo aziendale fondamentale sta diventando un azzardo. Infine, il budget dell’AI ha lasciato il regno dell’IT dipartimentale ed è entrato nel mondo della pianificazione del capitale aziendale. Non si tratta più di spese operative variabili. Garantire l’elaborazione dell’intelligenza artificiale è ora un impegno finanziario a lungo termine, proprio come la costruzione di una nuova fabbrica o di un centro dati. Leggi di più su www.artificialintelligence-news.com
Come Lumana sta ridefinendo il ruolo dell’AI nella videosorveglianza

Nonostante i progressi dell’intelligenza artificiale, la maggior parte dei sistemi di videosorveglianza non riesce ancora a riconoscere il contesto in condizioni reali. La maggior parte delle telecamere è in grado di acquisire filmati in tempo reale, ma fatica a interpretarli. Questo problema si sta trasformando in una preoccupazione crescente per i progettisti di smart city, i produttori e le scuole, ognuno dei quali può dipendere dall’intelligenza artificiale per mantenere al sicuro persone e proprietà. Lumana, un’azienda che si occupa di videosorveglianza AI, ritiene che il difetto di questi sistemi risieda nelle fondamenta della loro costruzione. “Le piattaforme video tradizionali sono state create decenni fa per registrare filmati, non per interpretarli”, ha dichiarato Jordan Shou, vicepresidente del marketing di Lumana. “Aggiungere l’intelligenza artificiale a un’infrastruttura ormai obsoleta è come mettere un chip intelligente in un telefono a rotazione. Potrebbe funzionare, ma non sarà mai abbastanza intelligente o affidabile da comprendere ciò che viene ripreso o aiutare i team a prendere decisioni più intelligenti in tempo reale” Grandi conseguenze Quando i sistemi di videosorveglianza tradizionali aggiungono l’intelligenza artificiale a un’infrastruttura più vecchia, si verificano falsi allarmi e problemi di prestazioni. Gli avvisi e i mancati rilevamenti non sono solo intoppi tecnici, ma rischi che possono avere conseguenze devastanti. Shou cita un caso recente in cui un sistema di sorveglianza scolastica, che utilizzava un componente aggiuntivo di intelligenza artificiale per il rilevamento delle armi, ha identificato erroneamente un oggetto innocuo per un’arma, provocando un inutile intervento della polizia. “Ogni errore, che si tratti di un evento mancato o di un falso allarme, che porta a una risposta impropria, erode la fiducia”, ha affermato. “Fa perdere tempo e denaro e può traumatizzare persone che non hanno fatto nulla di male” Gli errori possono anche essere costosi. Ogni falso allarme costringe le squadre a sospendere il lavoro vero e proprio e a indagare, un processo che può sottrarre milioni di euro ai bilanci della sicurezza pubblica e delle operazioni ogni anno. Costruire una base più intelligente Invece di sovrapporre l’intelligenza artificiale ai vecchi sistemi di videosorveglianza, Lumana ha ricostruito l’infrastruttura stessa con una piattaforma all-in-one che combina hardware, software e intelligenza artificiale proprietari. Il design ibrido-cloud dell’azienda collega qualsiasi telecamera di sicurezza a processori alimentati da GPU e a modelli di IA adattivi che operano ai margini, ovvero sono situati il più vicino possibile al luogo in cui vengono catturati i filmati. Il risultato, afferma Shou, è una performance più veloce e un’analisi più accurata. Ogni telecamera diventa un dispositivo ad apprendimento continuo che migliora nel tempo, comprendendo il movimento, il comportamento e i modelli unici del suo ambiente. “Il problema è che la maggior parte dei sistemi di videosorveglianza odierni utilizza modelli di intelligenza artificiale statici e non disponibili, progettati per funzionare solo in ambienti specifici. L’intelligenza artificiale non dovrebbe avere bisogno di un ambiente di laboratorio perfetto per funzionare”, ha spiegato Shou. dovrebbe funzionare in condizioni reali e adattarsi in base ai dati video che arrivano”. Ecco perché quando i clienti confrontano Lumana con i loro sistemi di IA esistenti o con altri sistemi di IA, le differenze e i divari di prestazioni sono immediatamente evidenti” Il progetto dell’azienda dà anche priorità alla privacy. Tutti i dati sono crittografati, regolati da controlli di accesso e conformi agli standard SOC 2, HIPAA e NDAA. I clienti possono disattivare il tracciamento facciale o biometrico se lo desiderano. “La nostra attenzione si concentra sulle azioni, non sulle identità”, ha detto Shou. Casi d’uso nel mondo reale I sistemi di Lumana sono stati impiegati in diversi settori. Uno dei progetti più visibili è quello con JKK Pack, un’azienda produttrice di imballaggi attiva 24 ore su 24 che utilizza le telecamere di sicurezza per monitorare la sicurezza e l’efficienza operativa delle sue strutture. Prima dell’implementazione di Lumana, le telecamere registravano solo gli incidenti per una successiva revisione, il che portava a perdere eventi e a reagire in modo reattivo. Dopo l’aggiornamento, lo stesso hardware è stato in grado di rilevare in tempo reale movimenti non sicuri, guasti alle apparecchiature o colli di bottiglia nella produzione. L’azienda ha registrato indagini più rapide del 90% e avvisi inviati in meno di un secondo che hanno migliorato notevolmente la risposta agli incidenti di sicurezza, senza sostituire una sola telecamera. In un altro caso, un rivenditore di alimentari ha integrato l’intelligenza artificiale di Lumana nella sua rete di telecamere esistente per segnalare attività insolite nei punti vendita, come gli svuotamenti ripetuti, e per correlare questi eventi con le prove visive. Il sistema ha ridotto le differenze inventariali e migliorato la responsabilità dei dipendenti, fornendo esempi reali di violazioni delle politiche. Oltre che nel settore manifatturiero, il sistema di Lumana è stato utilizzato in occasione di grandi eventi pubblici, nei ristoranti e per le operazioni comunali. Nelle città, aiuta a identificare le discariche abusive e gli incendi; nelle catene di ristorazione rapida, monitora la sicurezza in cucina e la manipolazione degli alimenti. Una spinta più ampia per una videosorveglianza AI affidabile Il lavoro di Lumana arriva in un momento in cui l’accuratezza e la responsabilità stanno sostituendo la velocità come priorità principali per l’IA aziendale. Un recente studio di F5 ha rilevato che solo il 2% delle aziende si ritiene pienamente pronto a scalare l’IA, con la governance e la sicurezza dei dati citate come le principali sfide. Questa cautela si riflette nel mercato, con gli analisti che avvertono che, man mano che l ‘IA prende più decisioni, i sistemi devono rimanere “verificabili, trasparenti e privi di pregiudizi” L’architettura di Lumana fa eco alla richiesta di responsabilità, unendo le prestazioni e il controllo con la governance dei dati e la cybersecurity in una soluzione facile da implementare che potenzia l’infrastruttura di telecamere di sicurezza esistente, aiutando le organizzazioni a estrarre un valore immediato dall’AI video. Il prossimo passo nella visione artificiale Shou ha dichiarato che la prossima fase di sviluppo di Lumana mira a passare dal rilevamento e dalla comprensione alla previsione. “La prossima evoluzione dell’AI video riguarderà il ragionamento”, ha affermato.
Cursor 2.0 si orienta verso la codifica dell’intelligenza artificiale multi-agente e lancia il modello Composer

Cursor ha rilasciato la sua ultima piattaforma di sviluppo software AI con una nuova interfaccia multi-agente e il debutto del suo modello di codifica, Composer. Il nuovo modello Composer è descritto come un “modello di frontiera”. Cursor sostiene che è quattro volte più veloce di altri modelli di intelligenza simile. L’azienda lo ha costruito appositamente per la “codifica agenziale a bassa latenza” all’interno dell’ambiente Cursor. L’azienda afferma che il modello può completare la maggior parte delle conversazioni in meno di 30 secondi. Questa velocità ha lo scopo di migliorare il flusso di lavoro degli sviluppatori. I primi tester hanno dichiarato che la possibilità di iterare rapidamente con il modello è stato un vantaggio fondamentale. Inoltre, sembra che si siano fidati di Composer per la gestione di attività di codifica complesse e in più fasi. Per ottenere queste prestazioni, Composer è stato addestrato con una suite di potenti strumenti. Uno degli strumenti chiave citati è la “ricerca semantica a livello di codice”. Questo addestramento, secondo Cursor, rende Composer molto più efficace nel comprendere e lavorare in codebase ampie e complesse, una sfida comune a molti assistenti di codifica AI generativi. Il secondo importante aggiornamento è la nuova interfaccia utente. All’apertura della nuova versione, gli utenti noteranno un design “più mirato”. L’intera esperienza di sviluppo software guidato dall’intelligenza artificiale in Cursor è stata ricostruita per essere “incentrata sugli agenti piuttosto che sui file”. Questo cambiamento è stato pensato per consentire agli sviluppatori di concentrarsi sui risultati desiderati, mentre gli agenti AI gestiscono i dettagli e l’implementazione del codice. Per gli sviluppatori che hanno ancora bisogno di lavorare direttamente con il codice, il nuovo layout mantiene la possibilità di aprire facilmente i file. Gli utenti possono anche tornare alla visualizzazione “IDE classica” se preferiscono. Una caratteristica fondamentale della nuova piattaforma di Cursor è la capacità di eseguire molti agenti AI in parallelo senza che interferiscano l’uno con l’altro. Questa funzionalità è alimentata da tecnologie come “worktrees git o macchine remote”. Cursor ha anche notato un’interessante strategia emergente da questo approccio parallelo. Hanno scoperto che assegnare lo stesso problema a più modelli diversi e poi selezionare la soluzione migliore “migliora notevolmente il risultato finale”. Questo è particolarmente efficace per i compiti più difficili o complessi. L’azienda riconosce che, man mano che gli agenti di intelligenza artificiale si fanno carico di una parte maggiore del lavoro di codifica, sono emersi nuovi colli di bottiglia per gli sviluppatori. Le due nuove sfide più importanti sono “la revisione del codice e la verifica delle modifiche”. Cursor 2.0 include nuove funzionalità pensate per iniziare a risolvere entrambi i problemi. L’interfaccia è stata semplificata per rendere “molto più facile rivedere rapidamente le modifiche apportate da un agente”. In questo modo gli sviluppatori potranno approfondire il codice solo quando sarà necessario. Cursor 2.0 introduce anche uno “strumento browser nativo” che consente all’agente AI di testare automaticamente il proprio lavoro. L’agente può quindi iterare sulla sua soluzione, eseguendo test e apportando modifiche fino a produrre il “risultato finale corretto”. Si tratta di un passo avanti verso un processo di sviluppo più autonomo, in cui gli agenti possono non solo scrivere il codice ma anche convalidarlo. Leggi di più su www.artificialintelligence-news.com
OpenAI si ristruttura ed entra nel “prossimo capitolo” della partnership con Microsoft

OpenAI ha completato un’importante riorganizzazione e, allo stesso tempo, ha firmato un nuovo accordo di partnership definitivo con Microsoft. Partendo dalla riorganizzazione di OpenAI, l’obiettivo è quello di consolidare il controllo dell’azienda no-profit su quella a scopo di lucro e di far diventare la nuova OpenAI Foundation una potenza filantropica globale, che detiene partecipazioni nel ramo commerciale per un valore di circa 130 miliardi di dollari. Questa riorganizzazione, che secondo OpenAI “mantiene la più forte rappresentazione di governance incentrata sulla missione nel settore oggi”, trasforma di fatto il successo commerciale dell’azienda in un canale di finanziamento diretto per la sua missione originale. L’entità a scopo di lucro è ora una società di pubblica utilità chiamata OpenAI Group PBC, legalmente vincolata a tale missione. Con la crescita di questa PBC, cresce anche la quota di 130 miliardi di dollari della Fondazione, che sarà utilizzata per finanziare un impegno iniziale di 25 miliardi di dollari per la salute globale e la resilienza dell’IA. La ristrutturazione è stata completata dopo quasi un anno di “dialogo costruttivo” con gli uffici dei procuratori generali della California e del Delaware. OpenAI ha riconosciuto di aver “apportato diversi cambiamenti a seguito di tali discussioni” e ha dichiarato di ritenere che l’azienda, e per estensione il pubblico che serve, “sia migliore per questo” L’altro aspetto di questa nuova struttura è la ridefinizione della partnership con Microsoft. L’investimento del gigante tecnologico è ora valutato in 135 miliardi di dollari e le conferisce una partecipazione del 27% nella PBC di OpenAI Group. Si tratta di una leggera diluizione rispetto alla precedente quota del 32,5%, che riflette i nuovi cicli di finanziamento. L’accordo conserva la posizione centrale di Microsoft come fornitore esclusivo di API Azure per i modelli di frontiera di OpenAI, ma solo fino al raggiungimento dell’intelligenza artificiale generale (AGI). I nuovi termini introducono un nuovo controllo su questo percorso. Qualsiasi dichiarazione di AGI da parte di OpenAI deve ora essere verificata da un gruppo di esperti indipendenti. Questo controllo esterno rappresenta un importante aggiornamento della governance della partnership. I diritti di proprietà intellettuale di Microsoft sono stati estesi fino al 2032 e ora includono anche i modelli sviluppati dopo la dichiarazione di AGI, con le opportune garanzie di sicurezza. Microsoft può anche perseguire l’AGI in modo indipendente, da sola o con altri partner. Questo dà a Microsoft una nuova strada da percorrere, separata dalla sua dipendenza dalla ricerca di OpenAI. Se Microsoft utilizza l’IP di OpenAI per sviluppare l’AGI prima che venga dichiarata ufficialmente, questi modelli saranno soggetti a soglie di calcolo significativamente maggiori rispetto ai sistemi in uso oggi. Ma le nuove libertà sono di entrambi i tipi. OpenAI si è anche assicurata una nuova flessibilità. Si è impegnata ad acquistare 250 miliardi di dollari di servizi Azure, ma Microsoft non ha più il diritto di prelazione come fornitore di calcolo. Questo dà a OpenAI una nuova leva nelle trattative per l’infrastruttura. L’azienda può inoltre rilasciare modelli di peso aperti che soddisfano determinati criteri e servire i clienti della sicurezza nazionale del governo degli Stati Uniti su qualsiasi cloud, una novità di rilievo. Inoltre, ha la possibilità di sviluppare congiuntamente alcuni prodotti non API con terze parti, anche se i prodotti API sviluppati con altri devono rimanere su Azure. I diritti di proprietà intellettuale di Microsoft escludono inoltre specificamente qualsiasi futuro hardware consumer di OpenAI. L’accordo di condivisione dei ricavi esistente rimane in vigore fino a quando il gruppo di esperti non avrà verificato l’AGI, anche se i pagamenti saranno distribuiti su un periodo più lungo. Entrambe le aziende hanno definito il nuovo capitolo come un modo per continuare a innovare. OpenAI ha concluso che questa nuova struttura offre sia la possibilità di spingere la frontiera dell’IA sia un modello aggiornato per “garantire che il progresso sia al servizio di tutti” Leggi di più su www.artificialintelligence-news.com
L’AI video open-source di Lightricks offre 4K, audio e rendering più veloce

Lightricks sta alzando la posta per la creazione e l’iterazione rapida di video con il suo ultimo modello di intelligenza artificiale. L’azienda sostiene che il nuovo modello di fondazione LTX-2 è in grado di generare nuovi contenuti a una velocità superiore a quella di riproduzione, oltre ad alzare il livello di risoluzione e qualità. L’LTX-2 open-source è in grado di generare un video stilizzato di sei secondi ad alta definizione in soli cinque secondi, senza alcun compromesso in termini di qualità, consentendo ai creatori di produrre contenuti professionali molto più velocemente rispetto al passato. È un risultato impressionante, ma non è l’unico parametro che distingue LTX-2 dagli altri. Combina la sintesi audio e video nativa con la trasparenza open-source e, se gli utenti sono disposti ad aspettare solo qualche secondo in più, possono migliorare i loro output fino alla risoluzione 4K con un massimo di 48 fotogrammi al secondo, dice l’azienda. Inoltre, i creatori possono eseguire il software su GPU di livello consumer, riducendo drasticamente i costi di calcolo. I modelli di diffusione diventano maggiorenni LTX-2 è un cosiddetto modello di diffusione, che funziona aggiungendo in modo incrementale del “rumore” al contenuto generato e riducendo poi tale rumore fino a quando l’output non assomiglia alle risorse video su cui il modello è stato addestrato. Con LTX-2, Lightricks ha accelerato il processo di diffusione, in modo che i creatori possano iterare le loro idee producendo anteprime dal vivo quasi istantaneamente. Il modello è anche in grado di generare contemporaneamente l’audio di accompagnamento, sia esso una colonna sonora, un dialogo o un effetto sonoro ambientale, accelerando notevolmente i flussi di lavoro creativi. Si tratta di una grande novità, perché prima i creatori dovevano creare l’audio separatamente dal video e poi passare il tempo a cucirlo insieme e ad assicurarsi che la sincronizzazione fosse perfetta. I modelli Veo di Google sono stati apprezzati per la loro potente integrazione della generazione di suoni sincronizzati, quindi queste nuove funzionalità di LTX servono a rafforzare l’idea che la tecnologia di Lightricks sia all’avanguardia. Per quanto riguarda le opzioni di accesso, con LTX-2 Lightricks offre ancora molta flessibilità ai creatori. La piattaforma LTX Studio, fiore all’occhiello dell’azienda, è rivolta ai professionisti che, in alcuni casi, sono disposti a sacrificare un po’ di velocità per creare video di altissima qualità. Con le velocità di elaborazione leggermente più basse che ne derivano, saranno in grado di produrre video in risoluzione 4K nativa fino a 48 fps, creando lo stesso standard che ci si aspetta dalle produzioni cinematografiche, sostiene Lightricks. La piattaforma offre un’ampia gamma di controlli creativi che influiscono sui parametri personalizzabili del modello. Ulteriori dettagli saranno annunciati a breve, ma dovrebbero includere i controlli di posa e profondità, la generazione video-to-video e le alternative di rendering: tieni d’occhio la data di uscita, prevista per il prossimo autunno. Il co-fondatore e amministratore delegato di Lightricks, Zeev Farbman, ritiene che le maggiori capacità di LTX-2 dimostrino quanto i modelli di diffusione stiano finalmente diventando maturi. In un comunicato ha dichiarato che LTX-2 è: “Il motore di intelligenza artificiale creativa più completo ed esaustivo che abbiamo mai realizzato, che combina audio e video sincronizzati, fedeltà 4K, flussi di lavoro flessibili ed efficienza radicale” “Non si tratta di un vaporware o di una demo di ricerca”, ha dichiarato. “Si tratta di una vera e propria svolta nella generazione di video” Una pietra miliare importante Con LTX-2, Lightricks sta dimostrando di essere all’avanguardia nella generazione di video AI, con la piattaforma che arriva dopo una serie di novità del settore nei precedenti modelli LTXV. A luglio, la famiglia di modelli LTXV dell’azienda, tra cui LTXV-2B e LTXV-13B, è stata la prima a supportare la generazione di video di lunga durata, dopo un aggiornamento che ha esteso l’output fino a 60 secondi. In questo modo, la produzione di video AI è diventata “veramente diretta”, con gli utenti in grado di iniziare con una richiesta iniziale e di aggiungere ulteriori richieste in tempo reale mentre il video viene trasmesso in diretta. LTXV-13B aveva già la reputazione di essere uno dei modelli di creazione video più potenti in circolazione, anche prima dell’aggiornamento di un minuto. Lanciata a maggio, è stata la prima piattaforma del settore a supportare il rendering multi-scala, che permette agli utenti di migliorare progressivamente i loro video chiedendo al modello di aggiungere più colore e dettagli, passo dopo passo, nello stesso modo in cui gli animatori professionisti “stratificano” ulteriori dettagli sul loro lavoro nei processi di produzione tradizionali. Il modello 13B è stato addestrato su dati concessi in licenza da Getty e Shutterstock. Le partnership dell’azienda con questi colossi dei contenuti sono importanti non solo per la qualità dei dati di addestramento, ma anche per ragioni etiche; i risultati dei modelli sono molto meno problematici in termini di copyright, un problema che affligge molte altre creazioni di modelli AI. Lightricks ha anche rilasciato una versione semplificata di LTXV-13B che semplifica e velocizza il processo di diffusione, consentendo di generare contenuti in soli quattro-otto passaggi. La versione distillata supporta anche i LoRA, il che significa che può essere messa a punto dagli utenti per creare contenuti più in sintonia con lo stile estetico di un progetto. Modelli di fatturazione innovativi Come i modelli precedenti, LTX-2 sarà rilasciato con una licenza open-source, il che lo rende una valida alternativa alla serie di modelli Wan2 di Alibaba. Lightricks ha sottolineato che si tratta di un modello veramente open-source, anziché solo “open access”, il che significa che i pesi pre-addestrati, i dataset e tutti gli strumenti saranno disponibili su GitHub, insieme al modello stesso. LTX-2 è già disponibile per gli utenti in LTX Studio e attraverso le sue API, mentre la versione open-source sarà rilasciata a novembre. Per coloro che preferiscono utilizzare la versione a pagamento tramite API, Lightricks offre prezzi flessibili, con costi che partono da soli 0,04 dollari al secondo per una versione che genera video HD in soli cinque secondi. La versione Pro bilancia la velocità con le prestazioni e qui i prezzi
L’espansione da un miliardo di dollari della TPU di Anthropic segnala un cambiamento strategico nell’infrastruttura AI aziendale

L’annuncio di Anthropic di questa settimana di voler distribuire fino a un milione di TPU di Google Cloud in un accordo del valore di decine di miliardi di dollari segna una ricalibrazione significativa nella strategia dell’infrastruttura AI aziendale. L’espansione, che si prevede porterà oltre un gigawatt di capacità online nel 2026, rappresenta uno dei più grandi impegni singoli per gli acceleratori di IA specializzati da parte di qualsiasi fornitore di modelli di fondazione – e offre ai leader aziendali una visione critica dell’evoluzione dell’economia e delle decisioni di architettura che danno forma alle implementazioni di IA di produzione. La mossa è particolarmente degna di nota per il suo tempismo e la sua portata. Anthropic serve attualmente più di 300.000 clienti aziendali, e i grandi clienti, definiti come quelli che rappresentano più di 100.000 dollari di fatturato annuo, sono cresciuti di quasi sette volte nell’ultimo anno. Questa traiettoria di crescita dei clienti, concentrata tra le aziende Fortune 500 e le startup native dell’intelligenza artificiale, suggerisce che l’adozione di Claude negli ambienti aziendali sta accelerando oltre le prime fasi di sperimentazione, fino ad arrivare a implementazioni di livello produttivo in cui l’affidabilità dell’infrastruttura, la gestione dei costi e la coerenza delle prestazioni diventano irrinunciabili. Il calcolo multi-cloud Ciò che distingue questo annuncio dalle tipiche partnership con i fornitori è l’esplicita articolazione di Anthropic di una strategia di calcolo diversificata. L’azienda opera su tre piattaforme di chip distinte: TPU di Google, Trainium di Amazon e GPU di NVIDIA. Il CFO Krishna Rao ha sottolineato che Amazon rimane il partner principale per la formazione e il fornitore di cloud, con il lavoro in corso sul Project Rainier, un cluster di calcolo enorme che comprende centinaia di migliaia di chip AI in diversi data center statunitensi. Per i leader tecnologici delle aziende che stanno valutando la propria roadmap di infrastrutture AI, questo approccio multipiattaforma merita attenzione. Riflette il riconoscimento pragmatico del fatto che nessuna architettura di acceleratore o ecosistema cloud è in grado di soddisfare in modo ottimale tutti i carichi di lavoro. L’addestramento di modelli linguistici di grandi dimensioni, la messa a punto per applicazioni specifiche, l’inferenza su scala e la ricerca di allineamento presentano profili computazionali, strutture di costo e requisiti di latenza diversi. L’implicazione strategica per i CTO e i CIO è chiara: il vendor lock-in a livello di infrastruttura comporta un rischio crescente con la maturazione dei carichi di lavoro dell’IA. Le organizzazioni che stanno costruendo capacità di IA a lungo termine dovrebbero valutare come le scelte architetturali dei fornitori di modelli e la loro capacità di trasferire i carichi di lavoro tra le varie piattaforme si traducano in flessibilità, leva di prezzo e garanzia di continuità per i clienti aziendali. Prezzo-prestazioni ed economia di scala Thomas Kurian, CEO di Google Cloud, ha attribuito l’ampliamento dell’impegno di Anthropic nel settore delle TPU alla “forte efficienza e performance dei prezzi” dimostrata nel corso degli anni. Sebbene i confronti specifici tra i benchmark rimangano riservati, gli aspetti economici alla base di questa scelta sono importanti per la definizione del budget dell’intelligenza artificiale nelle aziende. Le TPU, costruite appositamente per le operazioni tensoriali fondamentali per il calcolo delle reti neurali, offrono in genere vantaggi in termini di throughput ed efficienza energetica per architetture specifiche rispetto alle GPU generiche. Il riferimento dell’annuncio a “oltre un gigawatt di capacità” è istruttivo: il consumo energetico e l’infrastruttura di raffreddamento limitano sempre più l’implementazione dell’IA su scala. Per le aziende che gestiscono un’infrastruttura di IA on-premise o che negoziano accordi di colocazione, la comprensione del costo totale di proprietà – che include strutture, energia e spese operative – diventa fondamentale quanto il prezzo del calcolo grezzo. La TPU di settima generazione, il cui nome in codice è Ironwood e a cui si fa riferimento nell’annuncio, rappresenta l’ultima iterazione di Google nella progettazione di acceleratori AI. Sebbene le specifiche tecniche rimangano limitate nella documentazione pubblica, la maturità del portafoglio di acceleratori di IA di Google, sviluppato nel corso di quasi un decennio, fornisce un punto di riferimento per le aziende che valutano i nuovi arrivati nel mercato dei chip di IA. La comprovata storia di produzione, l’ampia integrazione degli strumenti e la stabilità della catena di fornitura hanno un peso nelle decisioni di acquisto delle aziende, dove il rischio di continuità può far deragliare iniziative di IA pluriennali. Implicazioni per la strategia di IA aziendale Dall’espansione dell’infrastruttura di Anthropic emergono diverse considerazioni strategiche per i leader aziendali che stanno pianificando i propri investimenti nell’IA: Pianificazione della capacità e relazioni con i fornitori: L’entità di questo impegno – decine di miliardi di dollari – illustra l’intensità di capitale necessaria per soddisfare la domanda di IA delle imprese su scala produttiva. Le organizzazioni che si affidano a API modello foundation dovrebbero valutare le roadmap di capacità dei loro fornitori e le strategie di diversificazione per mitigare i rischi di disponibilità del servizio durante i picchi di domanda o le interruzioni geopolitiche della catena di approvvigionamento. Allineamento e test di sicurezza su scala: Anthropic collega esplicitamente questa infrastruttura ampliata a “test più approfonditi, ricerche di allineamento e distribuzione responsabile” Per le aziende che operano in settori regolamentati – servizi finanziari, sanità, appalti pubblici – le risorse computazionali dedicate alla sicurezza e all’allineamento hanno un impatto diretto sull’affidabilità dei modelli e sulla loro conformità. Le conversazioni sugli acquisti dovrebbero riguardare non solo le metriche delle prestazioni dei modelli, ma anche l’infrastruttura di test e convalida a supporto di un’implementazione responsabile. Integrazione con gli ecosistemi AI aziendali: Sebbene questo annuncio si concentri sull’infrastruttura di Google Cloud, le implementazioni dell’IA aziendale si estendono sempre più su più piattaforme. Le organizzazioni che utilizzano AWS Bedrock, Azure AI Foundry o altri livelli di orchestrazione dei modelli devono capire come le scelte infrastrutturali dei fornitori di modelli di base influiscano sulle prestazioni delle API, sulla disponibilità regionale e sulle certificazioni di conformità nei diversi ambienti cloud. Il panorama competitivo: L’aggressiva espansione dell’infrastruttura di Anthropic si scontra con l’intensificarsi della concorrenza di OpenAI, Meta e altri fornitori di
