ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Microsoft ‘Promptions’ corregge i suggerimenti dell’AI che non funzionano

Microsoft 'Promptions' corregge i suggerimenti dell'AI che non funzionano

Microsoft ritiene di aver trovato una soluzione al problema delle richieste dell’intelligenza artificiale, della mancata risposta e del ripetersi del ciclo. Questa inefficienza è una perdita di risorse. Il “ciclo di tentativi ed errori può sembrare imprevedibile e scoraggiante”, trasformando quello che dovrebbe essere un incentivo alla produttività in una perdita di tempo. I lavoratori della conoscenza spesso passano più tempo a gestire l’interazione stessa che a comprendere il materiale che speravano di imparare. Microsoft ha rilasciato Promptions (prompt options), un framework per l’interfaccia utente progettato per risolvere questo attrito sostituendo le vaghe richieste in linguaggio naturale con controlli precisi e dinamici dell’interfaccia. Lo strumento open-source offre un metodo per standardizzare il modo in cui il personale interagisce con i modelli linguistici di grandi dimensioni (LLM), abbandonando la chat non strutturata per passare a flussi di lavoro guidati e affidabili. Il collo di bottiglia della comprensione L’attenzione dell’opinione pubblica si concentra spesso sull’IA che produce testo o immagini, ma una componente massiccia dell’utilizzo aziendale riguarda la comprensione: si chiede all’IA di spiegare, chiarire o insegnare. Questa distinzione è fondamentale per gli strumenti interni. Considera una formula di un foglio di calcolo: un utente potrebbe volere una semplice spiegazione della sintassi, un altro una guida al debug e un altro ancora una spiegazione adatta a insegnare ai colleghi. La stessa formula può richiedere spiegazioni completamente diverse a seconda del ruolo, delle competenze e degli obiettivi dell’utente. Le attuali interfacce di chat raramente catturano in modo efficace questo intento. Gli utenti spesso scoprono che il modo in cui formulano una domanda non corrisponde al livello di dettaglio richiesto dall’intelligenza artificiale. “Chiarire ciò che vogliono veramente può richiedere messaggi lunghi e accuratamente formulati che sono faticosi da produrre”, spiega Microsoft. Promptions opera come un livello di middleware per risolvere questo problema familiare con le richieste dell’intelligenza artificiale. Invece di costringere gli utenti a digitare lunghe specifiche, il sistema analizza l’intento e la cronologia delle conversazioni per generare opzioni cliccabili – come la lunghezza della spiegazione, il tono o le aree di interesse specifiche – in tempo reale. Efficienza contro complessità I ricercatori di Microsoft hanno testato questo approccio confrontando i controlli statici con il nuovo sistema dinamico. I risultati offrono una visione realistica del funzionamento di questi strumenti in un ambiente reale. I partecipanti hanno riferito che i controlli dinamici hanno reso più facile esprimere le specifiche dei loro compiti senza dover riformulare ripetutamente le richieste. Questo ha ridotto lo sforzo di ingegnerizzazione dei messaggi e ha permesso agli utenti di concentrarsi maggiormente sulla comprensione dei contenuti piuttosto che sulla gestione delle meccaniche di formulazione. Facendo emergere opzioni come “Obiettivo di apprendimento” e “Formato di risposta”, il sistema ha spinto i partecipanti a pensare più deliberatamente ai loro obiettivi. Tuttavia, l’adozione comporta dei compromessi. I partecipanti hanno apprezzato l’adattabilità ma hanno anche trovato il sistema più difficile da interpretare. Alcuni hanno faticato a prevedere come un’opzione selezionata avrebbe influenzato la risposta, notando che i controlli sembravano opachi perché l’effetto diventava evidente solo dopo la comparsa dell’output. Questo evidenzia un equilibrio da raggiungere. Le interfacce dinamiche possono semplificare compiti complessi, ma possono introdurre una curva di apprendimento in cui il collegamento tra una casella di controllo e l’output finale richiede un adattamento da parte dell’utente. Promesse: La soluzione per risolvere i prompt dell’intelligenza artificiale? Promptions è stato progettato per essere leggero, funzionando come un livello middleware che si colloca tra l’utente e il modello linguistico sottostante. L’architettura consiste in due componenti principali: Modulo delle opzioni: Esamina la cronologia dei messaggi e delle conversazioni dell’utente per generare elementi dell’interfaccia utente pertinenti. Modulo Chat: Incorpora queste selezioni per produrre la risposta dell’intelligenza artificiale. Un aspetto particolarmente interessante per i team che si occupano di sicurezza è che “non c’è bisogno di memorizzare i dati tra una sessione e l’altra, il che semplifica l’implementazione” Questo design stateless attenua i problemi di governance dei dati tipicamente associati a complesse sovrapposizioni di IA. Passare dalla “progettazione dei prompt” alla “selezione dei prompt” offre un percorso per ottenere risultati di IA più coerenti in tutta l’organizzazione. Implementando i framework dell’interfaccia utente che guidano l’intento dell’utente, i leader tecnologici possono ridurre la variabilità delle risposte dell’IA e migliorare l’efficienza della forza lavoro. Il successo dipende dalla calibrazione. Rimangono problemi di usabilità per quanto riguarda il modo in cui le opzioni dinamiche influenzano l’output dell’IA e la gestione della complessità dei controlli multipli. I leader dovrebbero considerare questa soluzione non come una soluzione completa per risolvere i risultati delle richieste dell’IA, ma come un modello di progettazione da testare all’interno delle loro piattaforme di sviluppo e dei loro strumenti di supporto. Leggi di più su www.artificialintelligence-news.com

Gli agenti di intelligenza artificiale stanno assumendo compiti aziendali complessi

Gli agenti di intelligenza artificiale stanno assumendo compiti aziendali complessi

I nuovi dati di adozione di Perplexity rivelano come gli agenti di IA stiano incrementando l’efficienza del flusso di lavoro assumendo compiti aziendali complessi. Da un anno a questa parte, il settore tecnologico si basa sul presupposto che la prossima evoluzione dell’IA generativa andrà oltre la conversazione e passerà all’azione. Mentre i Large Language Models (LLM) fungono da motore di ragionamento, gli “agenti” agiscono come mani, in grado di eseguire flussi di lavoro complessi e in più fasi con una supervisione minima. Finora, tuttavia, la visibilità sull’utilizzo effettivo di questi strumenti è stata opaca, basandosi in gran parte su schemi speculativi o su indagini limitate. I nuovi dati pubblicati da Perplexity, che analizzano centinaia di milioni di interazioni con il browser e l’assistente Comet, forniscono il primo studio sul campo su larga scala degli agenti di IA generici. I dati indicano che l’IA agenziale viene già utilizzata dai lavoratori della conoscenza di alto valore per ottimizzare la produttività e le attività di ricerca. Capire chi utilizza questi strumenti è essenziale per prevedere la domanda interna e identificare potenziali vettori di shadow IT. Lo studio rivela una forte eterogeneità nell’adozione. Gli utenti delle nazioni con un PIL pro capite e un livello di istruzione più elevato hanno molte più probabilità di utilizzare gli strumenti agenziali. Più indicativa per la pianificazione aziendale è la ripartizione occupazionale. L’adozione è fortemente concentrata nei settori digitali e ad alta intensità di conoscenza. Il cluster “Tecnologia digitale” rappresenta la quota maggiore, con il 28% degli utenti e il 30% delle richieste. Seguono a ruota il mondo accademico, la finanza, il marketing e l’imprenditoria. Nel complesso, questi cluster rappresentano oltre il 70% del totale degli utenti. Ciò suggerisce che le persone più propense a sfruttare i flussi di lavoro agenziali sono le risorse più costose all’interno di un’organizzazione: ingegneri informatici, analisti finanziari e strateghi di mercato. Questi early adopters non si stanno dilettando; i dati mostrano che i “power users” (coloro che hanno accesso più rapidamente) effettuano un numero di interrogazioni agenziali nove volte superiore a quello degli utenti medi, il che indica che una volta integrata in un flusso di lavoro, la tecnologia diventa indispensabile. Agenti AI: Partner per le attività aziendali, non maggiordomi Per andare oltre le narrazioni di marketing, le aziende devono comprendere l’utilità di questi agenti. Una visione comune suggerisce che gli agenti funzioneranno principalmente come “concierge digitali” per le attività amministrative di routine. Tuttavia, i dati mettono in discussione questa visione: il 57% di tutte le attività degli agenti si concentra sul lavoro cognitivo. I ricercatori di Perplexity hanno sviluppato una “tassonomia gerarchica degli agenti” per classificare gli intenti degli utenti, rivelando che l’uso degli agenti AI è pratico piuttosto che sperimentale. Il caso d’uso dominante è “Produttività e flusso di lavoro”, che rappresenta il 36% di tutte le query agenziali. Segue “Apprendimento e ricerca” con il 21%. Alcuni aneddoti specifici dello studio illustrano come questo si traduca in valore aziendale. Un professionista degli acquisti, ad esempio, ha utilizzato l’assistente per analizzare i casi dei clienti e identificare i casi d’uso rilevanti prima di impegnarsi con un fornitore. Allo stesso modo, un addetto alle finanze ha delegato i compiti di filtrare le stock option e analizzare le informazioni sugli investimenti. In questi scenari, l’agente gestisce autonomamente la raccolta delle informazioni e la sintesi iniziale per consentire all’uomo di concentrarsi sul giudizio finale. Questa distribuzione fornisce un’indicazione precisa ai leader operativi: il ROI immediato dell’IA agenziale risiede nel potenziamento delle capacità umane piuttosto che nella semplice automazione degli attriti di basso livello. Lo studio definisce questi agenti come sistemi che “si muovono automaticamente tra tre fasi iterative per raggiungere l’obiettivo finale: pensare, agire e osservare” Questa capacità permette loro di supportare un “lavoro cognitivo profondo”, agendo come un partner di pensiero piuttosto che come un semplice maggiordomo. Appiccicosità e migrazione cognitiva Un aspetto fondamentale per i responsabili IT è la “tenuta” degli agenti AI nei flussi di lavoro aziendali. I dati mostrano che nel breve termine gli utenti mostrano una forte persistenza all’interno dell’argomento. Se un utente si rivolge a un agente per un’attività di produttività, è molto probabile che le sue successive richieste rimangano in quell’ambito. Tuttavia, il percorso dell’utente si evolve spesso. I nuovi utenti spesso “saggiano le acque” con richieste poco impegnative, ad esempio chiedendo consigli sui film o curiosità generali. Con il tempo, si verifica una transizione. Lo studio osserva che, sebbene gli utenti possano entrare in contatto con diversi casi d’uso, le query tendono a migrare verso ambiti cognitivi come la produttività, l’apprendimento e lo sviluppo della carriera. Una volta che un utente utilizza un agente per eseguire il debug di un codice o per riassumere un rapporto finanziario, raramente torna a svolgere compiti di valore inferiore. Le categorie “Produttività” e “Flusso di lavoro” mostrano i tassi di fidelizzazione più elevati. Questo comportamento implica che i primi programmi pilota dovrebbero prevedere una curva di apprendimento in cui l’uso matura dal semplice recupero di informazioni alla delega di compiti complessi. Il “dove” dell’IA agenziale è importante quanto il “cosa”. Lo studio di Perplexity ha monitorato gli ambienti – siti web e piattaforme specifiche – in cui operano questi agenti di IA. La concentrazione delle attività varia a seconda delle attività, ma gli ambienti principali sono i punti fermi dello stack aziendale moderno. Google Docs è l’ambiente principale per la modifica di documenti e fogli di calcolo, mentre LinkedIn domina le attività di networking professionale. Per “Apprendimento e ricerca”, l’attività si divide tra piattaforme di corsi come Coursera e archivi di ricerca. Per i CISO e i responsabili della conformità, questo rappresenta un nuovo profilo di rischio. Gli agenti AI non si limitano a leggere i dati, ma li manipolano attivamente all’interno delle applicazioni aziendali principali. Lo studio definisce esplicitamente le query agenziali come quelle che comportano il “controllo del browser” o azioni su applicazioni esterne tramite API. Quando un dipendente incarica un agente di “riassumere i casi di studio dei clienti”, l’agente interagisce direttamente con i dati proprietari.

Accenture e Anthropic collaborano per incrementare l’integrazione dell’intelligenza artificiale nelle aziende

Accenture e Anthropic collaborano per incrementare l'integrazione dell'intelligenza artificiale nelle aziende

Accenture e Anthropic si propongono di potenziare l’integrazione dell’IA nelle aziende grazie a una partnership appena ampliata. Mentre il 2024 è stato definito dalla curiosità delle aziende nei confronti dei Large Language Models (LLM), l’attuale mandato dei leader aziendali è quello di rendere operativi questi strumenti per ottenere un ritorno sugli investimenti. Il nuovo Accenture Anthropic Business Group combina le capacità dei modelli di Anthropic con i macchinari di implementazione di Accenture per industrializzare l’implementazione dell’IA generativa nei settori regolamentati. Industrializzare il flusso di lavoro degli sviluppatori Una componente primaria di questa collaborazione si concentra sull’ingegneria del software. L’assistenza alla codifica è spesso vista come la via di minor resistenza per l’adozione dell’IA, ma l’integrazione di questi strumenti nelle pipeline CI/CD esistenti rimane complessa. Accenture si sta posizionando come partner principale per Claude Code, lo strumento di codifica di Anthropic, che secondo l’azienda detiene oltre la metà del mercato della codifica dell’IA. L’azienda di consulenza prevede di formare circa 30.000 dei suoi professionisti su Claude, creando uno dei più grandi ecosistemi globali di professionisti che conoscono lo strumento. La promessa di una maggiore integrazione aziendale degli strumenti di codifica dell’intelligenza artificiale è una completa ristrutturazione della gerarchia di sviluppo. L’offerta congiunta suggerisce che gli sviluppatori junior possono utilizzare questi strumenti per produrre codice di livello superiore e completare più rapidamente le attività di integrazione per ridurre i tempi di onboarding da mesi a settimane. Gli sviluppatori senior possono quindi concentrarsi sull’architettura, la convalida e la supervisione di alto valore. Dario Amodei, CEO e co-fondatore di Anthropic, ha dichiarato: “L’intelligenza artificiale sta cambiando il modo in cui quasi tutti lavorano e le aziende hanno bisogno di un’intelligenza artificiale all’avanguardia e di competenze affidabili per implementarla su scala. Accenture ha una profonda esperienza nella trasformazione delle imprese e Anthropic ha i modelli più efficaci. “La nostra nuova partnership significa che decine di migliaia di sviluppatori di Accenture utilizzeranno Claude Code, il che rende la nostra più grande implementazione di sempre, e il nuovo Accenture Anthropic Business Group aiuterà i clienti aziendali a utilizzare i nostri modelli di IA più intelligenti per ottenere importanti aumenti di produttività.” Giustificare i costi dell’inferenza dell’intelligenza artificiale e rimuovere le barriere all’implementazione Un punto di attrito persistente per i leader aziendali che cercano un’integrazione più profonda dell’IA è la giustificazione del costo continuo dell’inferenza rispetto all’effettivo valore aziendale. Per ovviare a questo problema, la partnership sta lanciando un prodotto specifico progettato per aiutare i CIO a misurare il valore e a promuovere l’adozione nelle organizzazioni di ingegneria. Questa offerta cerca di fornire un percorso strutturato per la progettazione e la manutenzione del software, superando l’utilizzo ad hoc degli assistenti di codifica. Combina Claude Code con un framework per quantificare i guadagni di produttività e le riprogettazioni del flusso di lavoro su misura per i team di sviluppo che puntano sull’AI. Per le aziende, l’obiettivo è quello di tradurre l’efficienza dei singoli sviluppatori in un impatto aziendale più ampio, come cicli di sviluppo più brevi e un time-to-market più rapido per i nuovi prodotti. Tuttavia, la barriera più importante all’adozione dell’IA nel Global 2000 rimane la conformità. Settori come i servizi finanziari, l’assistenza sanitaria e il settore pubblico sono soggetti a rigidi requisiti di governance che spesso bloccano le iniziative di IA. Accenture e Anthropic stanno sviluppando soluzioni di IA aziendale specifiche per il settore per affrontare queste sfide di implementazione. Nei servizi finanziari, ad esempio, l’attenzione è rivolta all’automazione dei flussi di lavoro per la conformità e all’elaborazione di documenti complessi con la precisione necessaria per prendere decisioni importanti. Le aziende del settore sanitario e delle scienze della vita si trovano ad affrontare una domanda parallela. In questo caso, la partnership mira a sfruttare le capacità analitiche di Claude per interrogare i set di dati proprietari e ottimizzare l’elaborazione degli studi clinici. Per il settore pubblico, l’utilità risiede negli agenti di intelligenza artificiale che assistono i cittadini nella navigazione dei servizi governativi, rispettando al contempo i requisiti di legge sulla privacy dei dati. Julie Sweet, Presidente e CEO di Accenture, ha commentato: “Grazie alla potente combinazione delle capacità Claude di Anthropic e dell’esperienza di Accenture nel campo dell’IA e della conoscenza del settore e della funzione, le organizzazioni possono incorporare l’IA ovunque in modo responsabile e veloce, dallo sviluppo del software all’esperienza del cliente, per guidare l’innovazione, sbloccare nuove fonti di crescita e costruire la loro fiducia per essere leader nell’era dell’IA” Come Accenture e Anthropic stanno mitigando i rischi per supportare l’integrazione dell’IA nelle aziende Per mitigare i rischi associati all’impiego di modelli non deterministici, la partnership pone l’accento sull’”IA responsabile” Ciò implica la combinazione dei principi di “constitutional AI” di Anthropic – che incorporano le regole di sicurezza direttamente nel modello – con l’esperienza di governance di Accenture. L’implementazione pratica avverrà attraverso la rete di Innovation Hubs di Accenture, che fungeranno da ambienti controllati o “sandbox”. Questi hub consentono ai clienti di prototipare e convalidare le soluzioni senza esporre a rischi i sistemi di produzione o i dati sensibili. Le aziende hanno inoltre in programma di co-investire in un “Claude Center of Excellence” per progettare offerte di intelligenza artificiale su misura per le esigenze specifiche del settore. L’ampliamento della partnership con Accenture fa seguito alla notizia che Anthropic ha registrato una crescita della sua quota di mercato dell’IA aziendale dal 24% al 40%. Per Accenture, la creazione di un gruppo aziendale dedicato con un focus specifico sul mercato riflette un impegno a lungo termine nei confronti della piattaforma. L’era dei progetti pilota autonomi di IA sta scomparendo. La prossima fase dell’integrazione dell’IA aziendale richiede una stretta connessione tra le capacità del modello, la formazione della forza lavoro e una rigorosa misurazione del valore.   Leggi di più su www.artificialintelligence-news.com

Aluminium OS è il successore AI di ChromeOS

Aluminium OS è il successore AI di ChromeOS

La convergenza dei sistemi operativi per dispositivi mobili e desktop è un obiettivo che è rimasto irraggiungibile per le grandi aziende tecnologiche fin dagli albori degli smartphone. Il tentativo di Microsoft, sotto forma di Windows Mobile, era giunto alla fine del suo percorso nel 2010 e, nonostante iOS/iPadOS e macOS di Apple si siano avvicinati molto lentamente negli ultimi anni, Cupertino non ha ancora raggiunto il favoloso obiettivo di un unico sistema operativo che li domini tutti. Ma il grande progetto di Google di unire ChromeOS e Android in una piattaforma PC unificata (con il nome in codice anglicizzato Aluminium OS) sta gradualmente prendendo forma. L’uscita dei laptop con Android è prevista per il 2026 e l’azienda vuole mettere i suoi LLM al centro dell’esperienza dell’utente. Nel prossimo anno, quindi, le decisioni di acquisto dell’hardware potrebbero essere in linea con la strategia di AI dell’azienda in ambito aziendale. La prospettiva di dispositivi in stile chromebook e di un prezzo più basso sarà interessante sia per le organizzazioni che stanno valutando il prossimo ciclo di aggiornamento delle macchine, sia per gli strateghi che vogliono mettere l’IA al centro del lavoro quotidiano dei loro dipendenti. Presto potrebbero avere una soluzione in comune. Lo sviluppo del dispositivo convergente di Google è ancora agli inizi, ma l’azienda è ben nota per aver lanciato idee che non vanno lontano e per aver abbandonato le tecnologie che non riesce a monetizzare in modo sufficientemente efficace. A differenza di alcuni progetti dell’azienda che potrebbero derivare dalla sua politica del “20%” (i dipendenti di Google sono incoraggiati a dedicare il 20% del loro tempo a progetti moonshot), la consistente comunità di sviluppatori di Android e la politica di Google di mettere Gemini in primo piano potrebbero essere l’acceleratore di cui ha bisogno il nuovo sistema operativo convergente. Le funzionalità AI esistenti di Android, come il Magic Editor per le foto, la trascrizione audio e il riassunto, si adatterebbero molto bene al desktop dell’ambiente di lavoro. Tuttavia, se Google vuole placare i timori dei professionisti della sicurezza, potrebbe dover fare affidamento su modelli locali e di piccole dimensioni per l’elaborazione dell’intelligenza artificiale, piuttosto che rivolgersi alle istanze cloud di Gemini per ottenere la potenza di calcolo necessaria. Questo mette in discussione il mantenimento di uno dei punti di forza della gamma chromebook: il suo prezzo ridotto rispetto alle workstation vere e proprie. C’è anche un delicato equilibrio che l’azienda deve raggiungere. Costringere gli utenti a un flusso di lavoro incentrato sull’intelligenza artificiale non è stato un buon affare per Microsoft: basti pensare al clamore suscitato da Recall e alla risposta in sordina alla sua progenie, molto ridimensionata, nata dai Copilot Labs. Ciò di cui Google ha bisogno è una funzione di AI che sia utile alle aziende e che possa o meno essere rivolta agli utenti. È innegabile che l’aggiunta di Gemini a Google Workspace abbia fatto miracoli per la piattaforma in termini di competitività con Office 365 – nonostante un aumento significativo dei prezzi all’inizio di quest’anno – grazie anche a nuove funzionalità come la traduzione dal vivo in Google Meet e le risposte AI disponibili in Gmail. Gli utenti trovano utili alcuni strumenti di intelligenza artificiale, ma forse sta diventando evidente che l’intelligenza artificiale rivolta all’utente è un’utile aggiunta ai flussi di lavoro esistenti, piuttosto che un catalizzatore che cambia tutto. Se Gemini o Gemini Nano saranno al centro del nuovo sistema operativo, quindi, è possibile che Google stia cercando di offrire valore a diversi settori dell’azienda rispetto alle attività quotidiane degli utenti. Android Authority suggerisce che la gestione intelligente dell’energia, il provisioning dei dispositivi e la consapevolezza contestuale nell’accesso alle risorse aziendali potrebbero essere in discussione. Tuttavia, è difficile capire come questi elementi possano cambiare le carte in tavola per i team di approvvigionamento. Google ha molti problemi da risolvere a un livello più profondo, come la compatibilità con le periferiche, i driver a livello di sistema operativo e le modifiche necessarie all’interfaccia grafica di Android per rendere l’esperienza degli utenti finali con mouse e tastiera. Tuttavia, se l’azienda si impegna e investe a sufficienza (cosa che non manca), si tratta di problemi che possono essere superati con relativa facilità. Un fiorente ecosistema di app garantirà che gli strumenti necessari, se non immediatamente disponibili, possano essere resi tali con il minimo sforzo. In definitiva, il successo di Aluminium OS dipenderà dalla capacità di Google di offrire una piattaforma che risolva problemi tangibili e si integri nei flussi di lavoro esistenti. Google vede l’intelligenza artificiale sotto forma di Gemini (o di un’istanza localizzata di Gemini Nano) che alimenta una piattaforma in grado di risolvere problemi integrati. Il raggiungimento di questo obiettivo genererà domanda e un prezzo più basso per macchina potrebbe essere l’elemento decisivo per i team di approvvigionamento. Se Google riuscirà a centrare l’obiettivo, potrebbe ripetere il successo ottenuto nel mercato dell’istruzione con il progetto originale dei chromebook, e potrebbe assistere a un passaggio sostanziale delle flotte aziendali a Aluminium OS e Google Workspaces. Ci sono grandi vantaggi per un’azienda che domina il mercato dei dispositivi mobili in tutto il mondo e che si sta facendo strada nel mercato delle workstation aziendali. Inoltre, l’inafferrabile convergenza dei dispositivi sarebbe molto più vicina a diventare realtà. (Fonte immagine: “Macro Monday: bottoni di alluminio (Al sulla tavola periodica)” di cchana è concessa in licenza CC BY-SA 2.0.) Leggi di più su www.artificialintelligence-news.com

IBM cita l’IA agenziale, le politiche sui dati e la quantistica come tendenze per il 2026

IBM cita l'IA agenziale, le politiche sui dati e la quantistica come tendenze per il 2026

Secondo un documento pubblicato dall’IBM Institute for Business Value, i leader aziendali entrano nel 2026 con un mix scomodo di volatilità, ottimismo e pressione a muoversi più velocemente con l’IA e il quantum computing. I risultati si basano su oltre 1.000 dirigenti C-suite e 8.500 dipendenti e consumatori. Mentre solo un terzo circa dei dirigenti è ottimista sull’economia globale, più di quattro su cinque sono fiduciosi sulle prestazioni della propria organizzazione nell’anno a venire. I dirigenti si aspettano di prendere decisioni più rapide e sono disposti a riprogettare i modelli operativi, mentre i dipendenti sono ampiamente positivi riguardo all’IA nella loro vita lavorativa. I clienti, a loro volta, sono pronti a premiare (o punire) i marchi in base a come le aziende utilizzano i loro dati. Tendenza 1: l’IA agenziale come asset strategico L’IA agenziale sta emergendo come uno dei principali strumenti che i leader si aspettano di utilizzare nel prossimo anno e la maggior parte dei dirigenti afferma che gli agenti di IA li stanno già aiutando. Tuttavia, affinché l’IA agenziale abbia successo, le opinioni espresse affermano che: L’architettura dei dati deve supportare una visione quasi in tempo reale, non una reportistica periodica. Il successo degli agenti AI dipenderà dall’accesso ai sistemi principali (ERP, CRM, piattaforme di supply chain). L’IA agenziale passa da sperimentale a operativa. I leader ritengono di dover decidere quali decisioni possono essere delegate agli agenti di IA, quali richiedono una revisione umana e quali devono rimanere guidate dall’uomo. Tendenza 2: i dipendenti chiederanno più formazione e l’IA è ok La maggior parte dei dipendenti afferma che il ritmo dei cambiamenti tecnologici nei loro ruoli è sostenibile e che sono sicuri di riuscire a stare al passo con i nuovi strumenti. Il doppio dei dipendenti afferma che accetterebbe, e non si opporrebbe, a un maggiore utilizzo dell’IA sul posto di lavoro, considerando la tecnologia come un modo per eliminare le attività ripetitive e apprendere nuove competenze. Questo dato è in linea con i risultati di una ricerca di KPMG. I dirigenti si aspettano una significativa riqualificazione dei loro dipendenti, quindi dovrebbero prevedere che almeno la metà della loro forza lavoro avrà bisogno di una qualche forma di riqualificazione entro la fine del 2026, grazie all’automazione dell’IA. Altri sondaggi concordano con IBM e affermano che le competenze più richieste sono la risoluzione dei problemi, la creatività e l’innovazione. I dipendenti dichiarano di essere disposti a cambiare datore di lavoro per avere accesso a migliori opportunità di formazione, il che significa che lo sviluppo delle competenze gioca un ruolo diretto nella riduzione del turnover dei dipendenti. Tendenza 3: i clienti chiederanno conto delle politiche sui dati I dirigenti intervistati concordano sul fatto che la fiducia dei consumatori nell’uso dell’IA da parte di un marchio definirà il successo di nuovi prodotti e servizi. I consumatori sono disposti a tollerare errori occasionali, ma non l’opacità. I clienti vogliono spiegazioni su come vengono utilizzati i loro dati, sapere quando l’IA è coinvolta nelle interazioni con loro e trovare modi semplici per scegliere di partecipare o meno. Gli studi di Deloitte e KPMG (vedi sopra) rafforzano questo quadro. Le implicazioni per i leader includono il trattamento della trasparenza come caratteristica del prodotto e la scelta di modelli che supportino la spiegabilità. Tendenza 4: l’AI e il cloud richiederanno una fornitura locale La sovranità dell’IA – la capacità di un’organizzazione di controllare e governare i propri sistemi, dati e infrastrutture di IA – è diventata il fulcro della pianificazione della resilienza. Quasi tutti i dirigenti intervistati hanno dichiarato che terranno conto della sovranità dell’IA nella loro strategia per il 2026. Alla luce delle preoccupazioni sulla residenza dei dati e sulla giurisdizione del cloud, i leader stanno ripensando a dove vengono eseguiti i modelli e dove vivono i dati. Gli studi condotti dai leader IT del Regno Unito e dell’Europa mostrano una crescente preoccupazione per l’eccessiva dipendenza da servizi cloud stranieri (in quest’ultimo caso, “basati negli Stati Uniti”). Anche la società di consulenza Accenture esorta i leader [PDF] a sviluppare strategie di AI sovrane che diano priorità al controllo, alla trasparenza e alla scelta. I punti chiave includono la necessità di piattaforme di IA portatili, il monitoraggio della conformità dei dati e una forte enfasi sull’ubicazione fisica dei dati. La resilienza dell’IA riguarda in ultima analisi la continuità e la trasparenza. È necessario garantire che l’organizzazione sia in grado di adattarsi e di operare in modo aperto, anche quando il panorama tecnologico e geopolitico globale cambia. Tendenza 5: pianificare il vantaggio quantistico Secondo i risultati del rapporto, la quantistica si sta spostando verso la sperimentazione nel breve termine. La ricerca di IBM sulla prontezza quantistica (in linea con la sua monetizzazione dei servizi quantistici) suggerisce che il vantaggio quantistico iniziale è probabile in settori mirati come l’ottimizzazione e la scienza dei materiali. Il rapporto invita a individuare un numero limitato di utilizzi quantistici ad alto impatto nell’impresa e a unire gli ecosistemi in tempi brevi. “Identifica le grandi scommesse per vincere con le tecnologie emergenti, compresa la quantistica, e collabora all’innovazione per condividere i costi”, si legge nel rapporto. (Fonte immagine:“California Perfect” di moonjazz è concessa in licenza CC BY-SA 2.0.) Leggi di più su www.artificialintelligence-news.com

Fox News Media firma un accordo per l’intelligenza artificiale con Palantir

Fox News Media firma un accordo per l'intelligenza artificiale con Palantir

Top of the Ticker: Fox News e Palantir hanno siglato un accordo sull’intelligenza artificiale che porterà alla creazione di strumenti personalizzati di AI per i giornalisti del network. La partnership, in corso da un anno, garantisce a Palantir un ampio accesso al flusso di lavoro di Fox News Media per facilitare la trasformazione dell’intelligenza artificiale, senza che la società di media rinunci alla sua proprietà intellettuale. Gli strumenti a disposizione dei giornalisti includono Topic Radar, che aiuta i reporter ad aggiornarsi rapidamente su una particolare storia attraverso un briefing personalizzato. Text Editor, che valuta lo stile e l’efficienza dei testi, come ad esempio il controllo dei link non funzionanti e l’aderenza alla guida di stile di Fox News. Infine, Article Insights analizza le prestazioni degli articoli digitali di Fox News per fornire indicazioni su come ottimizzare le storie. Per quanto riguarda Fox News, giovedì la rete ha annunciato che Bill Melugin si è trasferito da Los Angeles a Washington D.C., diventando il nuovo corrispondente per il Congresso. Si occuperà degli sviluppi legislativi, delle dinamiche politiche e delle decisioni che avvengono a Capitol Hill. Aggiornamento personale! Sono entusiasta di annunciare che mi sono trasferito a Washington D.C. dove assumerò un nuovo ruolo con @FoxNews come corrispondente dal Congresso per Capitol Hill! Sono entusiasta di unirmi al team e sono pronto a mettermi al lavoro! pic.twitter.com/AmFSmok74c – Bill Melugin (@BillMelugin_) 20 novembre 2025 Infine, Fox News Audio ha siglato un accordo di licenza per l’acquisizione di 52 episodi di The Life of Jesus Podcast da Gulfstream Studios. Questi podcast faranno parte della verticale religiosa di Fox News Media, Fox Faith, e debutteranno in quattro puntate con il primo lotto disponibile a novembre. I podcast successivi si allineeranno ai momenti chiave del calendario cristiano, con la co-conduttrice di Fox & Friends Ainsley Earhardt che introdurrà ogni episodio di 30 minuti, con la partecipazione di Kristen Bell, Neal McDonough e Sean Astin. Podcast di spicco: Il podcast Dateline NBC di NBC News e il podcast The Best People with Nicolle Wallace di MSNBC sono stati inseriti nella classifica dei podcast di Apple per il 2025. Dateline NBC è stato molto presente in varie classifiche, tra cui la quinta più popolare dell’anno, mentre The Best People ha ottenuto il n. 10 nella classifica dei migliori nuovi programmi per il 2025. Riflettendo su ciò che rende Dateline NBC un programma di successo nel mondo dei podcast, la senior ep Liz Cole ha dichiarato a TVNewser: “Sono gli stessi elementi che hanno reso Dateline un programma di successo in TV per decenni: grandi storie, ben raccontate. E siamo fortunati ad avere alcune delle voci più iconiche del true crime che le portano in vita” NUOVO: @ApplePodcasts nomina @DatelineNBC come il quinto podcast più popolare del 2025. anche 🎖️Deadly Mirage e Murder in the Moonlight sono tra i nuovi programmi più popolari 🎖️#Dateline è uno dei canali top e uno degli show con il maggior numero di abbonati dell’anno https://t.co/NMytVzyYsT – NBC News PR (@NBCNewsPR) 18 novembre 2025 Riconoscimenti meritati: David Muir di ABC News ha ricevuto un premio alla carriera dalla Library of American Broadcasting Foundation (LABF) venerdì 14 novembre. Introdotto da Bill Whitaker di CBS News, il conduttore e direttore generale di World News Tonight ha detto: “Il motivo per cui siamo qui è che stiamo sulle spalle delle persone che ci hanno aperto la porta. Le porte di quella stazione televisiva quando avevo 13 anni” Muir ha aggiunto: “Quindi lasciatemi dire grazie… e guardiamoci tutti alle spalle un po’ di più e assicuriamoci di raggiungere i giovani che saranno i prossimi, perché abbiamo bisogno di giovani, i leader e i giornalisti di domani, ora più che mai” Nel frattempo, sabato sera, la conduttrice di CBS News Sunday Morning Jane Pauley ha ricevuto la 2025 Poynter Medal for Lifetime Achievement in Journalism dal Poynter Institute. Il premio è stato consegnato a Pauley durante l’annuale Bowtie Ball di Poynter a Tampa, in Florida. All’evento sono stati premiati anche l’editore del New York Times Dean Baquet e il creatore di Doonesbury G.B. “Garry” Trudeau, che ha ricevuto un premio per il servizio. 🏆 Che serata fenomenale! Il 2025 Bowtie Ball di Poynter è stata una serata ricca di momenti indimenticabili. Congratulazioni ai nostri tre magnifici premiati e grazie alle centinaia di ospiti e all’incredibile staff di Poynter che ha reso possibile la serata. Ci vediamo l’anno prossimo! pic.twitter.com/N1QiAkpZz8 – Poynter (@Poynter) 17 novembre 2025 Leggi di più su www.adweek.com

Regno Unito e Germania progettano di commercializzare il supercalcolo quantistico

Regno Unito e Germania progettano di commercializzare il supercalcolo quantistico

Il Regno Unito e la Germania intendono integrare i loro settori scientifici per accelerare la commercializzazione della tecnologia di supercalcolo quantistico. Annunciati l’ultimo giorno della visita di Stato del presidente tedesco, questi impegni congiunti mirano a colmare il divario tra la ricerca e lo sviluppo e le applicazioni aziendali nel campo dell’informatica, del rilevamento e della tempistica. La partnership prevede finanziamenti specifici per accelerare lo sviluppo dei prodotti e stabilire standard operativi condivisi. La tecnologia quantistica è al momento un’incognita per la maggior parte delle roadmap, ma i modelli economici suggeriscono un contributo di 11 miliardi di sterline al PIL del Regno Unito entro il 2045, con oltre 100.000 posti di lavoro. Per catalizzare tutto questo, all’inizio del 2026 verrà lanciato un bando di finanziamento congiunto per la R&S da 6 milioni di sterline, con un contributo di 3 milioni di sterline ciascuno da parte di Innovate UK e VDI. Questo capitale ha lo scopo di aiutare le imprese a portare nuovi prodotti sul mercato piuttosto che finanziare studi puramente accademici. La maturità della catena di approvvigionamento rimane un ostacolo. Un investimento di 8 milioni di sterline nel Fraunhofer Centre for Applied Photonics di Glasgow affronta questo problema sostenendo lo sviluppo della fotonica applicata, una componente necessaria per il rilevamento quantistico commerciale. Affrontare gli ostacoli nel Regno Unito, in Germania e altrove per commercializzare il supercalcolo quantistico La frammentazione normativa spesso blocca l’adozione. Un nuovo protocollo d’intesa tra il National Physical Laboratory (NPL) del Regno Unito e il Physikalisch-Technische Bundesanstalt (PTB) della Germania mira ad armonizzare gli standard di misurazione. Questo accordo integra l’iniziativa NMI-Q, uno sforzo globale per sviluppare norme condivise. Il Ministro della Scienza britannico Lord Vallance ha dichiarato: “La tecnologia quantistica rivoluzionerà campi come la sicurezza informatica, la scoperta di farmaci, l’imaging medico e molto altro ancora. La collaborazione internazionale è fondamentale per sbloccare questi vantaggi” In termini pratici, questi progressi consentono alle aziende farmaceutiche di individuare più velocemente nuovi farmaci. Allo stesso modo, i sensori di nuova generazione promettono scanner medici più accessibili, portatili e precisi rispetto alle versioni attuali. La collaborazione si estende anche al calcolo ad alte prestazioni (HPC). Il National Supercomputing Centre dell’Università di Edimburgo è stato selezionato dall’EuroHPC Joint Undertaking per ospitare l’Antenna AI Factory del Regno Unito, in collaborazione con la HammerHAI AI Factory di Stoccarda. Per sostenere l’integrazione dell’HPC prima della commercializzazione della tecnologia di supercalcolo quantistico, il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) sta stanziando fino a 3,9 milioni di sterline per finanziare la partecipazione del Regno Unito a tre bandi EuroHPC aperti. Questo finanziamento aiuta i team che sviluppano software exascale e AI-ready. Nel settore aerospaziale, le due nazioni hanno recentemente impegnato un finanziamento congiunto di oltre 6 miliardi di euro per l’Agenzia Spaziale Europea. Tra questi, 1 miliardo di euro per i programmi di lancio e 10 milioni di euro per la Rocket Factory Augsburg, che prevede un lancio dalla Scozia nel 2026. Il Presidente tedesco Frank-Walter Steinmeier ha concluso la sua visita alla Siemens Healthineers di Oxford. Il sito produce magneti superconduttori per gli scanner MRI, un esempio di come i legami scientifici bilaterali sostengano la produzione altamente qualificata e i risultati in termini di salute. Con l’intensificarsi di questa cooperazione bilaterale, l’approccio integrato tra Regno Unito e Germania verso il supercalcolo e l’infrastruttura quantistica mira a offrire alle imprese una base potente per scalare i carichi di lavoro ad alte prestazioni in tutta Europa. Leggi di più su www.artificialintelligence-news.com

Gli agenti AI di frontiera sostituiscono i chatbot

Gli agenti AI di frontiera sostituiscono i chatbot

Secondo AWS, in occasione del re:Invent 2025 di questa settimana, il ciclo di successo dei chatbot è effettivamente morto e gli agenti AI di frontiera hanno preso il loro posto. Questo è il messaggio senza mezzi termini che arriva da Las Vegas questa settimana. L’ossessione del settore per le interfacce di chat è stata sostituita da un mandato molto più impegnativo: “agenti di frontiera” che non si limitano a parlare, ma lavorano autonomamente per giorni interi. Stiamo passando dalla fase di novità dell’IA generativa a un’era di economia infrastrutturale e idraulica operativa. Il fattore “wow” di un bot che scrive poesie è svanito; ora è arrivato il momento di pagare l’infrastruttura necessaria per far funzionare questi sistemi su scala. Affrontare la crisi idraulica a AWS re:Invent 2025 Fino a poco tempo fa, costruire agenti AI di frontiera in grado di eseguire compiti complessi e non deterministici era un incubo di ingegneria su misura. I primi utilizzatori hanno sprecato risorse per mettere insieme strumenti per gestire il contesto, la memoria e la sicurezza. AWS sta cercando di eliminare questa complessità con Amazon Bedrock AgentCore. Si tratta di un servizio gestito che funge da sistema operativo per gli agenti, gestendo il lavoro di back-end della gestione dello stato e del recupero del contesto. I guadagni in termini di efficienza derivanti dalla standardizzazione di questo livello sono difficili da ignorare. Prendiamo ad esempio MongoDB. Abbandonando la loro infrastruttura fatta in casa per AgentCore, hanno consolidato la loro catena di strumenti e portato in produzione un’applicazione basata su agenti in otto settimane, un processo che in precedenza richiedeva mesi di tempo per la valutazione e la manutenzione. Il PGA TOUR ha ottenuto risultati ancora più brillanti, utilizzando la piattaforma per costruire un sistema di generazione di contenuti che ha aumentato la velocità di scrittura del 1.000% e ha ridotto i costi del 95%. Anche i team di software stanno ottenendo una forza lavoro dedicata. A re:Invent 2025, AWS ha presentato tre agenti AI di frontiera specifici: Kiro (uno sviluppatore virtuale), un agente di sicurezza e un agente DevOps. Kiro non è solo uno strumento di completamento del codice, ma si aggancia direttamente ai flussi di lavoro con “poteri” (integrazioni specializzate per strumenti come Datadog, Figma e Stripe) che gli permettono di agire con un contesto piuttosto che indovinare la sintassi. Gli agenti che funzionano per giorni consumano enormi quantità di calcolo. Se paghi le tariffe standard on-demand per questo, il tuo ROI evapora. AWS lo sa bene ed è per questo che gli annunci hardware di quest’anno sono aggressivi. I nuovi UltraServer Trainium3, alimentati da chip a 3nm, dichiarano un salto di 4,4 volte nelle prestazioni di calcolo rispetto alla generazione precedente. Per le organizzazioni che si occupano della formazione di modelli di base massicci, questo riduce i tempi di formazione da mesi a settimane. Ma il cambiamento più interessante riguarda il luogo in cui risiede l’elaborazione. La sovranità dei dati rimane un problema per le aziende globali, che spesso bloccano l’adozione del cloud per i carichi di lavoro AI sensibili. AWS sta contrastando questo problema con le “fabbriche di AI” (essenzialmente spedendo rack di chip Trainium e GPU NVIDIA direttamente nei data center esistenti dei clienti) Si tratta di un’operazione ibrida che riconosce una semplice verità: per alcuni dati, il cloud pubblico è ancora troppo lontano. Affrontare la montagna del legacy L’innovazione, come quella che stiamo vedendo con gli agenti AI di frontiera, è fantastica, ma la maggior parte dei budget IT è strangolata dal debito tecnico. I team spendono circa il 30% del loro tempo solo per tenere accese le luci. Durante re:Invent 2025, Amazon ha aggiornato AWS Transform per affrontare questo problema in modo specifico, utilizzando l’intelligenza artificiale agenziale per gestire il lavoro di aggiornamento del codice legacy. Il servizio è ora in grado di gestire la modernizzazione full-stack di Windows, compreso l’aggiornamento delle applicazioni .NET e dei database SQL Server. Air Canada lo ha utilizzato per modernizzare migliaia di funzioni Lambda. Hanno finito in pochi giorni. Farlo manualmente sarebbe costato cinque volte di più e avrebbe richiesto settimane. Per gli sviluppatori che vogliono effettivamente scrivere codice, l’ecosistema si sta ampliando. L’SDK di Strands Agents, che in precedenza era solo Python, ora supporta anche TypeScript. Essendo la lingua franca del web, porta la sicurezza dei tipi nell’output caotico degli LLM e rappresenta un’evoluzione necessaria. Una governance sensata nell’era degli agenti AI di frontiera C’è un pericolo. Un agente che lavora autonomamente per “giorni senza intervento” è anche un agente che può distruggere un database o divulgare PII senza che nessuno se ne accorga finché non è troppo tardi. AWS sta tentando di arginare questo rischio con “AgentCore Policy”, una funzione che consente ai team di definire in linguaggio naturale i limiti di ciò che un agente può o non può fare. Insieme a “Evaluations”, che utilizza metriche predefinite per monitorare le prestazioni degli agenti, fornisce una rete di sicurezza molto necessaria. Anche i team che si occupano di sicurezza ricevono una spinta grazie agli aggiornamenti di Security Hub, che ora mette in relazione i segnali provenienti da GuardDuty, Inspector e Macie in singoli “eventi”, anziché inondare la dashboard di avvisi isolati. GuardDuty stesso si sta espandendo, utilizzando il ML per rilevare modelli complessi di minacce su cluster EC2 ed ECS. Abbiamo chiaramente superato la fase dei programmi pilota. Gli strumenti annunciati ad AWS re:Invent 2025, dal silicio specializzato ai framework governati per gli agenti AI di frontiera, sono progettati per la produzione. La domanda che si pongono i leader aziendali non è più “cosa può fare l’IA?”, ma “possiamo permetterci l’infrastruttura per permetterle di fare il suo lavoro?” Leggi di più su www.artificialintelligence-news.com

Gli aggiornamenti del cloud di Microsoft supportano gli obiettivi di AI a lungo termine dell’Indonesia

Gli aggiornamenti del cloud di Microsoft supportano gli obiettivi di AI a lungo termine dell'Indonesia

La spinta dell’Indonesia verso la crescita guidata dall’intelligenza artificiale sta prendendo piede, mentre un numero sempre maggiore di organizzazioni locali cerca un modo per creare le proprie applicazioni, aggiornare i propri sistemi e rafforzare la supervisione dei dati. Il paese ha ora un accesso più ampio agli strumenti cloud e AI dopo che Microsoft ha ampliato i servizi disponibili nella regione cloud Indonesia Central, che è stata attivata per la prima volta sei mesi fa. L’espansione offre alle aziende, agli enti pubblici e agli sviluppatori maggiori possibilità di eseguire i carichi di lavoro AI all’interno del paese invece che nei data center esteri. L’aggiornamento è stato condiviso al Cloud & AI Innovation Summit di Jakarta, dove i leader delle aziende e dei governi si sono incontrati per discutere di come l’Indonesia possa far progredire le sue ambizioni in materia di AI. Sono intervenuti Mike Chan, responsabile di Azure AI Apps & Agents in Asia, e Dharma Simorangkir, President Director di Microsoft Indonesia. Il loro messaggio è stato che la capacità locale è utile solo se le organizzazioni la mettono in pratica. Durante l’evento, Dharma ha affermato che i nuovi servizi “aprono le porte a ogni organizzazione per innovare in Indonesia, per l’Indonesia”, invitando i team dei vari settori a creare soluzioni che rispondano alle esigenze nazionali. Un cambiamento verso la costruzione, non solo l’adozione Molte aziende indonesiane stanno andando oltre le sperimentazioni di base dell’intelligenza artificiale e stanno progettando strumenti che risolvono problemi specifici delle loro attività. Microsoft descrive questo tipo di organizzazioni come “aziende di frontiera”: team che considerano l’IA come una parte fondamentale del loro lavoro, piuttosto che un’aggiunta opzionale. Queste aziende tendono a concentrarsi sulla creazione di applicazioni che semplificano le attività dei clienti, migliorano i processi interni o modernizzano i vecchi flussi di lavoro. Per sostenere questo cambiamento, l’area centrale dell’Indonesia ospita ora una serie di servizi Azure che aiutano i team a progettare e distribuire il software. Questi includono strumenti per la creazione di applicazioni connesse ai dati, servizi per l’archiviazione e la gestione di dati strutturati e una serie di macchine virtuali pronte per l’AI in grado di addestrare ed eseguire modelli avanzati. Le macchine costruite per il lavoro di calcolo pesante consentono ai team di mantenere i dati all’interno del paese mentre lavorano con carichi di lavoro AI complessi. La regione supporta ora Microsoft 365 Copilot, che offre funzionalità di IA agli strumenti di lavoro più comuni. Gli sviluppatori hanno accesso anche a GitHub Copilot, che suggerisce il codice e velocizza lo sviluppo del software. Questi servizi formano uno stack connesso che aiuta i team a superare i piccoli progetti pilota e a passare alla produzione, dove l’affidabilità e il controllo dei costi sono più importanti. I primi progetti cloud di Microsoft in Indonesia L’espansione della regione segue una domanda costante dal lancio nel maggio 2025. Le aziende del settore minerario, dei viaggi e dei servizi digitali stanno già utilizzando l’infrastruttura cloud locale per aggiornare i sistemi esistenti e soddisfare le esigenze di governance dei dati più rigorose. Petrosea e Vale Indonesia sono tra le aziende che utilizzano la regione per supportare gli aggiornamenti tecnici e l’archiviazione sicura dei dati locali. Le aziende digital-first stanno anche sperimentando un impegno più diretto con l’intelligenza artificiale. Un esempio è quello di tiket.com, che ha costruito il proprio assistente di viaggio AI utilizzando il servizio Azure OpenAI. L’assistente permette ai clienti di interagire con la piattaforma con il linguaggio di tutti i giorni, dal controllo degli aggiornamenti dei voli all’aggiunta di servizi extra dopo una prenotazione. “I nostri progressi nel campo dell’intelligenza artificiale sono pensati per offrire la migliore esperienza possibile ai nostri clienti”, ha dichiarato Irvan Bastian Arief, PhD, Vice Presidente della Tecnologia GRAND, Data & AI di tiket.com. L’azienda vede l’intelligenza artificiale conversazionale come un modo per semplificare la pianificazione dei viaggi e ridurre l’attrito nell’assistenza ai clienti. Riunire i dati sparsi in un unico sistema Uno dei temi principali del summit è stata la necessità di mettere ordine nei dati prima di adottare l’IA su scala. A tal fine, Microsoft ha introdotto Microsoft Fabric nel mercato indonesiano. Fabric è un unico ambiente che riunisce l’ingegneria dei dati, l’integrazione, l’archiviazione, l’analisi e la business intelligence. Include funzioni Copilot che aiutano i team a preparare i dati e a creare approfondimenti senza doversi destreggiare tra più strumenti. Per molte organizzazioni, i dati si trovano in diversi sistemi interni e fornitori di cloud. Fabric offre ai team un unico luogo in cui riunire queste fonti, il che può aiutare a migliorare la governance, velocizzare la reportistica e controllare i costi. La piattaforma è pensata per i team che desiderano una struttura senza dover costruire da zero la propria base di dati. Preparare la forza lavoro indonesiana all’AI pratica con gli strumenti Microsoft L’attenzione della giornata non si è limitata alle infrastrutture. Microsoft ha anche evidenziato il suo programma di formazione sull’IA, Microsoft Elevate, che sta entrando nel suo secondo anno. Il programma ha già raggiunto più di 1,2 milioni di studenti e mira a certificare 500.000 persone in competenze AI entro il 2026. La prossima fase si concentrerà sull’utilizzo pratico, incoraggiando i partecipanti ad applicare l’IA in contesti reali anziché limitarsi ad apprendere concetti teorici. La formazione copre un’ampia gamma di gruppi: insegnanti, operatori no-profit, leader di comunità e persone che desiderano migliorare le proprie competenze digitali. I partecipanti imparano attraverso strumenti come Microsoft Copilot, Learning Accelerator, Minecraft Education e moduli progettati per spiegare come l’IA può supportare attività pratiche. Durante il summit, Dharma ha affermato che il cloud e l’IA “sono la spina dorsale della competitività nazionale” e ha sottolineato che le infrastrutture contano solo se le persone sono pronte a usarle. Costruire un ecosistema a lungo termine Questi sforzi rientrano in un impegno più ampio di 1,7 miliardi di dollari che Microsoft ha promesso per l’Indonesia dal 2024 al 2028. L’investimento riguarda le infrastrutture, il supporto ai partner e lo sviluppo dei talenti. L’azienda si sta inoltre preparando a ospitare il GitHub Universe

La scoperta dell’apprendimento avversivo consente la sicurezza dell’intelligenza artificiale in tempo reale

La scoperta dell'apprendimento avversivo consente la sicurezza dell'intelligenza artificiale in tempo reale

La capacità di eseguire l’apprendimento avversario per la sicurezza dell’intelligenza artificiale in tempo reale offre un vantaggio decisivo rispetto ai meccanismi di difesa statici. L’emergere di attacchi guidati dall’intelligenza artificiale – che utilizzano capacità di apprendimento per rinforzo (RL) e Large Language Model (LLM) – ha creato una classe di “vibe hacking” e minacce adattive che mutano più velocemente di quanto i team umani possano rispondere. Questo rappresenta un rischio operativo e di governance per i leader aziendali che la politica da sola non può mitigare. Gli aggressori ora utilizzano ragionamenti in più fasi e la generazione automatica di codice per aggirare le difese consolidate. Di conseguenza, il settore sta osservando una necessaria migrazione verso la “difesa autonoma” (ossia sistemi in grado di apprendere, anticipare e rispondere in modo intelligente senza l’intervento umano) La transizione verso questi sofisticati modelli di difesa, tuttavia, ha storicamente incontrato un duro limite operativo: la latenza. L’applicazione dell’apprendimento avversario, in cui i modelli di minaccia e di difesa vengono addestrati continuamente l’uno contro l’altro, offre un metodo per contrastare le minacce di sicurezza dell’intelligenza artificiale. Tuttavia, l’implementazione delle necessarie architetture basate su trasformatori in un ambiente di produzione in tempo reale crea un collo di bottiglia. Abe Starosta, Principal Applied Research Manager di Microsoft NEXT.ai, ha dichiarato: “L’apprendimento avversivo funziona in produzione solo quando latenza, throughput e precisione si muovono insieme. I costi di calcolo associati all’esecuzione di questi modelli densi in precedenza costringevano i leader a scegliere tra il rilevamento ad alta precisione (che è lento) e l’euristica ad alta velocità (che è meno accurata). La collaborazione ingegneristica tra Microsoft e NVIDIA mostra come l’accelerazione hardware e l’ottimizzazione a livello di kernel eliminino questa barriera, rendendo la difesa avversaria in tempo reale fattibile su scala aziendale. Per rendere operativi i modelli di trasformatori per il traffico in tempo reale, i team di ingegneri hanno dovuto affrontare i limiti intrinseci dell’inferenza basata su CPU. Le unità di elaborazione standard faticano a gestire il volume e la velocità dei carichi di lavoro di produzione quando vengono caricate di reti neurali complesse. Nei test di base condotti dai team di ricerca, una configurazione basata sulla CPU ha prodotto una latenza end-to-end di 1239,67 ms con un throughput di appena 0,81req/s. Per un istituto finanziario o una piattaforma di e-commerce globale, un ritardo di un secondo per ogni richiesta è insostenibile dal punto di vista operativo. Passando a un’architettura accelerata dalle GPU (in particolare utilizzando le unità NVIDIA H100), la latenza di base è scesa a 17,8ms. I soli aggiornamenti hardware, tuttavia, si sono rivelati insufficienti per soddisfare i severi requisiti della sicurezza dell’intelligenza artificiale in tempo reale. Grazie a un’ulteriore ottimizzazione del motore di inferenza e dei processi di tokenizzazione, i team hanno raggiunto una latenza finale end-to-end di 7,67 ms, con un aumento delle prestazioni di 160 volte rispetto alla CPU di riferimento. Questa riduzione porta il sistema ben al di sotto delle soglie di accettabilità per l’analisi del traffico in linea, consentendo l’implementazione di modelli di rilevamento con un’accuratezza superiore al 95% nei benchmark di apprendimento avversario. Un ostacolo operativo identificato nel corso di questo progetto offre spunti preziosi ai CTO che si occupano dell’integrazione dell’intelligenza artificiale. Mentre il modello di classificazione in sé è pesante dal punto di vista computazionale, la pipeline di pre-elaborazione dei dati – in particolare la tokenizzazione – è emersa come un secondo collo di bottiglia. Le tecniche di tokenizzazione standard, che spesso si basano sulla segmentazione degli spazi bianchi, sono state progettate per l’elaborazione del linguaggio naturale (ad esempio articoli e documentazione). Si rivelano inadeguate per i dati di cybersecurity, che sono costituiti da stringhe di richiesta densamente impacchettate e da payload generati dalla macchina che non presentano interruzioni naturali. Per risolvere questo problema, i team di ingegneri hanno sviluppato un tokenizzatore specifico per il dominio. Integrando punti di segmentazione specifici per la sicurezza, adattati alle sfumature strutturali dei dati macchina, hanno permesso un parallelismo a grana più fine. Questo approccio su misura per la sicurezza ha permesso di ridurre di 3,5 volte la latenza di tokenizzazione, evidenziando che i componenti di IA già pronti per l’uso spesso richiedono una reingegnerizzazione specifica per il dominio per funzionare efficacemente in ambienti di nicchia. Per ottenere questi risultati è stato necessario uno stack di inferenza coeso piuttosto che aggiornamenti isolati. L’architettura ha utilizzato NVIDIA Dynamo e Triton Inference Server per il servizio, insieme a un’implementazione TensorRT del classificatore di minacce di Microsoft. Il processo di ottimizzazione ha comportato la fusione di operazioni chiave – come la normalizzazione, l’incorporazione e le funzioni di attivazione – in singoli kernel CUDA personalizzati. Questa fusione riduce al minimo il traffico di memoria e l’overhead di lancio, che sono spesso i killer silenziosi delle prestazioni nelle applicazioni di sicurezza o di trading ad alta frequenza. TensorRT ha fuso automaticamente le operazioni di normalizzazione nei kernel precedenti, mentre gli sviluppatori hanno creato kernel personalizzati per l’attenzione a finestra scorrevole. Il risultato di queste ottimizzazioni specifiche dell’inferenza è stata una riduzione della latenza del forward-pass da 9,45 ms a 3,39 ms, un aumento di velocità di 2,8 volte che ha contribuito alla maggior parte della riduzione della latenza osservata nelle metriche finali. Rachel Allen, Cybersecurity Manager di NVIDIA, ha spiegato: “Mettere in sicurezza le imprese significa far fronte al volume e alla velocità dei dati di cybersecurity e adattarsi alla velocità di innovazione degli avversari”. “I modelli difensivi hanno bisogno di una latenza bassissima per essere eseguiti ad alta velocità e della capacità di adattarsi alle minacce più recenti. La combinazione dell’apprendimento avversario con i modelli di rilevamento basati su trasformatori accelerati di NVIDIA TensorRT fa proprio questo” Il successo in questo caso indica un requisito più ampio per le infrastrutture aziendali. Poiché gli attori delle minacce sfruttano l’intelligenza artificiale per mutare gli attacchi in tempo reale, i meccanismi di sicurezza devono avere la capacità di calcolo necessaria per eseguire modelli di inferenza complessi senza introdurre latenza. Affidarsi al calcolo della CPU per il rilevamento avanzato delle