Modelli AI locali: Come mantenere il controllo del bidstream senza perdere i tuoi dati

Autore: Olga Zharuk, CPO, Teqblaze Quando si tratta di applicare l’intelligenza artificiale nel programmatic, sono due le cose che contano di più: le prestazioni e la sicurezza dei dati. Ho visto troppi audit interni sulla sicurezza segnalare i servizi di AI di terze parti come punti di esposizione. Concedere ad agenti di AI di terze parti l’accesso a dati bidstream proprietari introduce un’esposizione non necessaria che molte organizzazioni non sono più disposte ad accettare. Ecco perché molti team passano ad agenti di intelligenza artificiale integrati: modelli locali che operano interamente nel tuo ambiente. Nessun dato esce dal tuo perimetro. Non ci sono punti oscuri nella traccia di controllo. Conservi il pieno controllo su come si comportano i modelli e, soprattutto, su ciò che vedono. Rischi associati all’uso dell’intelligenza artificiale esterna Ogni volta che i dati relativi alle prestazioni o agli utenti escono dalla tua infrastruttura per essere utilizzati per l’inferenza, introduci un rischio. Non teorico, ma operativo. Nei recenti controlli di sicurezza, abbiamo visto casi in cui fornitori esterni di IA registrano segnali a livello di richiesta con il pretesto dell’ottimizzazione. Ciò include strategie di offerta proprietarie, segnali di targeting contestuale e, in alcuni casi, metadati con tracce identificabili. Non si tratta solo di un problema di privacy, ma di una perdita di controllo. Le richieste di offerte pubbliche sono una cosa. Tuttavia, tutti i dati sulle prestazioni, le variabili di ottimizzazione e i risultati interni che condividi sono dati proprietari. Condividerli con modelli di terze parti, soprattutto se ospitati in ambienti cloud extra-UE, crea delle lacune sia in termini di visibilità che di conformità. In base a normative come il GDPR e il CPRA/CCPA, anche i dati “pseudonimi” possono comportare un’esposizione legale se trasferiti in modo improprio o utilizzati al di là dello scopo dichiarato. Ad esempio, un modello ospitato su un endpoint esterno riceve una chiamata per valutare un’opportunità di offerta. Insieme alla chiamata, i payload possono includere prezzi minimi, risultati di vittoria/perdita o variabili di tuning. I valori, spesso incorporati nelle intestazioni o nei payload JSON, possono essere registrati per il debug o il miglioramento del modello e conservati oltre la singola sessione, a seconda della politica del fornitore. I modelli AI black-box aggravano il problema. Quando i fornitori non rivelano la logica di inferenza o il comportamento del modello, ti ritrovi senza la possibilità di verificare, eseguire il debug o addirittura spiegare come vengono prese le decisioni. Si tratta di una responsabilità, sia dal punto di vista tecnico che legale. IA locale: un cambiamento strategico per il controllo programmatico Il passaggio all’IA locale non è solo una mossa difensiva per affrontare le normative sulla privacy: è un’opportunità per riprogettare il modo in cui i flussi di lavoro dei dati e la logica decisionale sono controllati nelle piattaforme programmatiche. L ‘inferenza incorporata mantiene il pieno controllo della logica di input e di output, cosa che i modelli di IA centralizzati non hanno. Controllo sui dati Possedere lo stack significa avere il pieno controllo sul workflow dei dati: dalla decisione di quali campi bidstream sono esposti ai modelli, all’impostazione del TTL per i dataset di formazione, alla definizione di regole di conservazione o cancellazione. Ciò consente ai team di eseguire i modelli di intelligenza artificiale senza vincoli esterni e di sperimentare configurazioni avanzate personalizzate in base alle specifiche esigenze aziendali. Ad esempio, una DSP può limitare i dati sensibili di geolocalizzazione, pur continuando a utilizzare gli insight generalizzati per l’ottimizzazione delle campagne. È più difficile garantire un controllo selettivo quando i dati escono dai confini della piattaforma. Comportamento del modello verificabile I modelli AI esterni spesso offrono una visibilità limitata sul modo in cui vengono prese le decisioni di offerta. L’utilizzo di un modello locale consente alle organizzazioni di verificarne il comportamento, di testarne l’accuratezza rispetto ai propri KPI e di mettere a punto i suoi parametri per raggiungere specifici obiettivi di rendimento, di pacing o di performance. Il livello di verificabilità rafforza la fiducia nella catena di fornitura. Gli editori possono verificare e dimostrare che l’arricchimento dell’inventario segue standard coerenti e verificabili. Questo dà agli acquirenti una maggiore fiducia nella qualità dell’inventario, riduce la spesa per il traffico non valido e minimizza l’esposizione alle frodi. Allineamento con i requisiti di privacy dei dati L’inferenza locale fa sì che tutti i dati si trovino nella tua infrastruttura, sotto il tuo controllo. Questo controllo è essenziale per rispettare le leggi locali e i requisiti di privacy nelle varie regioni. Segnali come gli indirizzi IP o gli ID dei dispositivi possono essere elaborati in loco, senza mai lasciare il tuo ambiente, riducendo l’esposizione e preservando la qualità del segnale con basi legali e tutele adeguate. Applicazioni pratiche dell’intelligenza artificiale locale nel programmatic Oltre a proteggere i dati bidstream, l’intelligenza artificiale locale migliora l’efficienza decisionale e la qualità della catena programmatica senza aumentare l’esposizione dei dati. Arricchimento del bidstream L’intelligenza artificiale locale può classificare la tassonomia delle pagine o delle app, analizzare i segnali dei referrer e arricchire le richieste di offerta con metadati contestuali in tempo reale. Ad esempio, i modelli possono calcolare la frequenza delle visite o i punteggi di recency e trasmetterli come parametri di richiesta aggiuntivi per l’ottimizzazione della DSP. Questo accelera la latenza delle decisioni e migliora l’accuratezza contestuale, senza esporre i dati grezzi degli utenti a terzi. Ottimizzazione dei prezzi Poiché l’ad tech è dinamico, i modelli di pricing devono adattarsi continuamente alle variazioni a breve termine della domanda e dell’offerta. Gli approcci basati su regole spesso reagiscono più lentamente ai cambiamenti rispetto ai modelli di repricing basati su ML. L’intelligenza artificiale locale può rilevare i modelli di traffico emergenti e regolare di conseguenza l’offerta minima o le raccomandazioni di prezzo dinamico. Rilevamento delle frodi L’intelligenza artificiale locale rileva le anomalie prima dell’asta, come pool di IP randomizzati, modelli di agenti utente sospetti o improvvise deviazioni nel tasso di vincita, e le segnala per attenuarle. Non sostituisce gli scanner antifrode dedicati, ma li integra con il rilevamento e il monitoraggio locale delle anomalie, senza
Microsoft, NVIDIA e Anthropic stringono un’alleanza per l’elaborazione dell’AI

Microsoft, Anthropic e NVIDIA stanno definendo un nuovo standard per gli investimenti nell’infrastruttura cloud e per la disponibilità di modelli di AI con una nuova alleanza di calcolo. Questo accordo segna una divergenza dalla dipendenza da un singolo modello verso un ecosistema diversificato e ottimizzato per l’hardware, modificando il panorama della governance per i leader tecnologici. Satya Nadella, CEO di Microsoft, ha dichiarato che si tratta di un’integrazione reciproca in cui le aziende “saranno sempre più clienti l’una dell’altra”. Mentre Anthropic sfrutta l’infrastruttura di Azure, Microsoft incorporerà i modelli di Anthropic nel suo stack di prodotti. Anthropic si è impegnata ad acquistare 30 miliardi di dollari di capacità di calcolo Azure. Questa cifra mostra gli immensi requisiti di calcolo necessari per addestrare e distribuire la prossima generazione di modelli di frontiera. La collaborazione prevede una specifica traiettoria hardware, che inizia con i sistemi Grace Blackwell di NVIDIA e prosegue con l’architettura Vera Rubin. Jensen Huang, CEO di NVIDIA, si aspetta che l’architettura Grace Blackwell con NVLink offra un “aumento di velocità di un ordine di grandezza”, un salto necessario per ridurre l’economia dei token. Per coloro che supervisionano la strategia dell’infrastruttura, la descrizione di Huang di un approccio ingegneristico “shift-left” – in cui la tecnologia NVIDIA appare su Azure immediatamente dopo il rilascio – suggerisce che le aziende che eseguono Claude su Azure avranno accesso a caratteristiche prestazionali diverse dalle istanze standard. Questa profonda integrazione può influenzare le decisioni architettoniche relative alle applicazioni sensibili alla latenza o all’elaborazione batch ad alto rendimento. La pianificazione finanziaria deve ora tenere conto di quelle che Huang identifica come tre leggi di scalabilità simultanee: pre-training, post-training e scalabilità del tempo di inferenza. Tradizionalmente, i costi di calcolo dell’intelligenza artificiale erano fortemente orientati alla formazione. Tuttavia, Huang osserva che con il test-time scaling – in cui il modello “pensa” più a lungo per produrre risposte di qualità superiore – i costi di inferenza stanno aumentando. Di conseguenza, la spesa operativa dell’IA (OpEx) non sarà una tariffa fissa per token, ma sarà correlata alla complessità del ragionamento richiesto. La previsione del budget per i flussi di lavoro agenziali deve quindi diventare più dinamica. L’integrazione nei flussi di lavoro aziendali esistenti rimane un ostacolo primario per l’adozione. Per risolvere questo problema, Microsoft si è impegnata a garantire a Claude un accesso continuo a tutta la famiglia Copilot. L’enfasi operativa è posta sulle capacità agenziali. Huang ha evidenziato il Model Context Protocol (MCP) di Anthropic come uno sviluppo che ha “rivoluzionato il panorama dell’intelligenza artificiale agonica”. I leader dell’ingegneria del software dovrebbero notare che gli ingegneri di NVIDIA stanno già utilizzando Claude Code per rifattorizzare i codebase legacy. Dal punto di vista della sicurezza, questa integrazione semplifica il perimetro. I responsabili della sicurezza che controllano gli endpoint delle API di terze parti possono ora fornire le funzionalità di Claude all’interno del perimetro di conformità di Microsoft 365. Questo semplifica la governance dei dati, in quanto i log delle interazioni e la gestione dei dati rimangono all’interno degli accordi di locazione Microsoft. Il vendor lock-in continua a essere un punto di attrito per i CDO e i risk officer. Questa partnership per l’AI compute allevia questa preoccupazione rendendo Claude l’unico modello di frontiera disponibile su tutti e tre i principali servizi cloud globali. Nadella ha sottolineato che questo approccio multi-modello si basa, e non sostituisce, la partnership esistente di Microsoft con OpenAI, che rimane una componente fondamentale della sua strategia. Per Anthropic, l’alleanza risolve la sfida del “go-to-market aziendale”. Huang ha osservato che la creazione di un movimento di vendita aziendale richiede decenni. Appoggiandosi ai canali consolidati di Microsoft, Anthropic aggira questa curva di adozione. Questo accordo trilaterale modifica il panorama degli acquisti. Nadella esorta il settore a superare la “narrazione a somma zero”, suggerendo un futuro di capacità ampie e durature. Le organizzazioni dovrebbero rivedere i loro attuali portafogli di modelli. La disponibilità di Claude Sonnet 4.5 e Opus 4.1 su Azure giustifica un’analisi comparativa del TCO rispetto alle implementazioni esistenti. Inoltre, l’impegno di “gigawatt di capacità” indica che i vincoli di capacità per questi modelli specifici potrebbero essere meno stringenti rispetto ai cicli hardware precedenti. A seguito di questa partnership per il calcolo dell’intelligenza artificiale, l’attenzione delle aziende deve ora spostarsi dall’accesso all’ottimizzazione; abbinare la giusta versione del modello allo specifico processo aziendale per massimizzare il rendimento di questa infrastruttura ampliata. Leggi di più su www.artificialintelligence-news.com
Cosa possono insegnare alle aziende gli esperimenti europei di formazione sull’AI

Siamo tutti a caccia di talenti. È diventato cruciale per il successo quanto la realizzazione di prodotti straordinari e molte aziende ne stanno risentendo. Il problema è che la domanda di persone con competenze nel campo dell’IA è alle stelle, ma l’offerta non tiene il passo. L’OCSE lo sottolinea: molti di noi hanno bisogno di competenze nell’IA, ma sono pochi gli annunci di lavoro che le richiedono. Ma c’è una tendenza promettente che sta emergendo e che si sta verificando in Europa. Nel continente e nel Regno Unito sono in corso alcuni esperimenti nel campo dell’educazione all’intelligenza artificiale, che utilizzano l’intelligenza artificiale per cambiare il modo in cui le persone imparano. Si tratta di scorci sulla forza lavoro del futuro, che ci mostrano come la prossima generazione affronterà la risoluzione dei problemi e la collaborazione in un mondo che utilizza sempre più l’IA. Vediamo alcuni esempi e analizziamo come possono aiutare le aziende a ripensare il loro approccio al talento. Formare gli insegnanti a lavorare con l’IA: la storia di Manchester L’Università di Manchester sta integrando l’IA generativa nella preparazione dei futuri insegnanti, utilizzando gli strumenti in modo critico, creativo e ponderato, combinando i suggerimenti dell’IA con le conoscenze e l’esperienza degli studenti. Questo suggerisce un futuro in cui i dipendenti non sono consumatori di formazione, ma si sentono a proprio agio nel co-creare con l’IA. Le generazioni future si aspetteranno l’assistenza dell’IA nelle loro attività quotidiane e il vero vantaggio competitivo non sarà l’utilizzo dell’IA da parte delle persone, ma il modo in cui la utilizzeranno in modo responsabile ed etico. L ‘UNESCO ha colto nel segno, sottolineando la necessità di potenziare le capacità umane, non di sostituirle. Costruire le competenze dell’IA dalle fondamenta: AI-ENTR4YOUTH AI-ENTR4YOUTH è un programma che riunisce Junior Achievement Europe e partner in dieci paesi europei. Qui l’IA è integrata nell’educazione all’imprenditorialità, dove gli studenti utilizzano gli strumenti dell’IA per affrontare i problemi del mondo reale, con particolare attenzione all’innovazione e ai valori europei. In questo modo si sviluppa precocemente un’alfabetizzazione pratica all’intelligenza artificiale, collegandola alla mentalità imprenditoriale, alla capacità di individuare le opportunità e di testare nuove idee. È importante notare che questo progetto sta ampliando il bacino di talenti dell’IA, raggiungendo studenti che potrebbero scegliere lauree in economia e non in materie tecniche. Il gap di competenze può essere risolto. Le aziende che lamentano la mancanza di talenti nel campo dell’IA dovrebbero chiedersi: come possiamo sostenere attivamente o emulare programmi come AI-ENTR4YOUTH per creare la forza lavoro di cui abbiamo bisogno? Apprendimento personalizzato e impatto: La prospettiva di Social Tides Social Tides sostiene gli innovatori dell’istruzione in Europa. Il suo lavoro mette in evidenza i progetti che utilizzano l’intelligenza artificiale per creare esperienze di apprendimento più personalizzate, in particolare per gli studenti che hanno bisogno di ulteriore supporto o che hanno stili di apprendimento diversi. L’intelligenza artificiale aiuta a personalizzare i contenuti, a fungere da tutor e a creare comunità intorno agli studenti. Il filo conduttore è la supervisione umana. L’intelligenza artificiale fornisce raccomandazioni e approfondimenti, ma gli esseri umani sono ancora molto presenti, esprimendo giudizi e offrendo supporto. Questo è in linea con le migliori pratiche aziendali dell’IA, in quanto i leader cercano di rendere l’apprendimento parte integrante della giornata lavorativa. Domande chiave per i leader Cosa significa questo per i responsabili delle decisioni? Ecco alcune domande da considerare: Architettura di apprendimento: Stiamo adottando internamente percorsi di apprendimento personalizzati e assistiti dall’AI? Talenti e pipeline: Stiamo formando il futuro pool di talenti attraverso partnership con scuole e università locali? Governance ed etica: Abbiamo linee guida chiare per l’utilizzo dell’IA nella formazione, garantendo equità e trasparenza? Scelta dei fornitori: Stiamo selezionando strumenti di IA che siano in linea con i nostri valori e con le normative vigenti? Sebbene questi programmi educativi possano essere definiti esperimenti, sono un segnale di come il futuro del lavoro potrebbe essere plasmato. Le aziende che prestano attenzione ora saranno quelle che si assicureranno talenti migliori e costruiranno organizzazioni più adattabili e orientate all’apprendimento. (Fonte immagine: “Laboratory” by ♔ Georgie R is licensed under CC BY-ND 2.0. T) Leggi di più su www.artificialintelligence-news.com
ChatLe chat di gruppo di GPT possono aiutare i team a introdurre l’intelligenza artificiale nella pianificazione quotidiana

OpenAI ha introdotto le chat di gruppo all’interno di ChatGPT, offrendo alle persone un modo per coinvolgere fino a 20 persone in una conversazione condivisa con il chatbot. La funzione è ora disponibile per tutti gli utenti che hanno effettuato l’accesso dopo un breve periodo di sperimentazione all’inizio del mese e trasforma ChatGPT da uno strumento prevalentemente individuale a uno strumento che supporta la collaborazione in piccoli gruppi. OpenAI descrive l’aggiornamento come un modo semplice per pianificare le attività quotidiane con gli amici, i membri della famiglia o i colleghi, come organizzare una cena, preparare un viaggio o redigere una bozza insieme. Ma la funzione potrebbe avere un valore più ampio per i team di lavoro che già utilizzano ChatGPT per il brainstorming, la ricerca e le prime discussioni sui progetti. Come funziona la funzione Una chat di gruppo inizia quando selezioni l’icona “persone” nell’angolo in alto a destra dell’app ChatGPT. L’applicazione crea un nuovo spazio condiviso copiando la conversazione in corso e puoi invitare altri utenti inviando un link. Questo link può essere condiviso di nuovo, consentendo agli utenti di coinvolgere altri partecipanti nella discussione. La prima volta che un utente si unisce o crea una chat di gruppo, ChatGPT gli chiede di impostare un nome, un nome utente e una foto del profilo in modo che il gruppo possa identificare chi sta parlando. OpenAI afferma che ChatGPT è stato addestrato a “seguire il flusso della conversazione”, decidendo quando rispondere e quando rimanere in silenzio. Se qualcuno vuole che ChatGPT aggiunga qualcosa direttamente, può menzionare “ChatGPT” nel suo messaggio. Il modello può anche reagire con emoji e utilizzare le foto del profilo per creare immagini personalizzate. Un pannello di impostazioni nell’angolo in alto a destra dello schermo consente agli utenti di aggiungere o rimuovere persone, disattivare le notifiche o fornire istruzioni personalizzate a ChatGPT. OpenAI afferma che il modello non utilizzerà i ricordi delle chat personali all’interno delle conversazioni di gruppo e non creerà nuovi ricordi in base alle attività del gruppo. Le chat di gruppo funzionano con GPT-5.1 Auto, che sceglie il modello di risposta in base alla richiesta e alle opzioni disponibili per l’utente. I limiti di velocità si applicano solo quando ChatGPT invia un messaggio. Questo lancio segue il recente rilascio dei modelli GPT-5.1 Instant e Thinking e il precedente lancio di Sora, un’applicazione sociale per la creazione di brevi video. Come le chat di gruppo possono supportare la collaborazione reale Mentre il lancio per i consumatori si concentra sulla pianificazione casuale, molte delle sfide che le aziende devono affrontare derivano dal modo in cui le persone condividono le idee, rivedono le bozze e si coordinano in ruoli diversi. Le chat di gruppo possono aiutare a ridurre alcuni di questi attriti, offrendo ai team un unico spazio per parlare con ChatGPT. Allineare i team interfunzionali Le grandi organizzazioni lavorano per mantenere allineati i team di prodotto, design, ingegneria e marketing, soprattutto all’inizio di un progetto. Le prime idee possono disperdersi nelle e-mail e nelle app di chat. In una chat di gruppo, tutti possono contribuire in un unico luogo. Se qualcuno si unisce in ritardo o si perde una parte della discussione, ChatGPT può riassumere la discussione, identificare le domande aperte o aiutare a trasformare gli appunti del gruppo in un piano strutturato. Questo aiuta i team a passare dal dibattito iniziale all’azione senza perdere il contesto. Cicli di revisione più fluidi Le bozze di solito passano attraverso lunghi cicli di revisione che coinvolgono persone diverse che utilizzano canali diversi. I commenti arrivano in momenti diversi e diventa difficile capire quale sia la versione corrente. In una chat di gruppo, il team può reagire insieme alla stessa bozza. ChatGPT può riscrivere passaggi, confrontare versioni alternative o aiutare a chiarire il feedback, il che può accelerare il lavoro dei team che hanno scadenze strette o aggiornamenti frequenti. Un onboarding più rapido per i nuovi compagni di squadra I nuovi membri del team che si uniscono a progetti che hanno alle spalle mesi di storia devono perdere tempo a rintracciare vecchi messaggi e file per capire come sono state prese le decisioni. Un manager può aggiungere un nuovo compagno di squadra a una chat di gruppo esistente e chiedere a ChatGPT di riassumere le discussioni passate, evidenziare le scelte chiave e mostrare quali attività rimangono aperte, riducendo il tempo necessario per l’onboarding. Coordinare le attività condivise Il coordinamento di routine, come la preparazione di un workshop interno, la stesura di un’e-mail per i clienti o la pianificazione di un evento, viene spesso rallentato da messaggi che durano giorni. In una chat di gruppo, chiunque può chiedere a ChatGPT di creare un programma, riscrivere un messaggio, creare una lista di controllo o confrontare le opzioni. Il gruppo può quindi modificare i dettagli insieme senza dover ricominciare da capo ogni volta. Organizzare il feedback creativo Il lavoro creativo può bloccarsi quando il feedback arriva in forme disordinate o contrastanti. I designer, gli scrittori e gli analisti spesso ricevono commenti sparsi in canali diversi. Le chat di gruppo permettono di tenere tutti i feedback in un unico posto. ChatGPT può raggruppare i commenti per temi, evidenziare le contraddizioni o proporre bozze che riflettano i desideri del team. Questo può aiutare a ridurre le rielaborazioni e a indirizzare il gruppo verso una direzione condivisa. Un cambiamento più ampio nel modo in cui i team utilizzano ChatGPT L’introduzione delle chat di gruppo arriva in un periodo in cui molte aziende stanno sperimentando modi per introdurre l’intelligenza artificiale nei loro flussi di lavoro. ChatGPT aiuta già molti utenti a redigere, riassumere e rivedere il lavoro. Dare ai team uno spazio condiviso può cambiare il modo in cui le prime conversazioni di progetto prendono forma, soprattutto per le organizzazioni che sperimentano la pianificazione e le revisioni supportate dall’intelligenza artificiale. Questa funzione non sostituisce il coordinamento umano, ma introduce una superficie condivisa dove le persone possono parlare tra loro e portare ChatGPT nella discussione quando necessario. Per i team che hanno a che fare con
9 segni che il tuo sito web non è pronto per i risultati di ricerca AI (e come risolverlo oggi)

Come sappiamo, l’ambiente di ricerca sta cambiando rapidamente e affidarsi esclusivamente alla visibilità tradizionale non è più sufficiente! Con la diffusione di tecnologie basate sull’intelligenza artificiale come ChatGPT, è fondamentale che il tuo sito web venga riconosciuto e citato da questi strumenti innovativi. Rimanere indietro potrebbe significare ridurre il traffico, la visibilità e la fiducia. Non preoccuparti! Ecco nove indicatori che indicano che il tuo sito web potrebbe aver bisogno di un rinnovamento per questa entusiasmante era della ricerca AI. Prova queste soluzioni efficaci per elevare i tuoi servizi di AI e automazione a nuovi livelli. 1. Il tuo sito web ha bisogno di un nuovo approccio La SEO tradizionale si concentrava sulle parole chiave e sui backlink, ma la ricerca AI enfatizza la comprensione dei contenuti. Se la tua scrittura è poco chiara o eccessivamente complessa, sarà più difficile per l’intelligenza artificiale fornire una risposta chiara. Puoi rimediare facendo queste cose: Inizia le pagine con una breve risposta alle domande degli utenti. Usa titoli chiari e basati sulle domande. Organizza i contenuti con paragrafi concisi, elenchi e punti elenco. Concentrati sui fatti e sulle spiegazioni essenziali, evitando le sciocchezze e la ripetizione delle parole chiave. Per ottimizzare l’intelligenza artificiale in modo efficace, un sito web deve mostrare la propria competenza nella ricerca dell’intelligenza artificiale attraverso contenuti strutturati e adatti alle macchine. RiseUp si concentra sulla creazione di contenuti che comunichino senza problemi sia con gli utenti che con i sistemi di intelligenza artificiale, utilizzando una struttura avanzata, metadati e ottimizzazione contestuale per garantire che le competenze siano riconosciute, comprese e classificate dalle tecnologie di ricerca intelligenti. 2. Trascurare l’uso dei dati strutturati / Schema Markup I dati strutturati, spesso attraverso il markup di schema.org, aiutano i motori di ricerca e l’intelligenza artificiale a comprendere le pagine del tuo sito, ad esempio identificando i contenuti “HowTo”, “FAQ” o “Product”. Senza di essi, le macchine potrebbero avere difficoltà a classificare e a fare riferimento ai tuoi contenuti. Puoi risolvere il problema facendo queste operazioni: Identifica le pagine chiave e implementa lo schema JSON-LD pertinente. Utilizza il Rich Results Test di Google e dai priorità ai contenuti importanti, come “Che cosa sono i servizi AIO?” 3. Il tuo sito web presenta problemi di lentezza e scarsa reattività Se i bot dell’AI non riescono ad accedere facilmente ai tuoi contenuti, anche il materiale eccellente può essere ignorato o penalizzato. La ricerca AI si basa su fattori tecnici SEO fondamentali: velocità, compatibilità con i dispositivi mobili, sitemap pulite, robots.txt e accesso al crawl. Puoi risolvere il problema facendo queste operazioni: Effettua una verifica della velocità delle pagine, risolvi i problemi più importanti e assicurati la funzionalità mobile. Aggiorna e invia la tua sitemap, controlla il robots.txt, utilizza URL canonici e monitora gli errori di crawl. Quando vendono “ottimizzazione AI” o “servizi AIO”, i clienti si aspettano una solida base tecnica. Senza di essa, i contenuti compatibili con l’AI non saranno accessibili o utilizzati. Dimostrare questo garantisce una consegna sicura. 4. Il contenuto manca di struttura o formato colloquiale La ricerca AI privilegia le query in linguaggio naturale rispetto alle semplici parole chiave. I contenuti con titoli basati su domande e un tono colloquiale tendono ad avere risultati migliori. Puoi risolvere il problema facendo quanto segue: Aggiungi una sezione “FAQ” alle pagine principali con 3-5 domande comuni. Utilizza titoli di domande e un tono colloquiale. Considera i punti elenco per la chiarezza. I clienti cercano un testo che risuoni sia con gli esseri umani che con le macchine. Mostrando la tua abilità nel formattare le domande in modo discorsivo, aumenterà la loro fiducia nelle tue capacità. 5. Il tuo sito web mostra segnali deboli o insufficienti I sistemi di ricerca AI ora danno priorità ai contenuti provenienti da fonti credibili con chiare credenziali dell’autore e riferimenti esterni rispetto ai backlink tradizionali. Puoi risolvere il problema facendo quanto segue: Aggiungi i titoli degli autori con brevi biografie e link ai loro profili. Includi citazioni di fonti esterne credibili per le affermazioni o i dati. Considera una pagina “Brand” o “About” con dati strutturati sulla tua organizzazione e riconoscimenti rilevanti. Aggiorna o rimuovi i contenuti obsoleti e di bassa qualità per mantenere la coerenza e l’accuratezza. 6. Stai utilizzando una rete di contenuti o link interni deboli La ricerca AI favorisce i contenuti ben collegati, quindi il tuo sito dovrebbe avere chiari raggruppamenti di argomenti, link interni tra pagine correlate e approfondimenti. Le pagine isolate e prive di link a contenuti rilevanti possono essere trascurate. Puoi rimediare facendo queste operazioni: Identifica gli argomenti chiave (ad esempio, “Servizi AIO”, “Audit SEO AI”, “Implementazione dei dati strutturati”) e crea una pagina pilastro per ciascuno di essi, insieme a pagine cluster di supporto. Assicurati un linking interno pertinente con un testo di ancoraggio descrittivo. Aggiorna i post più vecchi per collegarli a quelli più recenti, favorendo una rete di contenuti collegati. 7. Le tue analisi indicano un calo del traffico organico Le funzioni di intelligenza artificiale come le “panoramiche AI” rispondono alle domande degli utenti senza che essi debbano fare clic sul tuo sito, portando a “ricerche senza clic” Se il traffico è in calo, è possibile che i tuoi contenuti non ricevano le citazioni AI necessarie. Puoi risolvere il problema eseguendo le seguenti operazioni: Usa Google Search Console per trovare le pagine ad alta impressionabilità e a basso numero di clic. Ottimizza le query in stile risposta aggiungendo dati strutturati e migliorando i contenuti. Monitora le menzioni del marchio con gli strumenti di AI per rafforzare la tua presenza. 8. Riconoscimento debole del marchio e dell’entità La ricerca AI utilizza i grafici di conoscenza e le entità (come marchi e persone) per determinare quali fonti citare. Se il tuo marchio non è chiaramente definito come entità con dati coerenti, è meno probabile che venga citato. Puoi rimediare facendo queste cose: Mantenere il nome della tua azienda coerente, utilizzare un markup schema corretto, ottimizzare la pagina “Informazioni” e creare citazioni esterne per ottenere visibilità. In qualità di fornitore di
I silos di dati frenano l’IA aziendale

Secondo IBM, la barriera principale che frena l’IA aziendale non è la tecnologia in sé, ma il problema persistente dei silos di dati. Ed Lovely, VP e Chief Data Officer di IBM, descrive i silos di dati come il “tallone d’Achille” della moderna strategia dei dati. Lovely ha fatto questi commenti in seguito alla pubblicazione di un nuovo studio dell’IBM Institute for Business Value secondo il quale l’intelligenza artificiale è pronta a scalare, ma i dati aziendali non lo sono. Il rapporto, che ha intervistato 1.700 senior data leader, ha rilevato che i dati funzionali rimangono ostinatamente isolati. I dati relativi a finanza, risorse umane, marketing e supply chain operano tutti in modo isolato, senza una tassonomia comune o standard condivisi. Questa frammentazione ha un impatto diretto e negativo sui progetti di intelligenza artificiale. “Quando i dati vivono in silos scollegati, ogni iniziativa di IA diventa un progetto di pulizia dei dati lungo sei-dodici mesi”, afferma Ed Lovely, VP e Chief Data Officer di IBM. “I team passano più tempo a cercare e allineare i dati che a generare approfondimenti significativi”. Questa è una minaccia diretta al vantaggio competitivo. Per i CIO e i CDO, la missione non è più solo quella di raccogliere e proteggere i dati, ma di distribuirli in modo efficace per alimentare questi nuovi sistemi di intelligenza artificiale. Da custode dei dati a motore del valore Lo studio ha evidenziato che i leader dei dati devono concentrarsi senza sosta sui risultati di business, e il 92% dei CDO concorda sul fatto che il loro successo dipende da questo obiettivo. Qui sta la tensione centrale: mentre il 92% punta al valore aziendale, solo il 29% è sicuro di avere “misure chiare per determinare il valore aziendale dei risultati ottenuti dai dati” Questo divario tra ambizioni e realtà è il punto in cui gli agenti di intelligenza artificiale in grado di apprendere e agire autonomamente per raggiungere gli obiettivi dovrebbero essere d’aiuto. I leader mostrano una crescente fiducia in questi strumenti: l’83% dei CDO che hanno partecipato alla ricerca di IBM ha dichiarato che i potenziali benefici dell’impiego di agenti di IA superano i rischi. Presso l’azienda globale di tecnologia medica Medtronic, i team erano impantanati a confrontare fatture, ordini di acquisto e prove di consegna. Con l’implementazione di una soluzione di intelligenza artificiale, l’azienda ha automatizzato questo flusso di lavoro. Il risultato è stato un calo del tempo di corrispondenza dei documenti da 20 minuti per fattura a soli otto secondi, con un tasso di accuratezza superiore al 99%. In questo modo il personale ha potuto essere riconvertito dall’inserimento di dati a basso valore a lavori di maggior valore. Allo stesso modo, l’azienda di energia rinnovabile Matrix Renewables ha implementato una piattaforma di dati centralizzata per monitorare i propri asset. Questo ha portato a una riduzione del 75% dei tempi di reporting e del 10% dei costosi tempi di inattività. IBM trova gli ostacoli dell’AI: Architettura, governance e carenza di talenti Per ottenere questi risultati è necessario un nuovo approccio all’architettura dei dati, evitando i silos. Il vecchio modello di trasferimento dei dati, costoso e lento, in un lago centrale sta per essere sostituito. Lo studio di IBM rileva che l’81% dei CDO ora si dedica a portare l’AI ai dati, piuttosto che a spostare i dati verso l’AI. Questo approccio si basa su modelli architettonici moderni come il data mesh e il data fabric, che forniscono un livello virtualizzato per accedere ai dati dove vivono. Inoltre, sostiene il concetto di “prodotti di dati” (asset di dati confezionati e riutilizzabili progettati per uno specifico scopo aziendale, come una vista “a 360 gradi” del cliente o un set di dati di previsione finanziaria) Tuttavia, rendere i dati più accessibili comporta delle sfide di governance. L’alleanza CDO-CISO è ora essenziale per bilanciare velocità e sicurezza. La sovranità dei dati è una preoccupazione particolare, visto che l’82% dei CDO la considera una parte fondamentale della propria strategia di gestione del rischio. L’ostacolo più grande, tuttavia, potrebbe essere rappresentato dalle persone. Il rapporto rivela un crescente divario di talenti che minaccia di bloccare i progressi. Nel 2025, il 77% dei CDO dichiara di avere difficoltà ad attrarre o trattenere i migliori talenti nel campo dei dati, con un netto aumento rispetto al 62% del 2024. Questa carenza è aggravata dal fatto che le competenze richieste sono un bersaglio mobile. IBM ha rilevato che l’82% dei CDO sta “assumendo per ruoli nei dati che non esistevano l’anno scorso in relazione all’IA generativa”. Questa sfida culturale e di competenze è spesso la parte più difficile. Hiroshi Okuyama, Chief Digital Officer di Yanmar Holdings, ha spiegato: “Cambiare la cultura è difficile, ma le persone stanno diventando più consapevoli che le loro decisioni devono essere basate su dati e fatti e che devono raccogliere prove quando prendono decisioni” Aprire i silos dei dati per lanciare l’IA aziendale Sul fronte tecnico, i leader delle aziende devono sostenere l’abbandono di un patrimonio di dati isolato. Ciò significa investire in architetture di dati moderne e federate e spingere i team a sviluppare e utilizzare “prodotti di dati” che possano essere condivisi e riutilizzati in modo sicuro in tutta l’organizzazione. In secondo luogo, sul fronte culturale, l’alfabetizzazione dei dati deve diventare una priorità per l’intera azienda, non solo per l’IT. L’80% dei CDO che afferma che la democratizzazione dei dati aiuta la propria organizzazione a muoversi più velocemente ha ragione. Ciò significa promuovere una cultura orientata ai dati e investire in strumenti intuitivi che rendano più semplice l’interazione con i dati per i dipendenti non tecnici. L’obiettivo è passare dall’esecuzione di esperimenti isolati di AI alla scalata dell’automazione intelligente nei processi aziendali principali. Le aziende che avranno successo saranno quelle che tratteranno i loro dati non come un sottoprodotto dell’applicazione, ma come la loro risorsa più preziosa. Ed Lovely, VP e Chief Data Officer di IBM, ha dichiarato: “L’intelligenza artificiale su scala aziendale è a portata di mano, ma il successo dipende dalle organizzazioni che la alimentano con
Le falle nella sicurezza emergono nella corsa all’intelligenza artificiale globale

Secondo Wiz, la corsa tra le aziende di IA sta portando molte di esse a trascurare le pratiche di igiene di sicurezza di base. il 65% delle 50 aziende leader nel settore dell’intelligenza artificiale analizzate dalla società di cybersicurezza ha divulgato segreti verificati su GitHub. Le esposizioni includono chiavi API, token e credenziali sensibili, spesso nascoste in repository di codice che gli strumenti di sicurezza standard non controllano. Glyn Morgan, Country Manager per il Regno Unito e l’Italia di Salt Security, ha descritto questa tendenza come un errore elementare e prevenibile. “Quando le aziende di intelligenza artificiale espongono accidentalmente le loro chiavi API, mettono a nudo un evidente errore di sicurezza evitabile”, ha dichiarato. “È un esempio da manuale di governance abbinata a una configurazione di sicurezza, due delle categorie di rischio segnalate da OWASP. Spingendo le credenziali nei repository di codice, gli aggressori hanno a disposizione un biglietto d’oro per accedere a sistemi, dati e modelli, eludendo di fatto i consueti livelli difensivi” Il rapporto di Wiz mette in evidenza la crescente complessità dei rischi per la sicurezza della supply chain. Il problema si estende oltre i team di sviluppo interni; poiché le aziende collaborano sempre più spesso con startup di IA, potrebbero ereditare la loro posizione di sicurezza. I ricercatori avvertono che alcune delle falle riscontrate “potrebbero aver esposto strutture organizzative, dati di formazione o persino modelli privati” La posta in gioco è considerevole. Le aziende analizzate con falle accertate hanno una valutazione complessiva di oltre 400 miliardi di dollari. Il rapporto, che si è concentrato sulle aziende elencate nella Forbes AI 50, fornisce alcuni esempi dei rischi: È stato scoperto che LangChain ha esposto diverse chiavi API di Langsmith, alcune delle quali con permessi per gestire l’organizzazione ed elencare i suoi membri. Questo tipo di informazioni è molto apprezzato dagli aggressori per la ricognizione. Una chiave API di livello enterprise per ElevenLabs è stata scoperta in un file in chiaro. Una società di AI 50 senza nome aveva un token HuggingFace esposto in un fork di codice cancellato. Questo singolo token “permetteva di accedere a circa 1.000 modelli privati”. La stessa azienda ha fatto trapelare anche le chiavi WeightsAndBiases, esponendo i “dati di formazione di molti modelli privati” Il rapporto di Wiz suggerisce che questo problema è così diffuso perché i tradizionali metodi di scansione della sicurezza non sono più sufficienti. Affidarsi alle scansioni di base dei principali repository GitHub di un’azienda è un “approccio banale” che non tiene conto dei rischi più gravi. I ricercatori descrivono la situazione come un “iceberg” (cioè i rischi più evidenti sono visibili, ma il pericolo maggiore si trova “sotto la superficie”) Per trovare questi rischi nascosti, i ricercatori hanno adottato una metodologia di scansione tridimensionale che chiamano “Profondità, Perimetro e Copertura”: Profondità: La loro scansione profonda ha analizzato “la cronologia completa dei commit, la cronologia dei commit sui fork, i fork cancellati, i log del flusso di lavoro e i gist” – aree che la maggior parte degli scanner “non tocca mai”. Perimetro: La scansione è stata estesa oltre l’organizzazione principale dell’azienda per includere i membri e i collaboratori dell’organizzazione. Queste persone potrebbero “controllare inavvertitamente i segreti legati all’azienda nei propri repository pubblici”. Il team ha identificato questi account adiacenti monitorando i contributori di codice, i follower dell’organizzazione e persino “le correlazioni in reti correlate come HuggingFace e npm” Copertura: I ricercatori hanno cercato in particolare nuovi tipi di segreti legati all’intelligenza artificiale che spesso sfuggono agli scanner tradizionali, come le chiavi per piattaforme come WeightsAndBiases, Groq e Perplexity. Questa superficie di attacco ampliata è particolarmente preoccupante se si considera l’apparente mancanza di maturità della sicurezza in molte aziende in rapida evoluzione. Il rapporto rileva che quando i ricercatori hanno cercato di divulgare le falle, quasi la metà delle divulgazioni non ha raggiunto l’obiettivo o non ha ricevuto risposta. Molte aziende non dispongono di un canale di divulgazione ufficiale o semplicemente non hanno risolto il problema quando sono state informate. I risultati di Wiz sono un monito per i dirigenti delle aziende tecnologiche e mettono in evidenza tre azioni immediate per gestire i rischi di sicurezza sia interni che di terze parti. I responsabili della sicurezza devono considerare i propri dipendenti come parte della superficie di attacco dell’azienda. Il rapporto raccomanda di creare una politica per i membri del sistema di controllo delle versioni (VCS) da applicare durante l’assunzione dei dipendenti. Questa politica dovrebbe imporre pratiche come l’utilizzo dell’autenticazione a più fattori per gli account personali e il mantenimento di una rigida separazione tra attività personali e professionali su piattaforme come GitHub. La scansione interna dei segreti deve evolvere oltre i controlli di base dei repository. Il rapporto esorta le aziende a imporre la scansione dei segreti dei VCS pubblici come “difesa non negoziabile”. Questa scansione deve adottare la già citata mentalità di “profondità, perimetro e copertura” per trovare le minacce che si nascondono sotto la superficie. Questo livello di controllo deve essere esteso all’intera catena di fornitura dell’IA. Quando valutano o integrano gli strumenti dei fornitori di IA, i CISO dovrebbero sondare le loro pratiche di gestione dei segreti e di divulgazione delle vulnerabilità. Il rapporto rileva che molti fornitori di servizi di IA fanno trapelare le proprie chiavi API e dovrebbero “dare priorità al rilevamento dei propri tipi di segreti” Il messaggio centrale per le aziende è che gli strumenti e le piattaforme che definiscono la prossima generazione di tecnologia vengono costruiti a un ritmo che spesso supera la governance della sicurezza. Come conclude Wiz, “per gli innovatori dell’IA, il messaggio è chiaro: la velocità non può compromettere la sicurezza”. Per le aziende che dipendono da questa innovazione, vale lo stesso avvertimento. Leggi di più su www.artificialintelligence-news.com
L’AI è in bolla? Avere successo nonostante la correzione del mercato

Tra le pressioni per l’implementazione di soluzioni generative e agenziali, sta emergendo una domanda familiare: “Esiste una bolla dell’IA e sta per scoppiare?” Per molte organizzazioni, questa nuova ondata di IA generativa e agenziale è ancora in fase sperimentale. L’obiettivo principale, e il frutto più facile da ottenere, è stato l’interno. La maggior parte delle aziende guarda all’IA per aumentare l’efficienza, ad esempio automatizzando i flussi di lavoro o semplificando l’assistenza ai clienti. Il problema è che questi guadagni si stanno rivelando sfuggenti. Ben Gilbert, VP di 15gifts, sottolinea che “questi benefici spesso richiedono anni per mostrare un ritorno reale e sono difficili da misurare oltre al risparmio di tempo” È qui che iniziano a manifestarsi le crepe. La corsa all’implementazione è scomodamente familiare e, per alcuni, può provocare una sensazione di PTSD. “La tendenza delle aziende a tuffarsi a capofitto in progetti o soluzioni di IA rispecchia i modelli che abbiamo visto più volte in precedenti bolle tecnologiche, come quella delle dot-com”, spiega Gilbert. Questo divario tra spese sperimentali e profitti misurabili è proprio il punto più debole della bolla. Gilbert sostiene che i progetti di IA che “si concentrano sui guadagni di efficienza e forniscono un ROI poco chiaro o ritardato” saranno i primi a fallire in caso di bolla. Quando gli investimenti “rischiano di diventare costosi esperimenti piuttosto che strumenti redditizi”, il ritiro è inevitabile. “Potremmo vedere i budget restringersi, le startup chiudere e le grandi aziende rivalutare le loro strategie di IA”, afferma Gilbert. Si tratta di un avvertimento supportato dai dati. Gartner ha già previsto che “oltre il 40% dei progetti di IA agenziale fallirà entro il 2027 a causa dell’aumento dei costi, delle sfide di governance e della mancanza di ROI”. Quindi, cosa separa una strategia di IA valida, in grado di sopravvivere allo scoppio di una bolla speculativa, da un esperimento costoso? Gilbert suggerisce che si tratta di sfumature umane; qualcosa che molti progetti trascurano nella fretta di automatizzare. C’è una curiosa discrepanza, osserva: “Perché l’IA è stata adottata in modo così completo per l’aumento dell’efficienza e l’assistenza ai clienti, ma non per le vendite?”. La risposta potrebbe essere che gli algoritmi sono molto utili per vagliare i dati e informare il processo decisionale, ma i consumatori vogliono anche il coinvolgimento, l’intuitività e la fluidità dell’interazione umana. Il successo, quindi, non consiste nel sostituire le persone, ma nell’aumentarle. Gilbert sostiene che “l’IA dovrebbe essere istruita da persone reali, in modo da poter comprendere le sfumature del linguaggio, delle esigenze e delle emozioni umane”. Ciò richiede un processo trasparente, in cui “l’annotazione umana delle conversazioni guidate dall’IA può aiutare a stabilire parametri chiari e a perfezionare le prestazioni di una piattaforma” Non è detto che una bolla di sapone dell’intelligenza artificiale sia imminente. Gilbert spiega che è più probabile assistere a una “correzione del mercato piuttosto che a un crollo completo” e che il potenziale di fondo dell’IA rimane forte. Tuttavia, l’entusiasmo si sgonfierà. Per i leader aziendali, il percorso da seguire richiede un ritorno ai principi fondamentali. “I progetti di IA, sia che si basino sull’hype che sul valore aziendale, per avere successo devono rispondere a una reale esigenza umana”, afferma Gilbert. Che si tratti di una bolla o di una sana correzione del mercato, questo periodo di raffreddamento potrebbe anche essere positivo, in quanto offre alle aziende la possibilità di concentrarsi sulla qualità dell’IA piuttosto che sul clamore e su un’etica più intelligente. Per i CIO e i CFO che gestiscono i budget, Gilbert ritiene che i marchi che prospereranno “saranno quelli che utilizzeranno l’IA per migliorare le capacità umane, non per automatizzarle” “Senza empatia, trasparenza e comprensione umana, anche l’IA più intelligente è destinata a fallire” Leggi di più su www.artificialintelligence-news.com
Svelata la strategia di efficienza del governo AI di Dubai

Quando Dubai ha lanciato il suo Rapporto sullo Stato dell’AI nell’aprile del 2025, rivelando oltre 100 casi d’uso dell’AI ad alto impatto, l’emirato non stava solo mettendo in mostra la sua abilità tecnologica, ma stava facendo una scommessa calcolata sul fatto che sarebbe stata la velocità, e non la spesa, a determinare quali città avrebbero vinto la gara globale per la governance alimentata dall’AI. In un’intervista esclusiva, Matar Al Hemeiri, Chief Executive del Digital Dubai Government Establishment, ha rivelato come l’approccio di Dubai all’efficienza del governo basato sull’IA differisca fondamentalmente sia dai suoi concorrenti regionali che dagli affermati hub tecnologici asiatici, e perché l’emirato ritiene che il suo modello di rapida implementazione abbinato a quadri etici vincolanti offra un modello che gli altri governi seguiranno. Il vantaggio di DubaiAI: 180 servizi, un assistente virtuale Mentre la vicina Abu Dhabi ha annunciato un investimento di 4,8 miliardi di dollari per diventare il primo governo al mondo completamente alimentato dall’intelligenza artificiale entro il 2027, Dubai ha intrapreso un percorso diverso. “L’investimento di Abu Dhabi si concentra sulla costruzione di un’infrastruttura governativa end-to-end alimentata dall’intelligenza artificiale”, ha spiegato Al Hemeiri. “Il modello di Dubai consiste nell’incorporare l’etica, l’interoperabilità e la spiegabilità dell’IA in un quadro di governance scalabile” I risultati sono già visibili. DubaiAI, l’assistente virtuale alimentato dall’AI di tutta la città, fornisce ora informazioni su oltre 180 servizi pubblici, una cifra che rappresenta una delle più complete implementazioni di chatbot AI governative a livello globale. Il sistema gestisce il 60% delle richieste governative di routine, riducendo i costi operativi del 35%. Ma Al Hemeiri ha respinto l’idea che l’automazione dell’IA comporti inevitabilmente la perdita di posti di lavoro. “L’automazione libera la nostra forza lavoro da compiti ripetitivi e informativi”, ha affermato. “I dipendenti vengono riqualificati e reimpiegati in ruoli di maggior valore come la supervisione dell’IA, la progettazione di servizi e il lavoro di politica strategica” Il momento non potrebbe essere più critico. Secondo Al Hemeiri, la crescita demografica di Dubai ha creato “un’immensa domanda di servizi governativi”, rendendo l’efficienza guidata dall’IA non solo un vantaggio competitivo ma anche una necessità operativa. La velocità come strategia: Dal progetto pilota all’implementazione in pochi mesi Ciò che distingue Dubai nell’efficienza dell’AI governativa non è solo ciò che costruisce, ma anche la rapidità di implementazione. “A Dubai, una volta annunciata un’iniziativa di IA, questa viene attivata rapidamente, passando dal progetto pilota all’implementazione nel giro di pochi mesi, molto più velocemente rispetto alla norma globale”, ha sottolineato Al Hemeiri. I numeri confermano questa affermazione. Nel 2025, oltre il 96% degli enti governativi ha adottato almeno una soluzione di IA e il 60% degli utenti intervistati preferisce i servizi supportati dall’IA. Dubai si confronta con città intelligenti leader come Singapore, Berlino, Helsinki e Tallinn, ma sostiene che la sua integrazione dell’etica dell’IA direttamente negli appalti e nell’implementazione fornisce un vantaggio decisivo. “Il nostro vantaggio competitivo sta nella velocità con cui Dubai rende operativa la sua etica”, ha detto Al Hemeiri, rispondendo a una critica comune secondo cui i quadri di governance dell’IA sono puramente teorici. “La politica sull’IA non è un quadro teorico; è un insieme vincolante di principi e requisiti tecnici applicati a ogni implementazione dell’IA in tutto il governo” Questo approccio si basa sull’Ethical AI Toolkit lanciato nel 2019, rendendo Dubai una delle poche città a livello globale in cui la conformità etica è incorporata dagli appalti alla valutazione delle prestazioni. Oltre i chatbot: sanità, energia e servizi predittivi Mentre DubaiAI cattura i titoli dei giornali, Al Hemeiri ha sottolineato le implementazioni meno pubblicizzate che hanno un impatto misurabile. I modelli di intelligenza artificiale stanno ora rilevando patologie croniche come il diabete in fase precoce, mentre gli algoritmi predittivi migliorano i sistemi di revisione all’interno dell’Autorità Sanitaria di Dubai. Nelle infrastrutture energetiche, le reti intelligenti alimentate da strumenti di previsione AI in tempo reale stanno ottimizzando i consumi e riducendo l’impatto ambientale. Il progetto più ambizioso attualmente in fase di sviluppo è la piattaforma di servizi pubblici predittivi di Dubai, che utilizzerà dati integrati e l’intelligenza artificiale per anticipare le esigenze dei cittadini, dai rinnovi automatici delle patenti alle notifiche di prevenzione sanitaria. “Abbiamo iniziato a lavorare alla realizzazione di questo progetto, il cui lancio è previsto per l’inizio del 2030”, ha rivelato Al Hemeiri. Alcuni elementi di questa visione sono già in fase di sperimentazione attraverso strumenti di pianificazione urbana abilitati dall’intelligenza artificiale e gemelli digitali a livello cittadino che simulano i risultati delle politiche prima della loro attuazione. Sovranità dei dati: Un modello ibrido tra Cina e GDPR L’approccio di Dubai alla governance dei dati offre una via di mezzo tra i rigidi requisiti di localizzazione della Cina e il quadro GDPR dell’UE. “Il modello di Dubai offre un modello ibrido: i dati dei cittadini anonimizzati rimangono nella giurisdizione di Dubai in base a solide leggi sulla sovranità, ma possono essere condivisi in modo sicuro tra le varie entità con il consenso dell’utente per i servizi governativi, attraverso la piattaforma ufficiale di identità digitale della nazione: UAE PASS”, ha spiegato Al Hemeiri. Un elemento di differenziazione fondamentale è l’adozione da parte di Dubai di framework di dati sintetici. “Ci permettono di sviluppare e testare sistemi di intelligenza artificiale su scala, preservando la privacy e mantenendo la conformità con i requisiti di sovranità dei dati di Dubai”, ha dichiarato. Questo approccio consente di accelerare i cicli di innovazione e di risolvere i problemi di privacy che hanno ostacolato lo sviluppo dell’IA in altre giurisdizioni. La sandbox per le startup: Integrazione reale, non solo sgravi normativi Dubai si posiziona come terreno di prova per le startup dell’IA, ma Al Hemeiri ha affermato che l’emirato offre più della flessibilità normativa. “Le sandbox AI di Dubai combinano la flessibilità normativa con l’accesso diretto ai set di dati governativi e agli ambienti di test del mondo reale”, ha affermato. Una startup di diagnostica sanitaria sperimentata all’interno della sandbox di Dubai ha già integrato il suo strumento di triage AI nei servizi dell’Autorità Sanitaria di Dubai. “Poiché il
Un nuovo modello di progettazione potrebbe risolvere i costi elevati dell’IA aziendale

I leader aziendali alle prese con i costi elevati dell’implementazione di modelli di IA potrebbero trovare una tregua grazie a una nuova architettura. Sebbene le capacità dell’IA generativa siano interessanti, i loro immensi requisiti computazionali per l’addestramento e l’inferenza comportano spese proibitive e crescenti preoccupazioni ambientali. Al centro di questa inefficienza c’è il “collo di bottiglia fondamentale” dei modelli, ovvero un processo autoregressivo che genera testo in modo sequenziale, token per token. Per le aziende che elaborano grandi flussi di dati, dalle reti IoT ai mercati finanziari, questa limitazione rende la generazione di analisi a lungo termine lenta ed economicamente impegnativa. Tuttavia, una nuova ricerca di Tencent AI e della Tsinghua University propone un’alternativa. Un nuovo approccio all’efficienza dell’IA La ricerca introduce i modelli linguistici autoregressivi continui (CALM). Questo metodo rielabora il processo di generazione per prevedere un vettore continuo anziché un token discreto. Un autoencoder ad alta fedeltà “comprime un gruppo di K token in un singolo vettore continuo”, che ha una larghezza di banda semantica molto più elevata. Invece di elaborare qualcosa come “il”, “gatto”, “seduto” in tre passaggi, il modello li comprime in uno solo. Questo design “riduce direttamente il numero di passaggi generativi”, riducendo il carico computazionale. I risultati sperimentali dimostrano un miglior compromesso tra prestazioni e calcolo. Un modello CALM AI che raggruppa quattro token ha fornito prestazioni “paragonabili alle linee di base discrete e forti, ma a un costo computazionale significativamente inferiore” per un’azienda. Un modello CALM, ad esempio, ha richiesto il 44% in meno di FLOP di addestramento e il 34% in meno di FLOP di inferenza rispetto a un Transformer di base con capacità simili. Ciò indica un risparmio sia sulla spesa iniziale di capitale per la formazione sia sulla spesa operativa ricorrente per l’inferenza. Ricostruire il kit di strumenti per il dominio continuo Il passaggio da un vocabolario finito e discreto a uno spazio vettoriale infinito e continuo rompe il toolkit standard di LLM. I ricercatori hanno dovuto sviluppare un “quadro completo privo di verosimiglianza” per rendere fattibile il nuovo modello. Per l’addestramento, il modello non può utilizzare un livello softmax standard o la stima della massima verosimiglianza. Per risolvere questo problema, il team ha utilizzato un obiettivo “senza verosimiglianza” con un Trasformatore di Energia, che premia il modello per le previsioni accurate senza calcolare probabilità esplicite. Questo nuovo metodo di formazione ha richiesto anche una nuova metrica di valutazione. I benchmark standard come la Perplexity sono inapplicabili perché si basano sulle stesse probabilità che il modello non calcola più. Il team ha proposto BrierLM, una nuova metrica basata sul punteggio di Brier che può essere stimato esclusivamente dai campioni del modello. La convalida ha confermato che BrierLM è un’alternativa affidabile, mostrando una “correlazione di rango di Spearman di -0,991” con le metriche di perdita tradizionali. Infine, il framework ripristina la generazione controllata, una caratteristica fondamentale per l’uso aziendale. Il campionamento standard della temperatura è impossibile senza una distribuzione di probabilità. Il documento introduce un nuovo “algoritmo di campionamento senza verosimiglianza”, che include un metodo pratico di approssimazione dei lotti, per gestire il compromesso tra l’accuratezza dell’output e la diversità. Ridurre i costi dell’IA aziendale Questa ricerca offre uno sguardo a un futuro in cui l’IA generativa non è definita solo da un numero sempre maggiore di parametri, ma anche dall’efficienza architettonica. L’attuale percorso di scalabilità dei modelli si scontra con un muro di rendimenti decrescenti e costi crescenti. Il framework CALM stabilisce un “nuovo asse di progettazione per la scalabilità dei LLM: aumentare la larghezza di banda semantica di ogni fase generativa”. Pur trattandosi di un framework di ricerca e non di un prodotto pronto all’uso, indica un percorso potente e scalabile verso modelli linguistici ultra-efficienti. Quando valutano le roadmap dei fornitori, i leader tecnologici dovrebbero guardare oltre le dimensioni del modello e iniziare a chiedersi quale sia l’efficienza architettonica. La capacità di ridurre i FLOP per token generato diventerà un vantaggio competitivo determinante, consentendo all’IA di essere implementata in modo più economico e sostenibile in tutta l’azienda per ridurre i costi, dal data center alle applicazioni edge che utilizzano i dati. Leggi di più su www.artificialintelligence-news.com
