Google si impegna a incrementare di 1000 volte l’infrastruttura AI nei prossimi 4-5 anni

Per soddisfare l’enorme domanda di AI, Google vuole raddoppiare le dimensioni complessive dei suoi server ogni sei mesi, un tasso di crescita che creerebbe una capacità 1000 volte superiore nei prossimi quattro o cinque anni. Secondo quanto riportato dalla CNBC, la dichiarazione è stata rilasciata dal responsabile dell’infrastruttura AI di Google, Amin Vahdat, durante una riunione di tutti i dipendenti il 6 novembre. Alphabet, la società madre di Google, sta sicuramente ottenendo buoni risultati, quindi una simile richiesta potrebbe rientrare nelle sue possibilità finanziarie. Alla fine di ottobre ha riportato ottimi dati relativi al terzo trimestre e ha alzato le previsioni di spesa in conto capitale a 93 miliardi di dollari, rispetto ai 91 miliardi di dollari. Vahdat ha risposto alla domanda di un dipendente sul futuro dell’azienda in un momento in cui si parla di “bolla dell’intelligenza artificiale”, ribadendo i rischi di un investimento non abbastanza aggressivo. Nelle sue operazioni di cloud, l’investimento in infrastrutture ha dato i suoi frutti. “Il rischio di un investimento insufficiente è piuttosto alto […] i numeri del cloud sarebbero stati molto migliori se avessimo avuto più calcoli” L’attività cloud di Google continua a crescere di circa il 33% all’anno, creando un flusso di entrate che consente all’azienda di essere “meglio posizionata per resistere alle perdite rispetto ad altre aziende”, ha dichiarato. Grazie a un’infrastruttura migliore con hardware più efficiente, come la Tensor Processing Unit di settima generazione, e a modelli LLM più efficienti, Google è fiduciosa di poter continuare a creare valore per la crescente implementazione delle tecnologie AI da parte dei suoi utenti aziendali. Secondo Markus Nispel di Extreme Networks, che ha scritto su techradar.com a settembre, è l’infrastruttura IT a far vacillare la visione dell’IA delle aziende. L’autore attribuisce la responsabilità del fallimento dei progetti di IA alle elevate esigenze che i carichi di lavoro dell’IA pongono ai sistemi preesistenti, alla necessità di strutture in tempo reale ed edge (spesso assenti nelle aziende attuali) e alla continua presenza di silos di dati. “Anche quando i progetti vengono avviati, spesso sono ostacolati da ritardi causati dalla scarsa disponibilità di dati o dalla frammentazione dei sistemi. Se i dati puliti e in tempo reale non possono fluire liberamente all’interno dell’organizzazione, i modelli di IA non possono funzionare in modo efficace e le informazioni che producono arrivano troppo tardi o non hanno alcun impatto”, ha affermato. “Con l’80% dei progetti di IA che non riescono a soddisfare le aspettative a livello globale, principalmente a causa dei limiti dell’infrastruttura piuttosto che della tecnologia di IA stessa, ciò che conta ora è il modo in cui rispondiamo” Le sue opinioni sono condivise dai responsabili dei grandi fornitori di tecnologia: Si prevede che quest’anno la spesa in conto capitale di Google, Microsoft, Amazon e Meta supererà i 380 miliardi di dollari, la maggior parte dei quali sarà destinata all’infrastruttura AI. Il messaggio degli hyperscaler è chiaro: se lo costruiamo, arriveranno. Affrontare le sfide infrastrutturali che le organizzazioni incontrano è la componente chiave per un’implementazione di successo dei progetti basati sull’IA. Un’infrastruttura agile il più vicino possibile al punto di calcolo e set di dati unificati sono considerati elementi importanti della ricetta per ottenere il massimo valore dai progetti di IA di prossima generazione. Sebbene nei prossimi sei mesi si preveda un certo riallineamento del mercato nel settore dell’IA, aziende come Google sono tra quelle che si prevede riusciranno a consolidare il mercato e a continuare a offrire tecnologie rivoluzionarie basate sull’IA durante la sua evoluzione. (Fonte immagine: “Construction site” by tomavim is licensed under CC BY-NC 2.0.) Leggi di più su www.artificialintelligence-news.com
Come la Royal Navy sta utilizzando l’intelligenza artificiale per ridurre il carico di lavoro del reclutamento

La Royal Navy sta affidando la prima linea delle sue operazioni di reclutamento a un avatar AI in tempo reale chiamato Atlas. Atlas è alimentato da un modello linguistico di grandi dimensioni ed è stato impiegato per rispondere alle domande dei futuri sommergibilisti. L’implementazione dimostra come l’intelligenza artificiale possa favorire il passaggio da un lento triage testuale a un’assistenza automatica veloce e coinvolgente. I progetti IT del settore pubblico spesso soffrono di tempistiche gonfiate e di consegne vaghe, ma l’ultima implementazione della Marina si basa su metriche operative concrete. Il lancio di Atlas segue un caso aziendale specifico: la necessità di filtrare e supportare i candidati a uno dei ruoli più impegnativi del servizio, riducendo al contempo il carico amministrativo del personale. I dati alla base dell’implementazione La Royal Navy, in collaborazione con Wavemaker di WPP Media, ha trascorso anni a perfezionare i punti di ingresso automatizzati. Prima dell’avatar, c’era un assistente basato sul testo. Il sistema iniziale, che è stato recentemente aggiornato a una soluzione completa di LLM e generazione aumentata del reperimento (RAG), ha dimostrato l’efficacia del modello. Ha gestito oltre 460.000 richieste da parte di più di 165.000 utenti e ha registrato un tasso di soddisfazione del 93%. Cosa ancora più importante per i profitti, il sistema basato sul testo ha ridotto del 76% il carico di lavoro dei team di agenti in carne e ossa. Inoltre ha generato 89.000 manifestazioni di interesse, dimostrando che l’automazione può ampliare l’imbuto senza sovraccaricare gli addetti al reclutamento. Atlas è di fatto l’evoluzione visiva di quei successi, progettata per catturare l’attenzione di una fascia demografica più giovane che si impegna in modo diverso con i canali digitali. Sotto il cofano dell’avatar di reclutamento AI L’architettura si basa su un ecosistema di più fornitori piuttosto che su un’unica soluzione. Wavemaker ha guidato la direzione strategica e il design conversazionale, assicurandosi che il “cervello” dell’operazione fosse addestrato alla corretta base di conoscenze. Voxly Digital ha realizzato il front-end e il back-end, con il supporto di Great State, l’agenzia digitale della Marina. Dal punto di vista funzionale, Atlas non si limita a recitare le norme. Utilizza un’interfaccia conversazionale e multimediale. Se un candidato chiede informazioni sulla vita in un sottomarino – un noto punto dolente per la conversione del reclutamento a causa dello stile di vita unico – Atlas è in grado di rispondere con risposte vocali, didascalie sullo schermo e video pertinenti o citazioni del personale in servizio. L’obiettivo è quello di far rimanere l’utente nell’ecosistema più a lungo. Atlas sarà testato durante gli eventi e collegato direttamente all’app NavyReady e al programma Enterprise Customer Relationship Management (e-CRM), garantendo la continuità dei dati. Aumentare, non sostituire Nonostante l’elevato grado di automazione, la Royal Navy inquadra questo avatar dell’IA come uno strumento di incremento della forza lavoro per il reclutamento. Paul Colley, responsabile del marketing della Royal Navy, è stato esplicito sui limiti della tecnologia: “Quando si parla di IA, ci concentriamo su come utilizzarla in modo responsabile e strategico per armare meglio i team che abbiamo. Non si tratta di sostituire il supporto umano. Si tratta di fornire il miglior supporto possibile ovunque e in qualsiasi momento i candidati ne abbiano bisogno”. “Siamo entusiasti di lanciare Atlas e di vedere se è in grado di fornire un nuovo e diverso tipo di supporto a coloro che stanno prendendo in considerazione il servizio sottomarino ma che hanno bisogno di più tempo per esplorare e discutere” Caroline Scott, responsabile dell’e-CRM e dell’innovazione, ha aggiunto: “Sperimentando nuove interfacce e adottando una mentalità di prova e apprendimento, la Royal Navy può essere meglio equipaggiata per capire come queste tecnologie possono trasformare il modo in cui le persone si connettono, si candidano per un ruolo e si impegnano con noi, creando anche esperienze digitali più significative” Per i leader aziendali, il progetto pilota Atlas illustra un approccio maturo all’adozione dell’IA generativa. La Marina non ha iniziato con l’avatar, ma con i dati e un’interfaccia testuale più semplice. Solo dopo aver ottenuto un guadagno di efficienza del 76%, ha deciso di passare a un mezzo visivo più complesso e dispendioso in termini di risorse. Il risultato finale è un sistema di reclutamento assistito dall’intelligenza artificiale che filtra le query di basso valore su scala, consentendo ai reclutatori umani di concentrarsi sui candidati più importanti. Leggi di più su www.artificialintelligence-news.com
Un editore ha guadagnato solo 174 dollari con i crawler AI. Potrebbe cambiare il settore.

Il settore dell’editoria digitale sta attraversando una fase di trasformazione strutturale che potrebbe ridefinire le basi stesse della sua sostenibilità economica. Un dato recente ha acceso i riflettori su questa transizione: un editore ha rivelato di aver incassato appena 174 dollari dai sistemi di intelligenza artificiale che utilizzano i suoi contenuti. Questo numero, al di là del caso specifico, funge da indicatore di un modello di business – quello basato sul traffico web tradizionale – che sta mostrando i suoi limiti nell’era dell’AI generativa. La questione tecnica è chiara: i “crawler” (i software automatici che scansionano il web per addestrare i modelli di linguaggio o generare risposte in tempo reale) accedono ai siti, prelevano le informazioni e le rielaborano. Questo processo spesso soddisfa la curiosità dell’utente direttamente nell’interfaccia dell’AI, rendendo superfluo il clic verso la fonte originale. Di fronte al calo fisiologico del traffico umano, il mercato sta rispondendo con una nuova logica economica: se i dati sono il carburante dell’AI, l’accesso a questi dati deve diventare un servizio a pagamento. In questo articolo La Fine del Modello Pubblicitario Classico? La Soluzione Tecnologica: Il Modello Pay Per Crawl Il Ruolo delle Infrastrutture: Il Caso Cloudflare Nuove Prospettive per la Sostenibilità Editoriale La Fine del Modello Pubblicitario Classico? Per decenni, il patto implicito del web è stato semplice: i contenuti sono gratuiti in cambio dell’attenzione dell’utente, monetizzata tramite la pubblicità. Tuttavia, l’avvento delle risposte generate dall’AI (le cosiddette zero-click searches) rompe questa catena. Se l’utente non atterra sulla pagina, l’editore non può mostrare il banner pubblicitario né proporre un abbonamento. I costi per mantenere le infrastrutture server, però, rimangono, aggravati dal massiccio volume di richieste inviate proprio dai bot dell’AI. In questo scenario, il valore si sposta dall’interazione umana alla qualità del dato grezzo. Gli editori, specialmente quelli che producono informazione verificata e di alta qualità, possiedono l’asset più prezioso per le aziende tecnologiche: la “verità” fattuale necessaria per addestrare modelli affidabili ed evitare che l’AI generi errori o allucinazioni. La Soluzione Tecnologica: Il Modello Pay Per Crawl La risposta del mercato si sta orientando verso la standardizzazione delle licenze. Iniziative come il protocollo Really Simple Licensing (RSL) stanno emergendo per creare un linguaggio comune tra editori e crawler. L’obiettivo è trasformare ogni scansione del sito in una transazione economica misurabile. Si delineano due percorsi principali: Pay-per-Crawl: Un micro-pagamento per ogni pagina scansionata e archiviata dal bot. Pay-per-Inference: Una royalty che scatta ogni volta che il contenuto scansionato viene utilizzato attivamente dall’AI per generare una risposta all’utente finale. Questo approccio trasforma gli editori da semplici destinazioni di traffico a fornitori di dati strutturati per l’industria tecnologica, aprendo un canale di ricavi B2B (Business to Business) che potrebbe compensare le perdite sul fronte pubblicitario. Il Ruolo delle Infrastrutture: Il Caso Cloudflare Perché questo modello funzioni, serve un “casello” digitale, un’infrastruttura capace di distinguere tra un utente umano, un bot malevolo e un crawler autorizzato disposto a pagare. Qui entrano in gioco i grandi gestori delle reti di distribuzione dei contenuti (CDN). Cloudflare, una delle aziende leader nel settore, ha iniziato a implementare strumenti che permettono ai proprietari dei siti di gestire questo flusso con precisione granulare. Le nuove funzionalità consentono agli editori di: Identificare con certezza i bot delle diverse compagnie di AI. Bloccare l’accesso ai crawler che non rispettano gli accordi di licenza. Abilitare meccanismi di negoziazione automatica per l’accesso ai contenuti. Questo sposta il potere contrattuale: l’editore può tecnicamente “chiudere i rubinetti” ai modelli che non contribuiscono economicamente, degradando la qualità delle risposte di quei sistemi (il principio informatico del “garbage in, garbage out”). Nuove Prospettive per la Sostenibilità Editoriale Non siamo di fronte alla fine del giornalismo, ma alla sua evoluzione industriale. Se le visite umane diminuiscono, il valore della produzione giornalistica paradossalmente aumenta agli occhi delle macchine. I modelli di linguaggio, per rimanere rilevanti e precisi, hanno bisogno di un flusso costante di informazioni aggiornate e verificate, qualcosa che l’AI non può generare da sola. Gli editori che sapranno adattarsi a questo scenario potranno diversificare le loro entrate: da un lato continueranno a servire il pubblico umano (magari con formati più approfonditi e analitici), dall’altro diventeranno partner essenziali per le Big Tech. La sfida per il futuro non sarà più solo “fare click”, ma garantire che ogni contenuto prodotto sia tracciato, valorizzato e retribuito all’interno della filiera dell’intelligenza artificiale. È un passaggio verso una maggiore sostenibilità strutturale dell’ecosistema informativo.
Modelli AI locali: Come mantenere il controllo del bidstream senza perdere i tuoi dati

Autore: Olga Zharuk, CPO, Teqblaze Quando si tratta di applicare l’intelligenza artificiale nel programmatic, sono due le cose che contano di più: le prestazioni e la sicurezza dei dati. Ho visto troppi audit interni sulla sicurezza segnalare i servizi di AI di terze parti come punti di esposizione. Concedere ad agenti di AI di terze parti l’accesso a dati bidstream proprietari introduce un’esposizione non necessaria che molte organizzazioni non sono più disposte ad accettare. Ecco perché molti team passano ad agenti di intelligenza artificiale integrati: modelli locali che operano interamente nel tuo ambiente. Nessun dato esce dal tuo perimetro. Non ci sono punti oscuri nella traccia di controllo. Conservi il pieno controllo su come si comportano i modelli e, soprattutto, su ciò che vedono. Rischi associati all’uso dell’intelligenza artificiale esterna Ogni volta che i dati relativi alle prestazioni o agli utenti escono dalla tua infrastruttura per essere utilizzati per l’inferenza, introduci un rischio. Non teorico, ma operativo. Nei recenti controlli di sicurezza, abbiamo visto casi in cui fornitori esterni di IA registrano segnali a livello di richiesta con il pretesto dell’ottimizzazione. Ciò include strategie di offerta proprietarie, segnali di targeting contestuale e, in alcuni casi, metadati con tracce identificabili. Non si tratta solo di un problema di privacy, ma di una perdita di controllo. Le richieste di offerte pubbliche sono una cosa. Tuttavia, tutti i dati sulle prestazioni, le variabili di ottimizzazione e i risultati interni che condividi sono dati proprietari. Condividerli con modelli di terze parti, soprattutto se ospitati in ambienti cloud extra-UE, crea delle lacune sia in termini di visibilità che di conformità. In base a normative come il GDPR e il CPRA/CCPA, anche i dati “pseudonimi” possono comportare un’esposizione legale se trasferiti in modo improprio o utilizzati al di là dello scopo dichiarato. Ad esempio, un modello ospitato su un endpoint esterno riceve una chiamata per valutare un’opportunità di offerta. Insieme alla chiamata, i payload possono includere prezzi minimi, risultati di vittoria/perdita o variabili di tuning. I valori, spesso incorporati nelle intestazioni o nei payload JSON, possono essere registrati per il debug o il miglioramento del modello e conservati oltre la singola sessione, a seconda della politica del fornitore. I modelli AI black-box aggravano il problema. Quando i fornitori non rivelano la logica di inferenza o il comportamento del modello, ti ritrovi senza la possibilità di verificare, eseguire il debug o addirittura spiegare come vengono prese le decisioni. Si tratta di una responsabilità, sia dal punto di vista tecnico che legale. IA locale: un cambiamento strategico per il controllo programmatico Il passaggio all’IA locale non è solo una mossa difensiva per affrontare le normative sulla privacy: è un’opportunità per riprogettare il modo in cui i flussi di lavoro dei dati e la logica decisionale sono controllati nelle piattaforme programmatiche. L ‘inferenza incorporata mantiene il pieno controllo della logica di input e di output, cosa che i modelli di IA centralizzati non hanno. Controllo sui dati Possedere lo stack significa avere il pieno controllo sul workflow dei dati: dalla decisione di quali campi bidstream sono esposti ai modelli, all’impostazione del TTL per i dataset di formazione, alla definizione di regole di conservazione o cancellazione. Ciò consente ai team di eseguire i modelli di intelligenza artificiale senza vincoli esterni e di sperimentare configurazioni avanzate personalizzate in base alle specifiche esigenze aziendali. Ad esempio, una DSP può limitare i dati sensibili di geolocalizzazione, pur continuando a utilizzare gli insight generalizzati per l’ottimizzazione delle campagne. È più difficile garantire un controllo selettivo quando i dati escono dai confini della piattaforma. Comportamento del modello verificabile I modelli AI esterni spesso offrono una visibilità limitata sul modo in cui vengono prese le decisioni di offerta. L’utilizzo di un modello locale consente alle organizzazioni di verificarne il comportamento, di testarne l’accuratezza rispetto ai propri KPI e di mettere a punto i suoi parametri per raggiungere specifici obiettivi di rendimento, di pacing o di performance. Il livello di verificabilità rafforza la fiducia nella catena di fornitura. Gli editori possono verificare e dimostrare che l’arricchimento dell’inventario segue standard coerenti e verificabili. Questo dà agli acquirenti una maggiore fiducia nella qualità dell’inventario, riduce la spesa per il traffico non valido e minimizza l’esposizione alle frodi. Allineamento con i requisiti di privacy dei dati L’inferenza locale fa sì che tutti i dati si trovino nella tua infrastruttura, sotto il tuo controllo. Questo controllo è essenziale per rispettare le leggi locali e i requisiti di privacy nelle varie regioni. Segnali come gli indirizzi IP o gli ID dei dispositivi possono essere elaborati in loco, senza mai lasciare il tuo ambiente, riducendo l’esposizione e preservando la qualità del segnale con basi legali e tutele adeguate. Applicazioni pratiche dell’intelligenza artificiale locale nel programmatic Oltre a proteggere i dati bidstream, l’intelligenza artificiale locale migliora l’efficienza decisionale e la qualità della catena programmatica senza aumentare l’esposizione dei dati. Arricchimento del bidstream L’intelligenza artificiale locale può classificare la tassonomia delle pagine o delle app, analizzare i segnali dei referrer e arricchire le richieste di offerta con metadati contestuali in tempo reale. Ad esempio, i modelli possono calcolare la frequenza delle visite o i punteggi di recency e trasmetterli come parametri di richiesta aggiuntivi per l’ottimizzazione della DSP. Questo accelera la latenza delle decisioni e migliora l’accuratezza contestuale, senza esporre i dati grezzi degli utenti a terzi. Ottimizzazione dei prezzi Poiché l’ad tech è dinamico, i modelli di pricing devono adattarsi continuamente alle variazioni a breve termine della domanda e dell’offerta. Gli approcci basati su regole spesso reagiscono più lentamente ai cambiamenti rispetto ai modelli di repricing basati su ML. L’intelligenza artificiale locale può rilevare i modelli di traffico emergenti e regolare di conseguenza l’offerta minima o le raccomandazioni di prezzo dinamico. Rilevamento delle frodi L’intelligenza artificiale locale rileva le anomalie prima dell’asta, come pool di IP randomizzati, modelli di agenti utente sospetti o improvvise deviazioni nel tasso di vincita, e le segnala per attenuarle. Non sostituisce gli scanner antifrode dedicati, ma li integra con il rilevamento e il monitoraggio locale delle anomalie, senza
Microsoft, NVIDIA e Anthropic stringono un’alleanza per l’elaborazione dell’AI

Microsoft, Anthropic e NVIDIA stanno definendo un nuovo standard per gli investimenti nell’infrastruttura cloud e per la disponibilità di modelli di AI con una nuova alleanza di calcolo. Questo accordo segna una divergenza dalla dipendenza da un singolo modello verso un ecosistema diversificato e ottimizzato per l’hardware, modificando il panorama della governance per i leader tecnologici. Satya Nadella, CEO di Microsoft, ha dichiarato che si tratta di un’integrazione reciproca in cui le aziende “saranno sempre più clienti l’una dell’altra”. Mentre Anthropic sfrutta l’infrastruttura di Azure, Microsoft incorporerà i modelli di Anthropic nel suo stack di prodotti. Anthropic si è impegnata ad acquistare 30 miliardi di dollari di capacità di calcolo Azure. Questa cifra mostra gli immensi requisiti di calcolo necessari per addestrare e distribuire la prossima generazione di modelli di frontiera. La collaborazione prevede una specifica traiettoria hardware, che inizia con i sistemi Grace Blackwell di NVIDIA e prosegue con l’architettura Vera Rubin. Jensen Huang, CEO di NVIDIA, si aspetta che l’architettura Grace Blackwell con NVLink offra un “aumento di velocità di un ordine di grandezza”, un salto necessario per ridurre l’economia dei token. Per coloro che supervisionano la strategia dell’infrastruttura, la descrizione di Huang di un approccio ingegneristico “shift-left” – in cui la tecnologia NVIDIA appare su Azure immediatamente dopo il rilascio – suggerisce che le aziende che eseguono Claude su Azure avranno accesso a caratteristiche prestazionali diverse dalle istanze standard. Questa profonda integrazione può influenzare le decisioni architettoniche relative alle applicazioni sensibili alla latenza o all’elaborazione batch ad alto rendimento. La pianificazione finanziaria deve ora tenere conto di quelle che Huang identifica come tre leggi di scalabilità simultanee: pre-training, post-training e scalabilità del tempo di inferenza. Tradizionalmente, i costi di calcolo dell’intelligenza artificiale erano fortemente orientati alla formazione. Tuttavia, Huang osserva che con il test-time scaling – in cui il modello “pensa” più a lungo per produrre risposte di qualità superiore – i costi di inferenza stanno aumentando. Di conseguenza, la spesa operativa dell’IA (OpEx) non sarà una tariffa fissa per token, ma sarà correlata alla complessità del ragionamento richiesto. La previsione del budget per i flussi di lavoro agenziali deve quindi diventare più dinamica. L’integrazione nei flussi di lavoro aziendali esistenti rimane un ostacolo primario per l’adozione. Per risolvere questo problema, Microsoft si è impegnata a garantire a Claude un accesso continuo a tutta la famiglia Copilot. L’enfasi operativa è posta sulle capacità agenziali. Huang ha evidenziato il Model Context Protocol (MCP) di Anthropic come uno sviluppo che ha “rivoluzionato il panorama dell’intelligenza artificiale agonica”. I leader dell’ingegneria del software dovrebbero notare che gli ingegneri di NVIDIA stanno già utilizzando Claude Code per rifattorizzare i codebase legacy. Dal punto di vista della sicurezza, questa integrazione semplifica il perimetro. I responsabili della sicurezza che controllano gli endpoint delle API di terze parti possono ora fornire le funzionalità di Claude all’interno del perimetro di conformità di Microsoft 365. Questo semplifica la governance dei dati, in quanto i log delle interazioni e la gestione dei dati rimangono all’interno degli accordi di locazione Microsoft. Il vendor lock-in continua a essere un punto di attrito per i CDO e i risk officer. Questa partnership per l’AI compute allevia questa preoccupazione rendendo Claude l’unico modello di frontiera disponibile su tutti e tre i principali servizi cloud globali. Nadella ha sottolineato che questo approccio multi-modello si basa, e non sostituisce, la partnership esistente di Microsoft con OpenAI, che rimane una componente fondamentale della sua strategia. Per Anthropic, l’alleanza risolve la sfida del “go-to-market aziendale”. Huang ha osservato che la creazione di un movimento di vendita aziendale richiede decenni. Appoggiandosi ai canali consolidati di Microsoft, Anthropic aggira questa curva di adozione. Questo accordo trilaterale modifica il panorama degli acquisti. Nadella esorta il settore a superare la “narrazione a somma zero”, suggerendo un futuro di capacità ampie e durature. Le organizzazioni dovrebbero rivedere i loro attuali portafogli di modelli. La disponibilità di Claude Sonnet 4.5 e Opus 4.1 su Azure giustifica un’analisi comparativa del TCO rispetto alle implementazioni esistenti. Inoltre, l’impegno di “gigawatt di capacità” indica che i vincoli di capacità per questi modelli specifici potrebbero essere meno stringenti rispetto ai cicli hardware precedenti. A seguito di questa partnership per il calcolo dell’intelligenza artificiale, l’attenzione delle aziende deve ora spostarsi dall’accesso all’ottimizzazione; abbinare la giusta versione del modello allo specifico processo aziendale per massimizzare il rendimento di questa infrastruttura ampliata. Leggi di più su www.artificialintelligence-news.com
Cosa possono insegnare alle aziende gli esperimenti europei di formazione sull’AI

Siamo tutti a caccia di talenti. È diventato cruciale per il successo quanto la realizzazione di prodotti straordinari e molte aziende ne stanno risentendo. Il problema è che la domanda di persone con competenze nel campo dell’IA è alle stelle, ma l’offerta non tiene il passo. L’OCSE lo sottolinea: molti di noi hanno bisogno di competenze nell’IA, ma sono pochi gli annunci di lavoro che le richiedono. Ma c’è una tendenza promettente che sta emergendo e che si sta verificando in Europa. Nel continente e nel Regno Unito sono in corso alcuni esperimenti nel campo dell’educazione all’intelligenza artificiale, che utilizzano l’intelligenza artificiale per cambiare il modo in cui le persone imparano. Si tratta di scorci sulla forza lavoro del futuro, che ci mostrano come la prossima generazione affronterà la risoluzione dei problemi e la collaborazione in un mondo che utilizza sempre più l’IA. Vediamo alcuni esempi e analizziamo come possono aiutare le aziende a ripensare il loro approccio al talento. Formare gli insegnanti a lavorare con l’IA: la storia di Manchester L’Università di Manchester sta integrando l’IA generativa nella preparazione dei futuri insegnanti, utilizzando gli strumenti in modo critico, creativo e ponderato, combinando i suggerimenti dell’IA con le conoscenze e l’esperienza degli studenti. Questo suggerisce un futuro in cui i dipendenti non sono consumatori di formazione, ma si sentono a proprio agio nel co-creare con l’IA. Le generazioni future si aspetteranno l’assistenza dell’IA nelle loro attività quotidiane e il vero vantaggio competitivo non sarà l’utilizzo dell’IA da parte delle persone, ma il modo in cui la utilizzeranno in modo responsabile ed etico. L ‘UNESCO ha colto nel segno, sottolineando la necessità di potenziare le capacità umane, non di sostituirle. Costruire le competenze dell’IA dalle fondamenta: AI-ENTR4YOUTH AI-ENTR4YOUTH è un programma che riunisce Junior Achievement Europe e partner in dieci paesi europei. Qui l’IA è integrata nell’educazione all’imprenditorialità, dove gli studenti utilizzano gli strumenti dell’IA per affrontare i problemi del mondo reale, con particolare attenzione all’innovazione e ai valori europei. In questo modo si sviluppa precocemente un’alfabetizzazione pratica all’intelligenza artificiale, collegandola alla mentalità imprenditoriale, alla capacità di individuare le opportunità e di testare nuove idee. È importante notare che questo progetto sta ampliando il bacino di talenti dell’IA, raggiungendo studenti che potrebbero scegliere lauree in economia e non in materie tecniche. Il gap di competenze può essere risolto. Le aziende che lamentano la mancanza di talenti nel campo dell’IA dovrebbero chiedersi: come possiamo sostenere attivamente o emulare programmi come AI-ENTR4YOUTH per creare la forza lavoro di cui abbiamo bisogno? Apprendimento personalizzato e impatto: La prospettiva di Social Tides Social Tides sostiene gli innovatori dell’istruzione in Europa. Il suo lavoro mette in evidenza i progetti che utilizzano l’intelligenza artificiale per creare esperienze di apprendimento più personalizzate, in particolare per gli studenti che hanno bisogno di ulteriore supporto o che hanno stili di apprendimento diversi. L’intelligenza artificiale aiuta a personalizzare i contenuti, a fungere da tutor e a creare comunità intorno agli studenti. Il filo conduttore è la supervisione umana. L’intelligenza artificiale fornisce raccomandazioni e approfondimenti, ma gli esseri umani sono ancora molto presenti, esprimendo giudizi e offrendo supporto. Questo è in linea con le migliori pratiche aziendali dell’IA, in quanto i leader cercano di rendere l’apprendimento parte integrante della giornata lavorativa. Domande chiave per i leader Cosa significa questo per i responsabili delle decisioni? Ecco alcune domande da considerare: Architettura di apprendimento: Stiamo adottando internamente percorsi di apprendimento personalizzati e assistiti dall’AI? Talenti e pipeline: Stiamo formando il futuro pool di talenti attraverso partnership con scuole e università locali? Governance ed etica: Abbiamo linee guida chiare per l’utilizzo dell’IA nella formazione, garantendo equità e trasparenza? Scelta dei fornitori: Stiamo selezionando strumenti di IA che siano in linea con i nostri valori e con le normative vigenti? Sebbene questi programmi educativi possano essere definiti esperimenti, sono un segnale di come il futuro del lavoro potrebbe essere plasmato. Le aziende che prestano attenzione ora saranno quelle che si assicureranno talenti migliori e costruiranno organizzazioni più adattabili e orientate all’apprendimento. (Fonte immagine: “Laboratory” by ♔ Georgie R is licensed under CC BY-ND 2.0. T) Leggi di più su www.artificialintelligence-news.com
ChatLe chat di gruppo di GPT possono aiutare i team a introdurre l’intelligenza artificiale nella pianificazione quotidiana

OpenAI ha introdotto le chat di gruppo all’interno di ChatGPT, offrendo alle persone un modo per coinvolgere fino a 20 persone in una conversazione condivisa con il chatbot. La funzione è ora disponibile per tutti gli utenti che hanno effettuato l’accesso dopo un breve periodo di sperimentazione all’inizio del mese e trasforma ChatGPT da uno strumento prevalentemente individuale a uno strumento che supporta la collaborazione in piccoli gruppi. OpenAI descrive l’aggiornamento come un modo semplice per pianificare le attività quotidiane con gli amici, i membri della famiglia o i colleghi, come organizzare una cena, preparare un viaggio o redigere una bozza insieme. Ma la funzione potrebbe avere un valore più ampio per i team di lavoro che già utilizzano ChatGPT per il brainstorming, la ricerca e le prime discussioni sui progetti. Come funziona la funzione Una chat di gruppo inizia quando selezioni l’icona “persone” nell’angolo in alto a destra dell’app ChatGPT. L’applicazione crea un nuovo spazio condiviso copiando la conversazione in corso e puoi invitare altri utenti inviando un link. Questo link può essere condiviso di nuovo, consentendo agli utenti di coinvolgere altri partecipanti nella discussione. La prima volta che un utente si unisce o crea una chat di gruppo, ChatGPT gli chiede di impostare un nome, un nome utente e una foto del profilo in modo che il gruppo possa identificare chi sta parlando. OpenAI afferma che ChatGPT è stato addestrato a “seguire il flusso della conversazione”, decidendo quando rispondere e quando rimanere in silenzio. Se qualcuno vuole che ChatGPT aggiunga qualcosa direttamente, può menzionare “ChatGPT” nel suo messaggio. Il modello può anche reagire con emoji e utilizzare le foto del profilo per creare immagini personalizzate. Un pannello di impostazioni nell’angolo in alto a destra dello schermo consente agli utenti di aggiungere o rimuovere persone, disattivare le notifiche o fornire istruzioni personalizzate a ChatGPT. OpenAI afferma che il modello non utilizzerà i ricordi delle chat personali all’interno delle conversazioni di gruppo e non creerà nuovi ricordi in base alle attività del gruppo. Le chat di gruppo funzionano con GPT-5.1 Auto, che sceglie il modello di risposta in base alla richiesta e alle opzioni disponibili per l’utente. I limiti di velocità si applicano solo quando ChatGPT invia un messaggio. Questo lancio segue il recente rilascio dei modelli GPT-5.1 Instant e Thinking e il precedente lancio di Sora, un’applicazione sociale per la creazione di brevi video. Come le chat di gruppo possono supportare la collaborazione reale Mentre il lancio per i consumatori si concentra sulla pianificazione casuale, molte delle sfide che le aziende devono affrontare derivano dal modo in cui le persone condividono le idee, rivedono le bozze e si coordinano in ruoli diversi. Le chat di gruppo possono aiutare a ridurre alcuni di questi attriti, offrendo ai team un unico spazio per parlare con ChatGPT. Allineare i team interfunzionali Le grandi organizzazioni lavorano per mantenere allineati i team di prodotto, design, ingegneria e marketing, soprattutto all’inizio di un progetto. Le prime idee possono disperdersi nelle e-mail e nelle app di chat. In una chat di gruppo, tutti possono contribuire in un unico luogo. Se qualcuno si unisce in ritardo o si perde una parte della discussione, ChatGPT può riassumere la discussione, identificare le domande aperte o aiutare a trasformare gli appunti del gruppo in un piano strutturato. Questo aiuta i team a passare dal dibattito iniziale all’azione senza perdere il contesto. Cicli di revisione più fluidi Le bozze di solito passano attraverso lunghi cicli di revisione che coinvolgono persone diverse che utilizzano canali diversi. I commenti arrivano in momenti diversi e diventa difficile capire quale sia la versione corrente. In una chat di gruppo, il team può reagire insieme alla stessa bozza. ChatGPT può riscrivere passaggi, confrontare versioni alternative o aiutare a chiarire il feedback, il che può accelerare il lavoro dei team che hanno scadenze strette o aggiornamenti frequenti. Un onboarding più rapido per i nuovi compagni di squadra I nuovi membri del team che si uniscono a progetti che hanno alle spalle mesi di storia devono perdere tempo a rintracciare vecchi messaggi e file per capire come sono state prese le decisioni. Un manager può aggiungere un nuovo compagno di squadra a una chat di gruppo esistente e chiedere a ChatGPT di riassumere le discussioni passate, evidenziare le scelte chiave e mostrare quali attività rimangono aperte, riducendo il tempo necessario per l’onboarding. Coordinare le attività condivise Il coordinamento di routine, come la preparazione di un workshop interno, la stesura di un’e-mail per i clienti o la pianificazione di un evento, viene spesso rallentato da messaggi che durano giorni. In una chat di gruppo, chiunque può chiedere a ChatGPT di creare un programma, riscrivere un messaggio, creare una lista di controllo o confrontare le opzioni. Il gruppo può quindi modificare i dettagli insieme senza dover ricominciare da capo ogni volta. Organizzare il feedback creativo Il lavoro creativo può bloccarsi quando il feedback arriva in forme disordinate o contrastanti. I designer, gli scrittori e gli analisti spesso ricevono commenti sparsi in canali diversi. Le chat di gruppo permettono di tenere tutti i feedback in un unico posto. ChatGPT può raggruppare i commenti per temi, evidenziare le contraddizioni o proporre bozze che riflettano i desideri del team. Questo può aiutare a ridurre le rielaborazioni e a indirizzare il gruppo verso una direzione condivisa. Un cambiamento più ampio nel modo in cui i team utilizzano ChatGPT L’introduzione delle chat di gruppo arriva in un periodo in cui molte aziende stanno sperimentando modi per introdurre l’intelligenza artificiale nei loro flussi di lavoro. ChatGPT aiuta già molti utenti a redigere, riassumere e rivedere il lavoro. Dare ai team uno spazio condiviso può cambiare il modo in cui le prime conversazioni di progetto prendono forma, soprattutto per le organizzazioni che sperimentano la pianificazione e le revisioni supportate dall’intelligenza artificiale. Questa funzione non sostituisce il coordinamento umano, ma introduce una superficie condivisa dove le persone possono parlare tra loro e portare ChatGPT nella discussione quando necessario. Per i team che hanno a che fare con
9 segni che il tuo sito web non è pronto per i risultati di ricerca AI (e come risolverlo oggi)

Come sappiamo, l’ambiente di ricerca sta cambiando rapidamente e affidarsi esclusivamente alla visibilità tradizionale non è più sufficiente! Con la diffusione di tecnologie basate sull’intelligenza artificiale come ChatGPT, è fondamentale che il tuo sito web venga riconosciuto e citato da questi strumenti innovativi. Rimanere indietro potrebbe significare ridurre il traffico, la visibilità e la fiducia. Non preoccuparti! Ecco nove indicatori che indicano che il tuo sito web potrebbe aver bisogno di un rinnovamento per questa entusiasmante era della ricerca AI. Prova queste soluzioni efficaci per elevare i tuoi servizi di AI e automazione a nuovi livelli. 1. Il tuo sito web ha bisogno di un nuovo approccio La SEO tradizionale si concentrava sulle parole chiave e sui backlink, ma la ricerca AI enfatizza la comprensione dei contenuti. Se la tua scrittura è poco chiara o eccessivamente complessa, sarà più difficile per l’intelligenza artificiale fornire una risposta chiara. Puoi rimediare facendo queste cose: Inizia le pagine con una breve risposta alle domande degli utenti. Usa titoli chiari e basati sulle domande. Organizza i contenuti con paragrafi concisi, elenchi e punti elenco. Concentrati sui fatti e sulle spiegazioni essenziali, evitando le sciocchezze e la ripetizione delle parole chiave. Per ottimizzare l’intelligenza artificiale in modo efficace, un sito web deve mostrare la propria competenza nella ricerca dell’intelligenza artificiale attraverso contenuti strutturati e adatti alle macchine. RiseUp si concentra sulla creazione di contenuti che comunichino senza problemi sia con gli utenti che con i sistemi di intelligenza artificiale, utilizzando una struttura avanzata, metadati e ottimizzazione contestuale per garantire che le competenze siano riconosciute, comprese e classificate dalle tecnologie di ricerca intelligenti. 2. Trascurare l’uso dei dati strutturati / Schema Markup I dati strutturati, spesso attraverso il markup di schema.org, aiutano i motori di ricerca e l’intelligenza artificiale a comprendere le pagine del tuo sito, ad esempio identificando i contenuti “HowTo”, “FAQ” o “Product”. Senza di essi, le macchine potrebbero avere difficoltà a classificare e a fare riferimento ai tuoi contenuti. Puoi risolvere il problema facendo queste operazioni: Identifica le pagine chiave e implementa lo schema JSON-LD pertinente. Utilizza il Rich Results Test di Google e dai priorità ai contenuti importanti, come “Che cosa sono i servizi AIO?” 3. Il tuo sito web presenta problemi di lentezza e scarsa reattività Se i bot dell’AI non riescono ad accedere facilmente ai tuoi contenuti, anche il materiale eccellente può essere ignorato o penalizzato. La ricerca AI si basa su fattori tecnici SEO fondamentali: velocità, compatibilità con i dispositivi mobili, sitemap pulite, robots.txt e accesso al crawl. Puoi risolvere il problema facendo queste operazioni: Effettua una verifica della velocità delle pagine, risolvi i problemi più importanti e assicurati la funzionalità mobile. Aggiorna e invia la tua sitemap, controlla il robots.txt, utilizza URL canonici e monitora gli errori di crawl. Quando vendono “ottimizzazione AI” o “servizi AIO”, i clienti si aspettano una solida base tecnica. Senza di essa, i contenuti compatibili con l’AI non saranno accessibili o utilizzati. Dimostrare questo garantisce una consegna sicura. 4. Il contenuto manca di struttura o formato colloquiale La ricerca AI privilegia le query in linguaggio naturale rispetto alle semplici parole chiave. I contenuti con titoli basati su domande e un tono colloquiale tendono ad avere risultati migliori. Puoi risolvere il problema facendo quanto segue: Aggiungi una sezione “FAQ” alle pagine principali con 3-5 domande comuni. Utilizza titoli di domande e un tono colloquiale. Considera i punti elenco per la chiarezza. I clienti cercano un testo che risuoni sia con gli esseri umani che con le macchine. Mostrando la tua abilità nel formattare le domande in modo discorsivo, aumenterà la loro fiducia nelle tue capacità. 5. Il tuo sito web mostra segnali deboli o insufficienti I sistemi di ricerca AI ora danno priorità ai contenuti provenienti da fonti credibili con chiare credenziali dell’autore e riferimenti esterni rispetto ai backlink tradizionali. Puoi risolvere il problema facendo quanto segue: Aggiungi i titoli degli autori con brevi biografie e link ai loro profili. Includi citazioni di fonti esterne credibili per le affermazioni o i dati. Considera una pagina “Brand” o “About” con dati strutturati sulla tua organizzazione e riconoscimenti rilevanti. Aggiorna o rimuovi i contenuti obsoleti e di bassa qualità per mantenere la coerenza e l’accuratezza. 6. Stai utilizzando una rete di contenuti o link interni deboli La ricerca AI favorisce i contenuti ben collegati, quindi il tuo sito dovrebbe avere chiari raggruppamenti di argomenti, link interni tra pagine correlate e approfondimenti. Le pagine isolate e prive di link a contenuti rilevanti possono essere trascurate. Puoi rimediare facendo queste operazioni: Identifica gli argomenti chiave (ad esempio, “Servizi AIO”, “Audit SEO AI”, “Implementazione dei dati strutturati”) e crea una pagina pilastro per ciascuno di essi, insieme a pagine cluster di supporto. Assicurati un linking interno pertinente con un testo di ancoraggio descrittivo. Aggiorna i post più vecchi per collegarli a quelli più recenti, favorendo una rete di contenuti collegati. 7. Le tue analisi indicano un calo del traffico organico Le funzioni di intelligenza artificiale come le “panoramiche AI” rispondono alle domande degli utenti senza che essi debbano fare clic sul tuo sito, portando a “ricerche senza clic” Se il traffico è in calo, è possibile che i tuoi contenuti non ricevano le citazioni AI necessarie. Puoi risolvere il problema eseguendo le seguenti operazioni: Usa Google Search Console per trovare le pagine ad alta impressionabilità e a basso numero di clic. Ottimizza le query in stile risposta aggiungendo dati strutturati e migliorando i contenuti. Monitora le menzioni del marchio con gli strumenti di AI per rafforzare la tua presenza. 8. Riconoscimento debole del marchio e dell’entità La ricerca AI utilizza i grafici di conoscenza e le entità (come marchi e persone) per determinare quali fonti citare. Se il tuo marchio non è chiaramente definito come entità con dati coerenti, è meno probabile che venga citato. Puoi rimediare facendo queste cose: Mantenere il nome della tua azienda coerente, utilizzare un markup schema corretto, ottimizzare la pagina “Informazioni” e creare citazioni esterne per ottenere visibilità. In qualità di fornitore di
I silos di dati frenano l’IA aziendale

Secondo IBM, la barriera principale che frena l’IA aziendale non è la tecnologia in sé, ma il problema persistente dei silos di dati. Ed Lovely, VP e Chief Data Officer di IBM, descrive i silos di dati come il “tallone d’Achille” della moderna strategia dei dati. Lovely ha fatto questi commenti in seguito alla pubblicazione di un nuovo studio dell’IBM Institute for Business Value secondo il quale l’intelligenza artificiale è pronta a scalare, ma i dati aziendali non lo sono. Il rapporto, che ha intervistato 1.700 senior data leader, ha rilevato che i dati funzionali rimangono ostinatamente isolati. I dati relativi a finanza, risorse umane, marketing e supply chain operano tutti in modo isolato, senza una tassonomia comune o standard condivisi. Questa frammentazione ha un impatto diretto e negativo sui progetti di intelligenza artificiale. “Quando i dati vivono in silos scollegati, ogni iniziativa di IA diventa un progetto di pulizia dei dati lungo sei-dodici mesi”, afferma Ed Lovely, VP e Chief Data Officer di IBM. “I team passano più tempo a cercare e allineare i dati che a generare approfondimenti significativi”. Questa è una minaccia diretta al vantaggio competitivo. Per i CIO e i CDO, la missione non è più solo quella di raccogliere e proteggere i dati, ma di distribuirli in modo efficace per alimentare questi nuovi sistemi di intelligenza artificiale. Da custode dei dati a motore del valore Lo studio ha evidenziato che i leader dei dati devono concentrarsi senza sosta sui risultati di business, e il 92% dei CDO concorda sul fatto che il loro successo dipende da questo obiettivo. Qui sta la tensione centrale: mentre il 92% punta al valore aziendale, solo il 29% è sicuro di avere “misure chiare per determinare il valore aziendale dei risultati ottenuti dai dati” Questo divario tra ambizioni e realtà è il punto in cui gli agenti di intelligenza artificiale in grado di apprendere e agire autonomamente per raggiungere gli obiettivi dovrebbero essere d’aiuto. I leader mostrano una crescente fiducia in questi strumenti: l’83% dei CDO che hanno partecipato alla ricerca di IBM ha dichiarato che i potenziali benefici dell’impiego di agenti di IA superano i rischi. Presso l’azienda globale di tecnologia medica Medtronic, i team erano impantanati a confrontare fatture, ordini di acquisto e prove di consegna. Con l’implementazione di una soluzione di intelligenza artificiale, l’azienda ha automatizzato questo flusso di lavoro. Il risultato è stato un calo del tempo di corrispondenza dei documenti da 20 minuti per fattura a soli otto secondi, con un tasso di accuratezza superiore al 99%. In questo modo il personale ha potuto essere riconvertito dall’inserimento di dati a basso valore a lavori di maggior valore. Allo stesso modo, l’azienda di energia rinnovabile Matrix Renewables ha implementato una piattaforma di dati centralizzata per monitorare i propri asset. Questo ha portato a una riduzione del 75% dei tempi di reporting e del 10% dei costosi tempi di inattività. IBM trova gli ostacoli dell’AI: Architettura, governance e carenza di talenti Per ottenere questi risultati è necessario un nuovo approccio all’architettura dei dati, evitando i silos. Il vecchio modello di trasferimento dei dati, costoso e lento, in un lago centrale sta per essere sostituito. Lo studio di IBM rileva che l’81% dei CDO ora si dedica a portare l’AI ai dati, piuttosto che a spostare i dati verso l’AI. Questo approccio si basa su modelli architettonici moderni come il data mesh e il data fabric, che forniscono un livello virtualizzato per accedere ai dati dove vivono. Inoltre, sostiene il concetto di “prodotti di dati” (asset di dati confezionati e riutilizzabili progettati per uno specifico scopo aziendale, come una vista “a 360 gradi” del cliente o un set di dati di previsione finanziaria) Tuttavia, rendere i dati più accessibili comporta delle sfide di governance. L’alleanza CDO-CISO è ora essenziale per bilanciare velocità e sicurezza. La sovranità dei dati è una preoccupazione particolare, visto che l’82% dei CDO la considera una parte fondamentale della propria strategia di gestione del rischio. L’ostacolo più grande, tuttavia, potrebbe essere rappresentato dalle persone. Il rapporto rivela un crescente divario di talenti che minaccia di bloccare i progressi. Nel 2025, il 77% dei CDO dichiara di avere difficoltà ad attrarre o trattenere i migliori talenti nel campo dei dati, con un netto aumento rispetto al 62% del 2024. Questa carenza è aggravata dal fatto che le competenze richieste sono un bersaglio mobile. IBM ha rilevato che l’82% dei CDO sta “assumendo per ruoli nei dati che non esistevano l’anno scorso in relazione all’IA generativa”. Questa sfida culturale e di competenze è spesso la parte più difficile. Hiroshi Okuyama, Chief Digital Officer di Yanmar Holdings, ha spiegato: “Cambiare la cultura è difficile, ma le persone stanno diventando più consapevoli che le loro decisioni devono essere basate su dati e fatti e che devono raccogliere prove quando prendono decisioni” Aprire i silos dei dati per lanciare l’IA aziendale Sul fronte tecnico, i leader delle aziende devono sostenere l’abbandono di un patrimonio di dati isolato. Ciò significa investire in architetture di dati moderne e federate e spingere i team a sviluppare e utilizzare “prodotti di dati” che possano essere condivisi e riutilizzati in modo sicuro in tutta l’organizzazione. In secondo luogo, sul fronte culturale, l’alfabetizzazione dei dati deve diventare una priorità per l’intera azienda, non solo per l’IT. L’80% dei CDO che afferma che la democratizzazione dei dati aiuta la propria organizzazione a muoversi più velocemente ha ragione. Ciò significa promuovere una cultura orientata ai dati e investire in strumenti intuitivi che rendano più semplice l’interazione con i dati per i dipendenti non tecnici. L’obiettivo è passare dall’esecuzione di esperimenti isolati di AI alla scalata dell’automazione intelligente nei processi aziendali principali. Le aziende che avranno successo saranno quelle che tratteranno i loro dati non come un sottoprodotto dell’applicazione, ma come la loro risorsa più preziosa. Ed Lovely, VP e Chief Data Officer di IBM, ha dichiarato: “L’intelligenza artificiale su scala aziendale è a portata di mano, ma il successo dipende dalle organizzazioni che la alimentano con
Le falle nella sicurezza emergono nella corsa all’intelligenza artificiale globale

Secondo Wiz, la corsa tra le aziende di IA sta portando molte di esse a trascurare le pratiche di igiene di sicurezza di base. il 65% delle 50 aziende leader nel settore dell’intelligenza artificiale analizzate dalla società di cybersicurezza ha divulgato segreti verificati su GitHub. Le esposizioni includono chiavi API, token e credenziali sensibili, spesso nascoste in repository di codice che gli strumenti di sicurezza standard non controllano. Glyn Morgan, Country Manager per il Regno Unito e l’Italia di Salt Security, ha descritto questa tendenza come un errore elementare e prevenibile. “Quando le aziende di intelligenza artificiale espongono accidentalmente le loro chiavi API, mettono a nudo un evidente errore di sicurezza evitabile”, ha dichiarato. “È un esempio da manuale di governance abbinata a una configurazione di sicurezza, due delle categorie di rischio segnalate da OWASP. Spingendo le credenziali nei repository di codice, gli aggressori hanno a disposizione un biglietto d’oro per accedere a sistemi, dati e modelli, eludendo di fatto i consueti livelli difensivi” Il rapporto di Wiz mette in evidenza la crescente complessità dei rischi per la sicurezza della supply chain. Il problema si estende oltre i team di sviluppo interni; poiché le aziende collaborano sempre più spesso con startup di IA, potrebbero ereditare la loro posizione di sicurezza. I ricercatori avvertono che alcune delle falle riscontrate “potrebbero aver esposto strutture organizzative, dati di formazione o persino modelli privati” La posta in gioco è considerevole. Le aziende analizzate con falle accertate hanno una valutazione complessiva di oltre 400 miliardi di dollari. Il rapporto, che si è concentrato sulle aziende elencate nella Forbes AI 50, fornisce alcuni esempi dei rischi: È stato scoperto che LangChain ha esposto diverse chiavi API di Langsmith, alcune delle quali con permessi per gestire l’organizzazione ed elencare i suoi membri. Questo tipo di informazioni è molto apprezzato dagli aggressori per la ricognizione. Una chiave API di livello enterprise per ElevenLabs è stata scoperta in un file in chiaro. Una società di AI 50 senza nome aveva un token HuggingFace esposto in un fork di codice cancellato. Questo singolo token “permetteva di accedere a circa 1.000 modelli privati”. La stessa azienda ha fatto trapelare anche le chiavi WeightsAndBiases, esponendo i “dati di formazione di molti modelli privati” Il rapporto di Wiz suggerisce che questo problema è così diffuso perché i tradizionali metodi di scansione della sicurezza non sono più sufficienti. Affidarsi alle scansioni di base dei principali repository GitHub di un’azienda è un “approccio banale” che non tiene conto dei rischi più gravi. I ricercatori descrivono la situazione come un “iceberg” (cioè i rischi più evidenti sono visibili, ma il pericolo maggiore si trova “sotto la superficie”) Per trovare questi rischi nascosti, i ricercatori hanno adottato una metodologia di scansione tridimensionale che chiamano “Profondità, Perimetro e Copertura”: Profondità: La loro scansione profonda ha analizzato “la cronologia completa dei commit, la cronologia dei commit sui fork, i fork cancellati, i log del flusso di lavoro e i gist” – aree che la maggior parte degli scanner “non tocca mai”. Perimetro: La scansione è stata estesa oltre l’organizzazione principale dell’azienda per includere i membri e i collaboratori dell’organizzazione. Queste persone potrebbero “controllare inavvertitamente i segreti legati all’azienda nei propri repository pubblici”. Il team ha identificato questi account adiacenti monitorando i contributori di codice, i follower dell’organizzazione e persino “le correlazioni in reti correlate come HuggingFace e npm” Copertura: I ricercatori hanno cercato in particolare nuovi tipi di segreti legati all’intelligenza artificiale che spesso sfuggono agli scanner tradizionali, come le chiavi per piattaforme come WeightsAndBiases, Groq e Perplexity. Questa superficie di attacco ampliata è particolarmente preoccupante se si considera l’apparente mancanza di maturità della sicurezza in molte aziende in rapida evoluzione. Il rapporto rileva che quando i ricercatori hanno cercato di divulgare le falle, quasi la metà delle divulgazioni non ha raggiunto l’obiettivo o non ha ricevuto risposta. Molte aziende non dispongono di un canale di divulgazione ufficiale o semplicemente non hanno risolto il problema quando sono state informate. I risultati di Wiz sono un monito per i dirigenti delle aziende tecnologiche e mettono in evidenza tre azioni immediate per gestire i rischi di sicurezza sia interni che di terze parti. I responsabili della sicurezza devono considerare i propri dipendenti come parte della superficie di attacco dell’azienda. Il rapporto raccomanda di creare una politica per i membri del sistema di controllo delle versioni (VCS) da applicare durante l’assunzione dei dipendenti. Questa politica dovrebbe imporre pratiche come l’utilizzo dell’autenticazione a più fattori per gli account personali e il mantenimento di una rigida separazione tra attività personali e professionali su piattaforme come GitHub. La scansione interna dei segreti deve evolvere oltre i controlli di base dei repository. Il rapporto esorta le aziende a imporre la scansione dei segreti dei VCS pubblici come “difesa non negoziabile”. Questa scansione deve adottare la già citata mentalità di “profondità, perimetro e copertura” per trovare le minacce che si nascondono sotto la superficie. Questo livello di controllo deve essere esteso all’intera catena di fornitura dell’IA. Quando valutano o integrano gli strumenti dei fornitori di IA, i CISO dovrebbero sondare le loro pratiche di gestione dei segreti e di divulgazione delle vulnerabilità. Il rapporto rileva che molti fornitori di servizi di IA fanno trapelare le proprie chiavi API e dovrebbero “dare priorità al rilevamento dei propri tipi di segreti” Il messaggio centrale per le aziende è che gli strumenti e le piattaforme che definiscono la prossima generazione di tecnologia vengono costruiti a un ritmo che spesso supera la governance della sicurezza. Come conclude Wiz, “per gli innovatori dell’IA, il messaggio è chiaro: la velocità non può compromettere la sicurezza”. Per le aziende che dipendono da questa innovazione, vale lo stesso avvertimento. Leggi di più su www.artificialintelligence-news.com
