ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Come evitare che il CMO diventi una specie in via di estinzione

Come evitare che il CMO diventi una specie in via di estinzione

Sebbene la figura del Chief Marketing Officer (CMO) non sia destinata a scomparire domani, è impossibile ignorare le prove sempre più evidenti della sua costante erosione. Come ha riportato ADWEEK ad agosto, la durata media di un CMO è passata da 4,1 anni nel 2024 a 3,9 anni nel 2025. L’anno scorso, il 63% delle aziende Fortune 500 aveva un CMO, ma nel 2025 questa cifra è scesa del 5%. La situazione è ancora peggiore. Un documento di McKinsey pubblicato a giugno ha rilevato che “i CFO spesso considerano il marketing come un centro di costo piuttosto che come un investimento” E i dati relativi al 2025 raccolti dalla società di marketing Boathouse rivelano che il 14% degli amministratori delegati ammette di aver pensato di eliminare la posizione del CMO. Spaventoso? Molto. Ma nonostante i numeri, i CMO stessi non sono così fatalisti sul loro futuro. Durante una tavola rotonda tenutasi all’ADWEEK House: Advertising HQ giovedì scorso, Jenny Rooney, chief brand and community officer di ADWEEK, ha invitato tre importanti CMO a sfidare l’idea che i marketer siano una specie in via di estinzione nella C-suite e a sostenere questa contro-narrazione con i motivi per cui i CMO sono ancora importanti. Alison Hiatt di Vera Bradley, Uzma Rawn Dowler della Major League Baseball e Christie Sclater di Clinique hanno suggerito i modi in cui i CMO possono trasmettere la loro importanza agli amministratori delegati che sono costretti a tagliare i costi e che guardano sempre più all’intelligenza artificiale come una panacea. Eccone alcuni. Sii più di un marketer Oggi le responsabilità di un CMO vanno ben oltre i confini tradizionali della pubblicità e della promozione, ma i CFO e i CEO spesso non se ne rendono conto. Per questo motivo, è compito del Chief Marketer non solo difendere il proprio lavoro, ma anche tradurlo. “Il ruolo del CMO, a mio avviso, è come quello di un funzionario che fa le cose per bene”, ha affermato Dowler. “La ‘C’ e la ‘O’ sono lì, e poi nel mezzo dovresti mettere tutto quello che ti serve, perché i nostri ruoli non sono solo di marketing” Fai marketing ai tuoi clienti, non a te stesso Gli amministratori delegati, ossessionati dai risultati e sempre più scettici, potrebbero essere più propensi a mettere in dubbio il pensiero o la validità di una campagna pubblicitaria o di una strategia di marketing. Probabilmente è una buona idea ricordare agli altri dirigenti aziendali che non sono obbligati ad accettare l’idea. “Se hanno opinioni [scettiche] su certe cose, non c’è problema: devi ricordargli: ‘Ehi, questo non è destinato a te’”, ha detto Dowler. “Ma abbiamo tutti i dati e le ricerche che dimostrano che il prodotto avrà una certa risonanza per le persone a cui è destinato” Anticipare l’IA Con l’avanzare dell’IA generativa, la C-suite sarà sempre più propensa a mettere in discussione ruoli come il CMO e il direttore creativo, o addirittura il reparto marketing in generale. Giustamente o meno, spetterà al CMO spiegare il ruolo dell’IA e il ruolo del marketing al di sopra di essa. “L’intelligenza artificiale è uno strumento, non una strategia”, ha affermato Hiatt, aggiungendo che i CEO dovrebbero ricordare che i CMO non stanno vendendo un’idea intelligente, ma stanno fornendo ciò di cui un marchio ha più bisogno: i consumatori. “In fin dei conti, con il marketing si compra un cliente”, ha detto Hiatt. “Non ne parliamo abbastanza” Spiega perché la leadership è fondamentale Sclater ha sottolineato che l’intelligenza artificiale può essere in grado di generare contenuti, ma non può sostituire un leader del marketing in grado di fungere da coach, interlocutore, decisore e innovatore. “In assenza di un CMO, stiamo solo facendo una staffetta e il business diventa il passaggio di consegne per un altro passaggio: quando si arriva alla fine, dov’è il cliente? Ha detto Sclater. “Ci sarà sempre bisogno di unire le cose, di riunire le idee intorno alla missione centrale di servire il cliente” Mantenere la coerenza dove gli algoritmi non riescono a farlo Poiché l’AI è in grado di generare infinite permutazioni di un marchio, il CMO diventa l’ultimo garante della tradizione, della riconoscibilità e della solidità. “Il CMO si tiene stretto il marchio”, ha detto Sclater. se non c’è un luogo in cui la purezza o l’essenza sono distillate e forti, l’algoritmo si muoverà per creare versioni diverse del marchio”. Il CMO al suo meglio è anche in grado di mantenere quella purezza e quella coerenza” Leggi di più su www.adweek.com

Perplexity mette in pausa i nuovi accordi pubblicitari per rivalutare le proprie ambizioni

Perplexity mette in pausa i nuovi accordi pubblicitari per rivalutare le proprie ambizioni

Perplexity ha sospeso l’accettazione di nuovi inserzionisti mentre ripensa a come gli annunci pubblicitari si inseriscono nella sua esperienza di ricerca AI, segnalando un cambiamento nella sua spinta alla monetizzazione. All’Advertising Week di New York, Jessica Chan, responsabile delle partnership con gli editori di Perplexity, ha dichiarato che l’azienda non sta “accettando nuovi inserzionisti” e che gli annunci pubblicitari non sono attualmente sulla tabella di marcia del browser AI di Perplexity, Comet. La mossa arriva dopo la partenza ad agosto del responsabile delle vendite pubblicitarie Taz Patel, segnalando un cambiamento rispetto al precedente piano di Perplexity di scalare il proprio business pubblicitario al di fuori degli Stati Uniti. A dicembre, Perplexity ha aggiunto The Independent, LA Times e Blavity al suo Perplexity’s Publisher Program che paga gli editori quando i contenuti appaiono accanto agli annunci pubblicitari. In quell’occasione, Chan ha citato le partnership internazionali come chiave per la crescita di Perplexity. Perplexity ha lanciato la sua offerta di annunci l’anno scorso e ha iniziato a testare campagne con marchi come Indeed, PMG, Universal McCann e Whole Foods Market. Le prime campagne consentivano ai marchi di sponsorizzare domande di follow-up nei risultati di ricerca. “Questo esiste ancora oggi, ma non volevamo inondare l’esperienza dell’utente con una tonnellata di annunci in una notte”, ha detto Chan durante il panel. “Stiamo continuando a scalare in modo molto ponderato e metodico, probabilmente non nella misura che tutti sperano” Ha inoltre sottolineato che i brand stanno ripensando a come spendere i loro budget. Chan ha detto che molti inserzionisti si stanno allontanando dalla ricerca tradizionale incentrata sulle prestazioni per orientarsi verso la consapevolezza del marchio nel top-of-funnel, un’area che Perplexity potrebbe perseguire in futuro. Perplexity non ha risposto alla richiesta di ulteriori commenti oltre a quelli di Chan alla Advertising Week. La pubblicità sembra costituire solo una piccola parte delle entrate di Perplexity. Secondo The Information, l’anno scorso l’azienda ha generato solo 20.000 dollari di entrate pubblicitarie su 34 milioni di dollari di entrate totali . Mentre Perplexity rivaluta le sue ambizioni in fatto di annunci pubblicitari, rimangono dubbi sull’entità dei ricavi che il suo modello sta effettivamente generando per gli editori. Due acquirenti di annunci hanno dichiarato ad ADWEEK di aver avuto difficoltà a misurare le metriche di performance come i tassi di click-through e il ritorno sulla spesa pubblicitaria su Perplexity perché la piattaforma non offre strumenti simili a quelli degli operatori pubblicitari affermati. Un editore che partecipa al programma di condivisione delle entrate di Perplexity ha dichiarato che finora l’azienda ha generato poche entrate significative. “I modelli di business digitali che si sono dimostrati più efficaci sono quelli basati sulle prestazioni”, ha dichiarato Debra Aho Williamson, fondatrice e analista capo di Sonata Insights. “Le aziende che hanno lanciato un modello di brand awareness come Perplexity hanno faticato a mantenere lo slancio” A parte la pubblicità, Perplexity continua a costruire il suo ecosistema intorno al browser web Comet. Perplexity descrive Comet come un browser per “editori e giornalisti di fiducia”, tra cui CNN, Condé Nast, The Washington Post, Los Angeles Times, Fortune, Le Monde e Le Figaro. Il mese scorso, Perplexity ha reso Comet gratuito per tutti gli utenti. Leggi di più su www.adweek.com

Il piccolo modello di intelligenza artificiale di Samsung batte i giganteschi LLM di ragionamento

Il piccolo modello di intelligenza artificiale di Samsung batte i giganteschi LLM di ragionamento

Un nuovo documento di un ricercatore Samsung AI spiega come una piccola rete possa battere i grandi modelli linguistici (LLM) in ragionamenti complessi. Nella corsa alla supremazia dell’intelligenza artificiale, il mantra del settore è stato spesso “più grande è meglio” I giganti tecnologici hanno investito miliardi nella creazione di modelli sempre più grandi, ma secondo Alexia Jolicoeur-Martineau di Samsung SAIL Montréal, con il Tiny Recursive Model (TRM) è possibile percorrere una strada radicalmente diversa e più efficiente. Utilizzando un modello con soli 7 milioni di parametri, meno dello 0,01% delle dimensioni dei principali LLM, il TRM raggiunge nuovi risultati all’avanguardia su benchmark notoriamente difficili come il test di intelligenza ARC-AGI. Il lavoro di Samsung sfida l’ipotesi prevalente che la scala pura sia l’unico modo per far progredire le capacità dei modelli di intelligenza artificiale, offrendo un’alternativa più sostenibile ed efficiente dal punto di vista dei parametri. Superare i limiti della scala Sebbene i LLM abbiano dimostrato un’incredibile abilità nel generare testi simili a quelli umani, la loro capacità di eseguire ragionamenti complessi e in più fasi può essere fragile. Poiché generano risposte token per token, un singolo errore nelle prime fasi del processo può far deragliare l’intera soluzione, portando a una risposta finale non valida. Per ovviare a questo problema sono state sviluppate tecniche come la Chain-of-Thought, in cui un modello “pensa ad alta voce” per risolvere un problema. Tuttavia, questi metodi sono computazionalmente costosi, spesso richiedono grandi quantità di dati di ragionamento di alta qualità che potrebbero non essere disponibili e possono comunque produrre una logica errata. Anche con questi miglioramenti, gli LLM faticano a risolvere alcuni enigmi in cui è necessaria una perfetta esecuzione logica. Il lavoro di Samsung si basa su un recente modello di intelligenza artificiale noto come Hierarchical Reasoning Model (HRM). L’HRM ha introdotto un metodo innovativo che utilizza due piccole reti neurali che lavorano ricorsivamente su un problema a frequenze diverse per perfezionare una risposta. Il metodo era molto promettente ma complicato, in quanto si basava su argomentazioni biologiche incerte e su complessi teoremi a punto fisso di cui non era garantita l’applicabilità. Invece delle due reti dell’HRM, il TRM utilizza un’unica, piccola rete che migliora ricorsivamente sia il suo “ragionamento” interno che la “risposta” proposta. Il modello riceve la domanda, un’ipotesi iniziale di risposta e una caratteristica di ragionamento latente. Prima esegue diversi cicli per affinare il suo ragionamento latente sulla base di tutti e tre gli input. Poi, utilizzando questo ragionamento migliorato, aggiorna la sua previsione per la risposta finale. L’intero processo può essere ripetuto fino a 16 volte, consentendo al modello di correggere progressivamente i propri errori in modo estremamente efficiente dal punto di vista dei parametri. Controintuitivamente, la ricerca ha scoperto che una piccola rete con soli due strati ha ottenuto una generalizzazione di gran lunga migliore rispetto a una versione a quattro strati. Questa riduzione delle dimensioni sembra impedire al modello di adattarsi in modo eccessivo, un problema comune quando ci si allena su set di dati più piccoli e specializzati. Inoltre, il TRM elimina le complesse giustificazioni matematiche utilizzate dal suo predecessore. Il modello HRM originale richiedeva l’assunzione che le sue funzioni convergessero a un punto fisso per giustificare il suo metodo di addestramento. Il modello TRM lo aggira completamente, semplicemente eseguendo un back-propagation attraverso l’intero processo di ricorsione. Questa modifica da sola ha dato un enorme impulso alle prestazioni, migliorando l’accuratezza del benchmark Sudoku-Extreme dal 56,5% all’87,4% in uno studio di ablazione. Il modello di Samsung supera i benchmark dell’intelligenza artificiale con meno risorse I risultati parlano da soli. Sul dataset Sudoku-Extreme, che utilizza solo 1.000 esempi di addestramento, TRM raggiunge un’accuratezza di test dell’87,4%, un enorme balzo rispetto al 55% di HRM. Su Maze-Hard, un compito che prevede la ricerca di percorsi lunghi attraverso labirinti 30×30, TRM ottiene l’85,3% rispetto al 74,5% di HRM. Soprattutto, TRM fa passi da gigante nell’Abstraction and Reasoning Corpus (ARC-AGI), un benchmark progettato per misurare la vera intelligenza fluida nell’IA. Con soli 7 milioni di parametri, TRM raggiunge un’accuratezza del 44,6% su ARC-AGI-1 e del 7,8% su ARC-AGI-2. Questo risultato supera HRM, che utilizzava un modello con 27 milioni di parametri, e supera persino molti dei più grandi LLM del mondo. Per fare un confronto, Gemini 2.5 Pro ha ottenuto solo il 4,9% su ARC-AGI-2. Anche il processo di formazione del TRM è stato reso più efficiente. Un meccanismo adattivo chiamato ACT – che decide quando il modello ha migliorato a sufficienza una risposta e può passare a un nuovo campione di dati – è stato semplificato per eliminare la necessità di un secondo, costoso passaggio in avanti attraverso la rete durante ogni fase di formazione. Questa modifica è stata apportata senza grandi differenze nella generalizzazione finale. Questa ricerca di Samsung presenta un argomento convincente contro l’attuale traiettoria di modelli di intelligenza artificiale in continua espansione. Dimostra che progettando architetture in grado di ragionare e autocorreggersi in modo iterativo, è possibile risolvere problemi estremamente difficili con una frazione minima delle risorse computazionali. Leggi di più su www.artificialintelligence-news.com

Il nuovo agente AI di Google riscrive il codice per automatizzare le correzioni delle vulnerabilità

Il nuovo agente AI di Google riscrive il codice per automatizzare le correzioni delle vulnerabilità

Google DeepMind ha messo in campo un nuovo agente AI progettato per trovare e correggere autonomamente le vulnerabilità di sicurezza critiche nel codice del software. Il sistema, giustamente chiamato CodeMender, ha già apportato 72 correzioni di sicurezza a progetti open-source consolidati negli ultimi sei mesi. L’identificazione e la correzione delle vulnerabilità è un processo notoriamente difficile e lungo, anche con l’aiuto di metodi automatizzati tradizionali come il fuzzing. La ricerca di Google DeepMind, che comprende progetti basati sull’intelligenza artificiale come Big Sleep e OSS-Fuzz, si è dimostrata efficace nello scoprire nuove vulnerabilità zero-day in codici ben controllati. Questo successo, tuttavia, crea un nuovo collo di bottiglia: man mano che l’IA accelera la scoperta delle falle, si intensifica l’onere per gli sviluppatori umani di risolverle. CodeMender è stato progettato per risolvere questo squilibrio. Funziona come un agente AI autonomo che adotta un approccio completo per risolvere la sicurezza del codice. Le sue capacità sono sia reattive, in quanto gli permettono di correggere istantaneamente le vulnerabilità appena scoperte, sia proattive, in quanto gli consentono di riscrivere il codice esistente per eliminare intere classi di difetti di sicurezza prima che possano essere sfruttati. Questo permette agli sviluppatori e ai manutentori dei progetti di dedicare più tempo alla creazione di funzionalità e al miglioramento del software. Il sistema funziona sfruttando le capacità di ragionamento avanzato dei recenti modelli Gemini Deep Think di Google. Questa base consente all’agente di eseguire il debug e di risolvere complessi problemi di sicurezza con un elevato grado di autonomia. A tal fine, il sistema è dotato di una serie di strumenti che gli consentono di analizzare e ragionare sul codice prima di implementare qualsiasi modifica. CodeMender include anche un processo di validazione per garantire che le modifiche siano corrette e non introducano nuovi problemi, noti come regressioni. Sebbene i modelli linguistici di grandi dimensioni stiano avanzando rapidamente, un errore in materia di sicurezza del codice può avere conseguenze costose. La struttura di validazione automatica di CodeMender è quindi essenziale. Controlla sistematicamente che le modifiche proposte risolvano il problema alla radice, siano funzionalmente corrette, non interrompano i test esistenti e aderiscano alle linee guida sullo stile di codifica del progetto. Solo le patch di alta qualità che soddisfano questi criteri rigorosi vengono sottoposte alla revisione umana. Per migliorare l’efficacia della correzione del codice, il team di DeepMind ha sviluppato nuove tecniche per l’agente AI. CodeMender impiega un’analisi avanzata dei programmi, utilizzando una suite di strumenti che comprende analisi statica e dinamica, test differenziali, fuzzing e risolutori SMT. Questi strumenti gli permettono di esaminare sistematicamente i modelli di codice, il flusso di controllo e il flusso di dati per identificare le cause fondamentali delle falle di sicurezza e delle debolezze architettoniche. Il sistema utilizza anche un’architettura multi-agente, in cui vengono impiegati agenti specializzati per affrontare aspetti specifici di un problema. Ad esempio, uno strumento dedicato alla critica basata su modelli linguistici di grandi dimensioni rivela le differenze tra il codice originale e quello modificato. Questo permette all’agente principale di verificare che le modifiche proposte non introducano effetti collaterali indesiderati e di autocorreggere il proprio approccio quando necessario. In un esempio pratico, CodeMender ha affrontato una vulnerabilità in cui un crash report indicava un heap buffer overflow. Sebbene la patch finale richiedesse solo la modifica di alcune righe di codice, la causa principale non era immediatamente evidente. Utilizzando un debugger e strumenti di ricerca del codice, l’agente ha determinato che il vero problema era un problema di gestione dello stack non corretto con gli elementi dell’Extensible Markup Language (XML) durante l’analisi, situato in un altro punto del codice. In un altro caso, l’agente ha ideato una patch non banale per un complesso problema di durata degli oggetti, modificando un sistema personalizzato per la generazione di codice C all’interno del progetto di destinazione. Oltre a reagire semplicemente ai bug esistenti, CodeMender è stato progettato per proteggere in modo proattivo il software dalle minacce future. Il team ha utilizzato l’agente per applicare le annotazioni -fbounds-safety a parti di libwebp, una libreria di compressione di immagini molto utilizzata. Queste annotazioni istruiscono il compilatore ad aggiungere controlli sui limiti al codice, che possono impedire a un aggressore di sfruttare un buffer overflow per eseguire codice arbitrario. Questo lavoro è particolarmente importante perché una vulnerabilità di heap buffer overflow in libwebp, segnalata come CVE-2023-4863, è stata utilizzata da un attore di minacce in un exploit iOS zero-click diversi anni fa. DeepMind fa notare che, grazie a queste annotazioni, quella specifica vulnerabilità, insieme alla maggior parte degli altri buffer overflow presenti nelle sezioni annotate, sarebbe stata resa non sfruttabile. La correzione proattiva del codice da parte dell’agente AI comporta un sofisticato processo decisionale. Quando applica le annotazioni, può correggere automaticamente i nuovi errori di compilazione e i fallimenti dei test che derivano dalle sue stesse modifiche. Se gli strumenti di convalida rilevano che una modifica ha compromesso una funzionalità, l’agente si autocorregge in base al feedback e tenta una soluzione diversa. Nonostante questi primi risultati promettenti, Google DeepMind sta adottando un approccio cauto e deliberato alla distribuzione, con una forte attenzione all’affidabilità. Al momento, ogni patch generata da CodeMender viene rivista da ricercatori umani prima di essere inviata a un progetto open-source. Il team sta gradualmente aumentando gli invii per garantire un’elevata qualità e per incorporare sistematicamente il feedback della comunità open-source. In prospettiva, i ricercatori intendono raggiungere i manutentori di progetti open-source critici con le patch generate da CodeMender. Grazie all’iterazione del feedback della comunità, sperano di rilasciare CodeMender come strumento disponibile al pubblico per tutti gli sviluppatori di software. Il team di DeepMind intende inoltre pubblicare nei prossimi mesi articoli e relazioni tecniche per condividere le proprie tecniche e i propri risultati. Questo lavoro rappresenta i primi passi nell’esplorazione del potenziale degli agenti di intelligenza artificiale per correggere in modo proattivo il codice e migliorare radicalmente la sicurezza del software per tutti. Leggi di più su www.artificialintelligence-news.com

Samsung analizza la produttività reale dei modelli AI aziendali

Samsung analizza la produttività reale dei modelli AI aziendali

Samsung sta superando i limiti dei benchmark esistenti per valutare meglio la produttività reale dei modelli di IA in ambito aziendale. Il nuovo sistema, sviluppato da Samsung Research e denominato TRUEBench, mira a risolvere la crescente disparità tra le prestazioni teoriche dell’IA e la sua effettiva utilità sul posto di lavoro. Mentre le aziende di tutto il mondo accelerano l’adozione di modelli linguistici di grandi dimensioni (LLM) per migliorare le loro operazioni, è emersa una sfida: come valutare accuratamente la loro efficacia. Molti benchmark esistenti si concentrano su test accademici o di conoscenza generale, spesso limitati all’inglese e a semplici formati di domande e risposte. Questo ha creato una lacuna che lascia le aziende senza un metodo affidabile per valutare le prestazioni di un modello di IA in compiti aziendali complessi, multilingue e ricchi di contesto. Il TRUEBench di Samsung, acronimo di Trustworthy Real-world Usage Evaluation Benchmark, è stato sviluppato per colmare questa lacuna. Fornisce una suite completa di metriche che valutano i LLM sulla base di scenari e compiti direttamente legati agli ambienti aziendali del mondo reale. Il benchmark si basa sull’ampio uso interno di Samsung dei modelli di intelligenza artificiale, garantendo che i criteri di valutazione siano basati sulle reali esigenze del luogo di lavoro. Il framework valuta funzioni aziendali comuni come la creazione di contenuti, l’analisi dei dati, la sintesi di lunghi documenti e la traduzione di materiali. Queste sono suddivise in 10 categorie distinte e 46 sottocategorie, che forniscono una visione granulare delle capacità di produttività di un’IA. “Samsung Research apporta una profonda competenza e un vantaggio competitivo grazie alla sua esperienza nell’IA del mondo reale”, ha dichiarato Paul (Kyungwhoon) Cheun, CTO della divisione DX di Samsung Electronics e responsabile di Samsung Research. “Ci aspettiamo che TRUEBench stabilisca degli standard di valutazione per la produttività” Per affrontare i limiti dei vecchi benchmark, TRUEBench si basa su una serie di 2.485 test diversi che abbracciano 12 lingue diverse e supportano scenari interlinguistici. Questo approccio multilingue è fondamentale per le aziende globali in cui le informazioni circolano in diverse regioni. Gli stessi materiali di test riflettono la varietà delle richieste sul posto di lavoro, che vanno da brevi istruzioni di soli otto caratteri alla complessa analisi di documenti che superano i 20.000 caratteri. Samsung ha riconosciuto che in un contesto aziendale reale, l’intento dell’utente non è sempre esplicitamente dichiarato nella richiesta iniziale. Il benchmark è quindi progettato per valutare la capacità di un modello di intelligenza artificiale di comprendere e soddisfare queste esigenze aziendali implicite, andando oltre la semplice accuratezza e passando a una misura più sfumata di utilità e pertinenza. Per raggiungere questo obiettivo, Samsung Research ha sviluppato un processo di collaborazione unico tra esperti umani e IA per creare i criteri di valutazione della produttività. Inizialmente, gli annotatori umani stabiliscono gli standard di valutazione per una determinata attività. Un’intelligenza artificiale esamina poi questi standard, verificando la presenza di potenziali errori, contraddizioni interne o vincoli inutili che potrebbero non riflettere un’aspettativa realistica dell’utente. In seguito al feedback dell’IA, gli annotatori umani perfezionano i criteri. Questo ciclo iterativo garantisce che gli standard di valutazione finali siano precisi e riflettano un risultato di alta qualità. Questo processo di verifica incrociata fornisce un sistema di valutazione automatizzato che assegna un punteggio alle prestazioni dei LLM. Utilizzando l’intelligenza artificiale per applicare questi criteri raffinati, il sistema riduce al minimo i pregiudizi soggettivi che possono verificarsi con l’assegnazione di punteggi esclusivamente umani, garantendo coerenza e affidabilità in tutti i test. TRUEBench impiega anche un modello di punteggio rigoroso in cui un modello AI deve soddisfare tutte le condizioni associate a un test per ricevere un voto positivo. Questo approccio “tutto o niente” per le singole condizioni consente di valutare in modo più dettagliato ed esigente le prestazioni dei modelli di IA nelle diverse attività aziendali. Per aumentare la trasparenza e incoraggiare un’adozione più ampia, Samsung ha reso pubblici i campioni di dati e le classifiche di TRUEBench sulla piattaforma open-source globale Hugging Face. Questo permette a sviluppatori, ricercatori e aziende di confrontare direttamente le prestazioni di produttività di un massimo di cinque diversi modelli di IA contemporaneamente. La piattaforma fornisce una panoramica chiara e immediata di come le varie IA si posizionano l’una rispetto all’altra in compiti pratici. Al momento della stesura di questo articolo, ecco i 20 modelli migliori per classifica generale in base al benchmark AI di Samsung: I dati completi pubblicati includono anche la lunghezza media delle risposte generate dall’IA. Ciò consente di confrontare simultaneamente non solo le prestazioni ma anche l’efficienza, un aspetto fondamentale per le aziende che valutano i costi operativi e la velocità. Con il lancio di TRUEBench, Samsung non si limita a rilasciare un altro strumento, ma punta a cambiare il modo in cui il settore pensa alle prestazioni dell’IA. Spostando l’obiettivo dalla conoscenza astratta alla produttività tangibile, il benchmark di Samsung potrebbe aiutare le aziende a prendere decisioni migliori su quali modelli di IA aziendali integrare nei loro flussi di lavoro e a colmare il divario tra il potenziale di un’IA e il suo valore comprovato. Leggi di più su www.artificialintelligence-news.com

La qualità dei dati è fondamentale per la crescita guidata dall’AI

La qualità dei dati è fondamentale per la crescita guidata dall'AI

Mentre le aziende si affrettano a implementare l’IA, molte scoprono che il successo del progetto dipende direttamente dalla qualità dei dati. Questa dipendenza fa sì che molte iniziative ambiziose si arenino, non andando mai oltre la fase sperimentale di proof-of-concept. Qual è quindi il segreto per trasformare questi esperimenti in veri e propri generatori di reddito? AI News ha incontrato Martin Frederik, responsabile regionale per Paesi Bassi, Belgio e Lussemburgo del gigante del cloud dei dati Snowflake, per scoprirlo. “Non esiste una strategia di AI senza una strategia di dati”, afferma Frederik. “Le app, gli agenti e i modelli di IA sono efficaci quanto i dati su cui sono costruiti e, senza un’infrastruttura di dati unificata e ben gestita, anche i modelli più avanzati possono fallire” Migliorare la qualità dei dati è fondamentale per il successo dei progetti di IA È una storia familiare per molte organizzazioni: un promettente proof-of-concept impressiona il team ma non si traduce mai in uno strumento che fa guadagnare l’azienda. Secondo Frederik, questo accade spesso perché i leader considerano la tecnologia come un obiettivo finale. “L’intelligenza artificiale non è la meta, ma il veicolo per raggiungere gli obiettivi aziendali”, consiglia Frederik. Quando i progetti si bloccano, di solito i colpevoli sono alcuni: il progetto non è veramente allineato con le esigenze dell’azienda, i team non si parlano tra loro o i dati non sono chiari. È facile scoraggiarsi di fronte alle statistiche che indicano che l’80% dei progetti di IA non raggiunge la produzione, ma Frederik offre una prospettiva diversa. Non si tratta necessariamente di un fallimento, suggerisce, ma di “parte del processo di maturazione”. Per chi riesce a creare le basi giuste, i vantaggi sono molto concreti. Un recente studio di Snowflake ha rilevato che il 92% delle aziende sta già vedendo un ritorno sui propri investimenti nell’IA. Infatti, per ogni sterlina spesa, ne ricevono 1,41 in termini di risparmi sui costi e nuove entrate. La chiave, ripete Frederik, è avere una “piattaforma sicura, governata e centralizzata” per i tuoi dati fin dall’inizio. Non si tratta solo di tecnologia, ma anche di persone Anche con la migliore tecnologia, una strategia di IA può fallire se la cultura aziendale non è pronta. Una delle sfide più grandi è portare i dati nelle mani di tutti coloro che ne hanno bisogno, non solo di pochi scienziati dei dati. Per far funzionare l’IA su scala, devi costruire solide fondamenta nelle tue “persone, processi e tecnologie” Ciò significa abbattere i muri tra i reparti e rendere accessibili a tutti dati di qualità e strumenti di IA. “Con la giusta governance, l’IA diventa una risorsa condivisa piuttosto che uno strumento isolato”, spiega Frederik. Quando tutti lavorano da un’unica fonte di verità, i team possono smettere di discutere su quali numeri siano corretti e iniziare a prendere insieme decisioni più rapide e intelligenti. Il prossimo salto: L’intelligenza artificiale che ragiona da sola La vera svolta a cui stiamo assistendo è l’emergere di agenti di intelligenza artificiale in grado di comprendere e ragionare su tutti i tipi di dati contemporaneamente, indipendentemente dalla qualità della struttura; dalle righe e colonne ordinate di un foglio di calcolo, alle informazioni non strutturate contenute in documenti, video ed e-mail. Considerando che questi dati non strutturati costituiscono l’80-90% dei dati di una tipica azienda, si tratta di un enorme passo avanti. I nuovi strumenti consentono al personale, indipendentemente dal livello di competenza tecnica, di porre domande complesse in inglese semplice e di ottenere risposte direttamente dai dati. Frederik spiega che si tratta di un passo avanti verso quella che chiama “autonomia orientata agli obiettivi”. Finora l’intelligenza artificiale era un assistente utile che dovevi dirigere costantemente. “Se fai una domanda, ottieni una risposta; se chiedi un codice, ottieni uno snippet”, osserva. La prossima generazione di IA è diversa. Potrai dare a un agente un obiettivo complesso e lui capirà da solo i passaggi necessari, dalla scrittura del codice all’acquisizione di informazioni da altre app per fornire una risposta completa. Questo automatizzerà le parti più lunghe del lavoro di un data scientist, come la “noiosa pulizia dei dati” e la “ripetitiva messa a punto dei modelli” Il risultato? Libera le menti più brillanti per concentrarsi su ciò che conta davvero. Questo eleva il tuo personale “da professionista a stratega” e gli permette di creare valore reale per l’azienda. E questo non può che essere un bene. Snowflake è uno degli sponsor principali dell’AI & Big Data Expo Europedi quest’anno e avrà una serie di relatori che condivideranno le loro profonde intuizioni durante l’evento. Passa allo stand di Snowflake, al numero 50, per saperne di più su come rendere l’AI aziendale facile, efficiente e affidabile.   Leggi di più su www.artificialintelligence-news.com

Il deficit di fiducia del pubblico è un ostacolo importante per la crescita dell’IA

Il deficit di fiducia del pubblico è un ostacolo importante per la crescita dell'IA

Mentre i politici fanno leva sulle promesse di crescita ed efficienza dell’IA, un nuovo rapporto rivela un deficit di fiducia da parte dei cittadini nei confronti di questa tecnologia. Molti sono profondamente scettici e questo crea un grosso problema ai piani dei governi. Un’indagine approfondita condotta dal Tony Blair Institute for Global Change (TBI) e da Ipsos ha messo nero su bianco questa sensazione di disagio. È emerso che la mancanza di fiducia è il motivo principale per cui le persone si tirano indietro di fronte all’utilizzo dell’IA generativa. Non si tratta solo di una vaga preoccupazione, ma di un vero e proprio ostacolo che frena la rivoluzione dell’IA di cui i politici sono tanto entusiasti. La fiducia del pubblico nell’IA aumenta con l’uso Il rapporto mostra un’interessante divisione nel modo in cui vediamo l’IA. Da un lato, più della metà di noi si è cimentata con strumenti di IA generativa nell’ultimo anno. Si tratta di un’adozione piuttosto rapida per una tecnologia che fino a pochi anni fa era a malapena sul radar del pubblico. Tuttavia, quasi la metà del paese non ha mai utilizzato l’IA, né a casa né al lavoro. Questo crea un enorme divario nel modo in cui le persone percepiscono l’IA e la sua crescita. I dati suggeriscono che più si utilizza l’IA, più si tende a fidarsi di essa. Per le persone che non hanno mai utilizzato l’IA, il 56% la vede come un rischio per la società. Ma per le persone che la usano ogni settimana, questa percentuale si riduce di oltre la metà, scendendo al 26%. Si tratta di un classico caso di familiarità che genera comfort. Se non hai mai avuto un’esperienza positiva con l’IA, è molto più facile credere ai titoli spaventosi. Vedere i suoi limiti in prima persona aiuta anche a contrastare il timore che tutti stiano per essere sostituiti dall’IA. Questo divario nella fiducia del pubblico nei confronti dell’IA dipende anche dall’età. I giovani sono generalmente più ottimisti, mentre le generazioni più anziane sono più caute. I professionisti del mondo tecnologico si sentono pronti per ciò che sta per accadere, ma quelli di settori come la sanità e l’istruzione? Si sentono molto meno fiduciosi, anche se i loro lavori saranno probabilmente più influenzati dalla crescita dell’IA. Non è importante quello che fai, ma il modo in cui lo fai Uno degli aspetti più rivelatori del rapporto è che i nostri sentimenti nei confronti dell’IA cambiano a seconda del lavoro che sta svolgendo. Siamo felici che l’IA ci aiuti a risolvere gli ingorghi stradali o a velocizzare la diagnosi del cancro. Perché? Perché possiamo vedere i benefici diretti e positivi per le nostre vite. È una tecnologia che sta chiaramente lavorando per noi. Ma se chiediamo alle persone cosa ne pensano dell’IA che monitora le loro prestazioni sul lavoro o che viene utilizzata per indirizzarli con annunci politici, l’umore peggiora immediatamente. L’accettazione crolla. Questo dimostra che le nostre preoccupazioni non riguardano la crescita dell’IA in sé, ma il suo scopo. Vogliamo sapere se l’IA viene usata a fin di bene e se ci sono delle regole che impediscono alle grandi aziende tecnologiche di avere il coltello dalla parte del manico. Come possiamo aumentare la fiducia del pubblico nell’IA per sostenere la crescita? Il rapporto del TBI non si limita a evidenziare il problema, ma offre un percorso chiaro per costruire quella che definisce “fiducia giustificata” Innanzitutto, il governo deve cambiare il modo in cui parla di IA. Dimentica le promesse astratte di aumento del PIL. Parla invece di ciò che significa per la vita delle persone: ottenere un appuntamento in ospedale più velocemente, rendere i servizi pubblici più facili da usare o ridurre gli spostamenti quotidiani. Mostra, non limitarti a raccontare, i benefici della crescita dell’IA. Poi, dimostra che funziona. Quando l’IA viene utilizzata nei servizi pubblici, dobbiamo vedere la prova che sta effettivamente migliorando le cose per le persone reali, non solo che è più efficiente per un foglio di calcolo. La misura del successo dovrebbe essere la nostra esperienza, non solo un benchmark tecnico. Naturalmente, tutto questo non funziona senza regole e formazione adeguate. Le autorità di regolamentazione devono avere il potere e il know-how necessari per tenere sotto controllo l’IA e tutti noi dobbiamo avere accesso alla formazione per sentirci sicuri di utilizzare questi nuovi strumenti in modo sicuro ed efficace. L’obiettivo è quello di rendere l’IA qualcosa con cui tutti possiamo lavorare, non qualcosa che sembra essere fatto per noi. Costruire la fiducia del pubblico nell’IA per sostenerne la crescita significa costruire la fiducia nelle persone e nelle istituzioni che se ne occupano. Se il governo riesce a dimostrare che si impegna a far funzionare l’IA per tutti, potrebbe coinvolgere il pubblico. Leggi di più su www.artificialintelligence-news.com

Trump scherza sull’intelligenza artificiale mentre Stati Uniti e Regno Unito firmano un nuovo accordo tecnologico

Trump scherza sull'intelligenza artificiale mentre Stati Uniti e Regno Unito firmano un nuovo accordo tecnologico

Il Presidente degli Stati Uniti Donald Trump ha affermato giovedì che l’intelligenza artificiale sta “conquistando il mondo” e ha scherzato dicendo che spera che i dirigenti del settore tecnologico la capiscano meglio di lui. Il commento è arrivato nel momento in cui Trump e il primo ministro britannico Keir Starmer hanno ospitato a Londra un incontro di leader del mondo dell’economia e della tecnologia durante la seconda visita di Stato del presidente in Gran Bretagna. Tra i presenti c’era anche il CEO di Nvidia Jensen Huang, la cui azienda è diventata centrale nel boom globale dell’intelligenza artificiale. Dopo un discorso preparato sui legami tra Stati Uniti e Regno Unito, sulle nuove partnership e sui miliardi di dollari di investimenti promessi, Trump ha ammesso di avere una scarsa conoscenza dell’IA. “Questo creerà una nuova cooperazione tra governo, mondo accademico e settore privato in aree come l’IA, che sta conquistando il mondo […] Sto guardando voi ragazzi. State conquistando il mondo. Jensen, non so cosa tu stia facendo qui”, ha detto Trump, suscitando le risate di Starmer e del pubblico. “Spero che tu abbia ragione. Posso solo dire che entrambi speriamo che tu abbia ragione” Trump e Starmer firmano un accordo tecnologico incentrato sull’AI Il momento clou dell’evento è stata la firma di un “Tech Prosperity Deal”, che definisce i piani dei due Paesi per approfondire la cooperazione nelle tecnologie emergenti. L’accordo riguarda progetti come lo sviluppo di modelli di intelligenza artificiale per l’assistenza sanitaria, il progresso dell’informatica quantistica e la modernizzazione dei programmi nucleari. Come parte dell’accordo, Nvidia si è impegnata a distribuire 120.000 GPU in Gran Bretagna. Si tratterà del più grande rollout dell’azienda in Europa. La mossa parallela di Nvidia con Intel Giovedì scorso, Nvidia ha rivelato un investimento di 5 miliardi di dollari in Intel e una collaborazione con quest’ultima su nuovi prodotti. Le due aziende lavoreranno insieme su data center personalizzati che supportano i sistemi di intelligenza artificiale e su processori per personal computer. Nvidia ha dichiarato che intende acquistare azioni Intel a 23,28 dollari per azione, previa approvazione da parte delle autorità competenti. L’investimento arriva mentre Intel cerca di recuperare terreno dopo anni di declino. “Questa storica collaborazione unisce strettamente lo stack di AI e di calcolo accelerato di Nvidia con le CPU e il vasto ecosistema x86 di Intel – una fusione di due piattaforme di livello mondiale”, ha dichiarato Huang. “Insieme, espanderemo i nostri ecosistemi e getteremo le basi per la prossima era dell’informatica” Per i data center, Intel progetterà chip che supporteranno l’infrastruttura AI di Nvidia. Per i PC desktop, Intel produrrà processori che integreranno la tecnologia di Nvidia, dando all’azienda la possibilità di spingersi in aree in cui ha perso slancio. Un’ancora di salvezza per Intel La partnership offre una spinta a Intel, un tempo colonna portante dei personal computer ma ora in difficoltà nel tenere il passo. L’azienda ha perso il passaggio agli smartphone dopo che l’iPhone di Apple ha trasformato il mercato nel 2007 e più recentemente è rimasta indietro nella corsa all’hardware per l’intelligenza artificiale. Nvidia, nel frattempo, è diventata l’azienda di maggior valore al mondo. Gli investitori hanno reagito rapidamente: Le azioni di Intel hanno fatto un balzo del 30% nelle contrattazioni pre-mercato, mentre quelle di Nvidia sono salite di quasi il 3%. Prima di firmare l’accordo, Trump ha aggiunto una dose di umorismo, rivolgendosi al Segretario del Tesoro Scott Bessent e chiedendo: “Devo firmare? Sei sicuro, Scott? Se l’accordo non va bene, la colpa è tua” Durante la visita nel Regno Unito, Trump ha anche detto di sperare che l’IA sia gestita con saggezza dagli esperti che ne guidano lo sviluppo, dal momento che ha ammesso che è al di là della sua comprensione. L’amministrazione Trump monitora da vicino la concorrenza dell’IA Mentre le partnership si espandono, le autorità di regolamentazione degli Stati Uniti si concentrano maggiormente sulla concorrenza nel settore dell’IA. Parlando a una conferenza a New York, l’Assistente del Procuratore Generale Gail Slater ha dichiarato che il Dipartimento di Giustizia degli Stati Uniti è in allerta per i comportamenti anticoncorrenziali nel settore. “Le dinamiche competitive di ogni livello dello stack dell’IA e le loro interrelazioni, con un occhio particolare ai comportamenti di esclusione che precludono l’accesso a input e canali di distribuzione chiave, sono aree legittime di indagine antitrust”, ha dichiarato. “Naturalmente, un modello veramente open-source non deve essere gestito unilateralmente da un singolo fornitore che esercita un’influenza ingiustificata e impone restrizioni” Un aspetto fondamentale è l’accesso ai dati. Un giudice federale di Washington ha recentemente ordinato a Google di condividere alcuni dei suoi dati di ricerca con i rivali, comprese le aziende di intelligenza artificiale, per contribuire a livellare il campo di gioco della ricerca online. Google ha dichiarato che farà appello a questa sentenza. Le osservazioni di Slater riflettono una continuità di preoccupazioni. Anche i funzionari dell’Antitrust sotto il presidente Joe Biden hanno esaminato i legami delle big tech con le startup di IA, a dimostrazione del fatto che entrambe le amministrazioni ritengono che la concorrenza sia fondamentale per il futuro dell’IA. (Foto di History in HD) Leggi di più su www.artificialintelligence-news.com

Claude di Anthropic fa la prima grande operazione pubblicitaria per affrontare i rivali dell’intelligenza artificiale

Claude di Anthropic fa la prima grande operazione pubblicitaria per affrontare i rivali dell'intelligenza artificiale

La prima grande campagna di Anthropic per il suo chatbot AI di punta, Claude, ha una visione ottimistica del potenziale della tecnologia nell’affrontare i grandi problemi del mondo. Oggi Anthropic ha lanciato “Keep Thinking” per posizionare Claude come il miglior strumento di IA per i risolutori di problemi. La campagna, creata dall’agenzia indipendente Mother, rappresenta un investimento mediatico multimilionario e il primo ingresso di Anthropic nella pubblicità a pagamento, secondo il marchio. La posta in gioco è alta per Anthropic, valutata 183 miliardi di dollari, per differenziarsi nel boom dell’IA generativa. Anche rivali come Perplexity e OpenAI, che ha lanciato il suo primo spot al Super Bowl a febbraio, si sono spinti nella pubblicità tradizionale nell’ultimo anno. A marzo, Anthropic si è estesa alla ricerca sul web. All’inizio di questo mese, l’azienda ha accettato di pagare 1,5 miliardi di dollari per risolvere una causa collettiva per violazione del copyright relativa all’uso di libri pirata per addestrare modelli linguistici di grandi dimensioni. La nuova pubblicità di Claude, diretta da Daniel Wolfe attraverso la casa di produzione Love Song Films, inizia con una nota negativa, con la frase “Non c’è mai stato un momento peggiore”, che passa sopra un montaggio di immagini che evocano varie sfide. La voce fuori campo passa poi a un invito ottimistico: “Non c’è mai stato un momento migliore per avere un problema” Le scene successive illustrano i problemi, dalle diagnosi mediche alla mancanza di istruzione, che Claude può aiutare ad affrontare. La campagna includerà posizionamenti mediatici di rilievo come trasmissioni durante eventi sportivi dal vivo, servizi di streaming come Netflix e Hulu, stampa sul New York Times e sul Wall Street Journal, podcast e collaborazioni con influencer. Gli annunci out-of-home hanno come protagonisti i ricercatori di Anthropic Kamal Ndousse e Grace Han, nonché i creatori del motore di intelligenza artificiale Poetry Camera, Kelin Zhang, Ryan Mather e Evan Kahn. Initiative è stata l’agenzia media. Parlare ai clienti business Il target di Claude è costituito da “risolutori di problemi”, come sviluppatori, ricercatori e imprenditori. Le ricerche condotte da Anthropic hanno rilevato che Claude.ai e Claude API vengono utilizzati principalmente per attività lavorative come la codifica, la ricerca e l’istruzione. L’azienda ha dichiarato di avere oltre 300.000 clienti commerciali, rispetto ai meno di 1.000 di due anni fa. “Continua a pensare” vuole essere sia un grido d’appello che una promessa: all’industria, che dobbiamo costruire l’IA in modo responsabile; ai risolutori di problemi di tutto il mondo, che ciò che un tempo sembrava impossibile ora è a portata di mano”, ha dichiarato Andrew Stirk, responsabile del marketing del marchio di Anthropic, in un comunicato. “Claude è per coloro che vedono l’IA non come una scorciatoia, ma come un partner di pensiero per affrontare le sfide più importanti” Mother si è aggiudicata l’attività creativa di Anthropic all’inizio di quest’anno. L’agenzia ha utilizzato Claude per lo sviluppo dell’annuncio pubblicitario facendo ricerche sugli scenari di utilizzo, ha dichiarato un portavoce di Mother. “Il film prende atto del nostro presente pieno di problemi, ma riflette l’intelligenza artificiale come soluzione piuttosto che come un’altra minaccia”, ha dichiarato Felix Richter, direttore creativo globale di Mother. Leggi di più su www.adweek.com

Minacce abilitate dall’intelligenza artificiale e regolamentazione più severa in Francia

Minacce abilitate dall'intelligenza artificiale e regolamentazione più severa in Francia

Un nuovo rapporto di ricerca della società di consulenza tecnologica Information Services Group (ISG) ha rivelato che le minacce dell’intelligenza artificiale e le normative più severe stanno modificando il panorama francese della sicurezza informatica, portando le aziende a rivalutare le proprie strategie di sicurezza. L’aumento dei budget destinati alla sicurezza fa sì che molte aziende francesi abbiano bisogno di una nuova guida e di nuove competenze per stabilire priorità efficaci e affrontare le sfide della sicurezza. Secondo il rapporto 2025 ISG Provider Lens Cybersecurity – Services and Solutions, le aziende francesi si stanno adattando a un panorama di sicurezza più complesso e stratificato, e molte adottano una difesa basata sull’intelligenza artificiale. Questo per rispondere alle esigenze introdotte dalle nuove normative, dall’adozione del cloud, dai vincoli finanziari e dalla carenza di lavoratori qualificati, sostiene l’esperto di sicurezza AI. “Il modo in cui le aziende francesi scelgono i servizi di sicurezza sta cambiando”, ha dichiarato Julien Escribe, partner e amministratore delegato di ISG. “Con l’aumento dei budget destinati alla sicurezza, le aziende hanno bisogno di una guida e di una visione per stabilire le giuste priorità e affrontare i problemi di sicurezza” Secondo il rapporto, le aziende iniziano ad affidarsi a soluzioni all-in-one per la sicurezza, piuttosto che a una serie di strumenti separati. Le organizzazioni cercano fornitori di servizi che possano integrare i loro team di sicurezza. Secondo l’azienda, le aziende che migrano verso topologie multicloud e cloud devono affrontare sfide di integrazione, visibilità e gestione. Le aziende hanno difficoltà a mantenere la supervisione delle applicazioni, quindi ricorrono a soluzioni come il secure access service edge (SASE), che unisce la sicurezza di rete e la connettività in un servizio unificato. Il rapporto ha rilevato che le organizzazioni francesi sono alla ricerca di piattaforme di sicurezza integrate per avere una visione unica delle possibili minacce e una supervisione centralizzata delle difese. A causa dello stress finanziario e della continua carenza di talenti nel campo della cybersecurity, molte aziende utilizzano ancora fornitori di servizi di sicurezza tecnica (TSS) per il supporto, le piattaforme centralizzate e l’automazione. ISG afferma che le imprese francesi devono integrare le politiche di governance, rischio e committenza (GRC) nelle loro strategie di sicurezza, poiché le normative europee come la direttiva NIS2 e l’AI Act stanno diventando legge francese. Secondo il rapporto, oltre 15.000 aziende francesi sono ora soggette a ulteriori adempimenti. Il documento mostra come gli attori malintenzionati utilizzino l’intelligenza artificiale nei cyberattacchi, ponendo nuove sfide per il rilevamento e la risposta. Per reagire, le aziende si rivolgono a fornitori di servizi di sicurezza che utilizzano essi stessi l’AI e il ML. I loro clienti stanno investendo maggiormente nel rilevamento guidato dall’AI, nella formazione dei dipendenti e nelle risposte automatizzate. Benoît Scheuber, consulente principale e analista di sicurezza presso ISG, ha affermato che l’IA sta trasformando il panorama della cybersecurity, spingendo le aziende a cercare fornitori in grado di integrare strumenti che aumentino l’efficienza, affermando: “I clienti cercano fornitori in grado di integrare i migliori prodotti in una piattaforma unificata per l’efficienza operativa” (Fonte immagine: “Soldato dell’esercito francese alla Torre Eiffel” di derekskey è concesso in licenza CC BY 2.0.) Leggi di più su www.artificialintelligence-news.com