La crescita del settore AI nel Regno Unito raggiunge il record di 2,9 miliardi di sterline di investimenti

Un rapporto del governo ha rilevato che l’aumento degli investimenti ha portato la crescita del settore dell’intelligenza artificiale nel Regno Unito a superare quella dell’economia in generale di 150 volte dal 2022. Il settore dell’IA nel Regno Unito è chiaramente in piena espansione, con ricavi che hanno superato i record precedenti raggiungendo 23,9 miliardi di sterline nell’ultimo anno. Il motore di questa crescita è una comunità fiorente e in rapida espansione di oltre 5.800 aziende di IA, con un aumento del 58% solo dal 2023. Non si tratta solo di big tech. L’impennata è guidata da startup entusiasmanti. Le piccole e medie imprese rappresentano oltre il 90% delle nuove imprese, alimentando un’ondata di innovazione in tutto il Paese. Questo si traduce in posti di lavoro reali: l’occupazione nel settore è aumentata di un terzo, arrivando a oltre 86.000 persone. Il deputato Feryal Clark, sottosegretario di Stato per l’IA e il governo digitale, ha dichiarato: “Questo significa che dal 2022 il settore dell’IA del Regno Unito è cresciuto 150 volte più velocemente dell’economia in generale. Questa crescita riflette la crescente integrazione dell’IA in tutta l’economia, dall’assistenza sanitaria alla finanza, dalla produzione ai servizi professionali” Quindi, cosa sta alimentando questa impressionante espansione? Un fiume di investimenti. La fiducia degli investitori non è solo tornata, ma si è riaccesa, con un investimento record di 2,9 miliardi di sterline in aziende dedicate all’IA nel 2024. Il Regno Unito è diventato anche una delle principali destinazioni per i capitali internazionali, attirando quest’anno 15 miliardi di sterline di progetti di investimento, che dovrebbero creare oltre 6.500 posti di lavoro. Sebbene Londra e il Sud-Est rimangano il cuore del Regno Unito per quanto riguarda l’intelligenza artificiale, il boom si sta estendendo a tutta la nazione. Regioni come le West Midlands, il North West e lo Yorkshire and the Humber hanno visto il numero di aziende di IA locali almeno raddoppiare dal 2022. Tuttavia, sotto la superficie di questi titoli ottimistici, il settore dell’IA del Regno Unito sta soffrendo per le difficoltà di crescita. Secondo Isabella Grandi, Direttore per la strategia e la governance dei dati di NTT DATA, “Il settore è chiaramente in crescita, ma lo studio rivela anche i punti di pressione. Le aziende faticano a trovare un numero sufficiente di persone qualificate e il capitale per le fasi finali rimane scarso, mentre le linee di demarcazione rimangono confuse” Sebbene il Regno Unito sia un incubatore di livello mondiale per le nuove idee, il rapporto rileva una frustrante mancanza di finanziamenti per le fasi successive di crescita, necessari per trasformare le promettenti startup di IA in giganti globali. Come ha detto un investitore, il Regno Unito è “molto bravo nella fase iniziale, ma [che] nella fase di crescita (oltre la Serie A), c’è un pezzo mancante”. Oltre ai finanziamenti, le imprese chiedono un regolamento più chiaro su come operare. Grandi avverte che il successo a lungo termine del settore dell’IA nel Regno Unito dipende dalla creazione di fiducia, un compito reso più difficile dall’incertezza normativa. “Il successo dell’adozione dell’IA dipende dalla fiducia che possiamo riporre in essa”, afferma Grandi. “Lo studio governativo sul settore dell’IA mostra una rapida espansione insieme a una deriva orientata alla sicurezza, ma la sicurezza e l’etica devono essere tenute ben presenti, altrimenti l’adozione rallenterà” Grandi indica l’approccio più strutturato dell’UE come modello per la chiarezza che le aziende desiderano. “Le aziende hanno bisogno di un regolamento che possano applicare. La legislazione come l’AI Act dell’UE è supportata da una guida pratica e paesi come l’Irlanda stanno già delineando le fasi di conformità”, spiega Grandi. “È questo livello di certezza che offre alle aziende un percorso chiaro e il Regno Unito deve fornire la stessa chiarezza” Nonostante queste sfide, l’umore sul campo per gli investimenti nell’IA rimane positivo. il 58% delle aziende che si occupano di IA prevede una crescita del fatturato pari o superiore al 50% nel prossimo anno. Il potenziale di crescita del settore dell’IA nel Regno Unito è innegabile ma, come conclude Grandi, per coglierlo sarà necessario affrontare di petto questi problemi per ottenere “un’innovazione dell’IA responsabile, inclusiva e commercialmente valida” Per quanto riguarda il governo del Regno Unito, una sperimentazione di tre mesi di Microsoft Copilot da parte del Department for Business & Trade ha dato risultati meno entusiasmanti. Forse è un bene che i lavoratori del governo federale degli Stati Uniti abbiano accesso gratuito a Copilot. Leggi di più su www.artificialintelligence-news.com
Microsoft offre gratuitamente i servizi di intelligenza artificiale Copilot ai lavoratori del governo statunitense

Milioni di lavoratori del governo federale degli Stati Uniti stanno per ricevere gratuitamente un nuovo assistente AI sui loro dispositivi sotto forma di Microsoft Copilot. La mossa fa parte di un accordo tra Microsoft e la General Services Administration (GSA) degli Stati Uniti che dovrebbe far risparmiare ai contribuenti 3,1 miliardi di dollari nel primo anno. Il fulcro di questo nuovo accordo è un anno intero di Microsoft 365 Copilot senza costi aggiuntivi per i dipendenti pubblici che utilizzano la licenza G5 ad alta sicurezza. Si tratta di una spinta a mettere nelle mani dei dipendenti pubblici i più recenti strumenti di intelligenza artificiale in modo rapido e sicuro, con l’obiettivo di migliorare il funzionamento del governo. Microsoft spinge il governo degli Stati Uniti nell’era dell’IA Questo accordo mira a porre il governo degli Stati Uniti all’avanguardia nell’adozione dell’IA. È una risposta diretta al Piano d’azione per l’intelligenza artificiale dell’amministrazione, progettato per portare la potenza della moderna intelligenza artificiale in ogni ambito, dalla gestione delle richieste dei cittadini all’analisi di dati complessi. “OneGov rappresenta un cambiamento paradigmatico negli appalti federali che sta portando a immensi risparmi sui costi, ottenuti sfruttando il potere d’acquisto dell’intero governo federale”, ha spiegato il commissario FAS Josh Gruenbaum. L’offerta gratuita di Copilot è rivolta in particolare agli utenti del piano Microsoft 365 G5, il livello premium per i dipartimenti che gestiscono informazioni sensibili e richiedono i protocolli di sicurezza più rigidi. Ma i vantaggi si estendono anche oltre: l’accordo aiuta le agenzie a utilizzare l’intelligenza artificiale per automatizzare le attività di routine, liberando il personale per concentrarsi sul lavoro che conta di più. L’accordo rende inoltre più economico e più facile per i vari dipartimenti modernizzare la propria tecnologia. Offrendo forti sconti sui servizi cloud di Azure e sbarazzandosi delle spese di trasferimento dei dati, affronta un problema importante che spesso ha rallentato la collaborazione tra le agenzie. La sicurezza non è un pensiero secondario Ovviamente, dare accesso all’intelligenza artificiale ai sistemi governativi solleva immediatamente questioni di sicurezza. L’accordo affronta la questione in modo diretto: Microsoft sottolinea che i suoi servizi cloud e AI hanno già superato l’autorizzazione di sicurezza FedRAMP High, uno standard fondamentale per la gestione di dati governativi sensibili. La certificazione FedRAMP High per Copilot è attesa a breve, ma il Dipartimento della Difesa ha già dato il via libera provvisorio. Il pacchetto include anche strumenti di sicurezza avanzati come Microsoft Sentinel ed Entra ID per supportare l’obiettivo di sicurezza “zero trust” del governo. Il vice amministratore della GSA Stephen Ehikian ha caldamente incoraggiato le agenzie governative a sfruttare i nuovi strumenti. “La GSA è orgogliosa di collaborare con aziende tecnologiche, come Microsoft, per far progredire l’adozione dell’intelligenza artificiale nel governo federale, una priorità fondamentale dell’amministrazione Trump”, ha dichiarato Ehikian. “Esortiamo i nostri partner federali a sfruttare questi accordi, fornendo ai lavoratori pubblici strumenti di IA trasformativi che snelliscono le operazioni, riducono i costi e migliorano i risultati” Aiutare le agenzie governative a utilizzare l’IA in modo efficace Microsoft sta anche investendo denaro per assicurarsi che la tecnologia sia effettivamente utilizzata in modo efficace. L’azienda ha stanziato altri 20 milioni di dollari per il supporto e la formazione, compresi workshop per aiutare le agenzie a sfruttare al meglio i nuovi strumenti e a trovare altre aree per ridurre gli sprechi. Complessivamente, si stima che il pacchetto possa fornire un valore di oltre 6 miliardi di dollari nei prossimi tre anni. “Con questo nuovo accordo con la US General Services Administration, che include un’offerta gratuita di Microsoft 365 Copilot, aiuteremo le agenzie federali a utilizzare l’AI e le tecnologie digitali per migliorare i servizi ai cittadini, rafforzare la sicurezza e far risparmiare ai contribuenti oltre 3 miliardi di dollari solo nel primo anno”, ha commentato Satya Nadella, Presidente e CEO di Microsoft. Per oltre quarant’anni, Microsoft ha collaborato con il governo degli Stati Uniti per servire il popolo americano. Dall’ammodernamento delle infrastrutture IT al miglioramento della sicurezza informatica, la nostra partnership è sempre stata radicata nella fiducia, nell’innovazione e nella condivisione degli obiettivi. Oggi, stiamo costruendo su.. – Satya Nadella (@satyanadella) 2 settembre 2025 Per i milioni di persone che lavorano nel governo degli Stati Uniti, questo accordo con Microsoft significa che un assistente dotato di intelligenza artificiale è destinato a cambiare il loro lavoro quotidiano. Leggi di più su www.artificialintelligence-news.com
Il capo dell’adv di Perplexity, Taz Patel, lascia l’incarico

Taz Patel, responsabile della pubblicità e dello shopping presso la startup di ricerca AI Perplexity, ha lasciato l’azienda dopo nove mesi, come ha confermato la startup ad ADWEEK. Patel è entrato a far parte di Perplexity nel dicembre 2024 e aveva il compito di sviluppare la neonata attività di annunci pubblicitari della startup, che ha tre anni di vita. In precedenza è stato chief revenue officer e co-fondatore dell’azienda di influencer marketing Captiv8, acquisita da Publicis Groupe nel maggio di quest’anno. Perplexity ha rifiutato di commentare chi, eventualmente, sostituirà Patel. Patel non ha risposto alle richieste di commento. “È stato fantastico avere Taz nel nostro team e gli auguriamo il meglio per i suoi futuri impegni”, ha dichiarato ad ADWEEK Ryan Foutty, vicepresidente di Perplexity. “Perplexity è guidata dalla velocità e dalla curiosità, quindi il nostro lavoro non cambia e continuiamo a collaborare con i migliori marketer e commercianti del mondo che vogliono sperimentare e sviluppare le migliori esperienze per i consumatori nell’era dell’intelligenza artificiale” ADWEEK ha parlato per la prima volta delle ambizioni pubblicitarie di Perplexity nell’aprile dello scorso anno. Da allora, l’azienda ha coinvolto una manciata di marchi e agenzie – tra cui TurboTax, Indeed, Whole Foods, Universal McCann e PMG – per testare annunci sponsorizzati sulla sua piattaforma statunitense. Perplexity, che ha raccolto 100 milioni di dollari a luglio, è valutata circa 18 miliardi di dollari. Secondo quanto riferito, l’attività pubblicitaria dell’azienda ha generato solo circa 20.000 dollari nel quarto trimestre dello scorso anno, ma si è anche espansa nel settore dello shopping online, consentendo agli utenti di acquistare i prodotti emersi dalla ricerca attraverso PayPal e Venmo. Il CEO Aravind Srinivas ha dichiarato a marzo che Perplexity ha superato i 100 milioni di dollari di fatturato annuo, con un aumento del 25% rispetto a gennaio. Per raggiungere nuovi utenti, l’anno scorso l’azienda ha speso quasi 10 milioni di dollari – circa la metà delle spese per il libro paga – in vendite e marketing, compresa la sua prima campagna televisiva nazionale durante la trasmissione delle Finali NBA 2024 da parte della ABC, secondo The Information. Perplexity ha anche speso quasi 5 milioni di dollari in spese legali. Perplexity ha anche sperimentato modi non convenzionali per raggiungere nuovi utenti, tra cui la collaborazione con podcast video e spettacoli in streaming di Theo Von e Ben Shapiro per rispondere a domande in tempo reale. Il New York Times ha intimato a Perplexity di smettere di utilizzare i suoi contenuti e all’inizio di questo mese gli editori giapponesi Nikkei e Asahi Shimbun hanno intentato una causa congiunta con simili accuse di violazione del copyright. Questa settimana Perplexity ha annunciato l’intenzione di condividere con gli editori l’80% dei ricavi di Comet Plus, il suo prodotto in abbonamento basato su browser, come parte del suo sforzo di assicurarsi accordi di licenza in mezzo a queste crescenti sfide legali. Correzione, 29 agosto, 12:25 p.m. ET: una versione precedente di questo articolo riportava erroneamente che il New York Times aveva fatto causa a Perplexity. Il New York Times aveva avvertito l’azienda di intraprendere un’azione legale con una lettera di diffida. Leggi di più su www.adweek.com
Google Cloud rivela come l’intelligenza artificiale sta ridisegnando la difesa dalla cybersicurezza

Nell’elegante ufficio di Google a Singapore, al Blocco 80, Livello 3, Mark Johnston si è presentato alle 13:30 davanti a una sala di giornalisti tecnologici con un’ammissione sorprendente: dopo cinque decenni di evoluzione della sicurezza informatica, i difensori stanno ancora perdendo la guerra. “Nel 69% degli incidenti avvenuti in Giappone e nell’area Asia-Pacifico, le organizzazioni sono state informate delle proprie violazioni da entità esterne”, ha rivelato il direttore dell’Ufficio CISO di Google Cloud per l’area Asia-Pacifico, mostrando una statistica schiacciante: la maggior parte delle aziende non è nemmeno in grado di capire quando è stata violata. La tavola rotonda “Cybersecurity in the AI Era”, durata un’ora, è stata una valutazione onesta di come le tecnologie AI di Google Cloud stiano cercando di invertire decenni di fallimenti difensivi, anche se gli stessi strumenti di intelligenza artificiale conferiscono agli aggressori capacità senza precedenti. Mark Johnston presenta i dati M-Trends di Mandiant che mostrano i fallimenti di rilevamento nell’area Asia-Pacifico Il contesto storico: 50 anni di fallimenti difensivi La crisi non è nuova. Johnston fa risalire il problema all’osservazione di James B. Anderson, pioniere della cybersicurezza, del 1972, secondo cui “i sistemi che utilizziamo non si proteggono da soli” – una sfida che persiste nonostante decenni di progressi tecnologici. “Quello che James B. Anderson ha detto nel 1972 vale ancora oggi”, ha detto Johnston, sottolineando come i problemi di sicurezza fondamentali rimangano irrisolti anche quando la tecnologia si evolve. La persistenza delle vulnerabilità di base aggrava questa sfida. I dati di intelligence sulle minacce di Google Cloud rivelano che “oltre il 76% delle violazioni inizia dalle basi”: errori di configurazione e compromissione delle credenziali che affliggono le organizzazioni da decenni. Johnston ha citato un esempio recente: “Il mese scorso, un prodotto molto comune che la maggior parte delle organizzazioni ha utilizzato in qualche momento, Microsoft SharePoint, ha anche quello che noi chiamiamo una vulnerabilità zero-day… e durante questo periodo, è stato attaccato continuamente e abusato” La corsa agli armamenti dell’intelligenza artificiale: Difensori contro attaccanti La visualizzazione di Google Cloud del “Dilemma del difensore” che mostra lo squilibrio di scala tra attaccanti e difensori Kevin Curran, membro senior dell’IEEE e professore di cybersecurity presso l’Ulster University, descrive il panorama attuale come “una corsa agli armamenti ad alta posta in gioco” in cui sia i team di cybersecurity che gli attori delle minacce utilizzano strumenti di IA per superarsi a vicenda. “Per i difensori, l’IA è una risorsa preziosa”, spiega Curran in una nota per i media. “Le aziende hanno implementato l’IA generativa e altri strumenti di automazione per analizzare grandi quantità di dati in tempo reale e identificare le anomalie” Tuttavia, le stesse tecnologie sono vantaggiose per gli aggressori. “Per gli attori delle minacce, l’IA può semplificare gli attacchi di phishing, automatizzare la creazione di malware e aiutare a scansionare le reti alla ricerca di vulnerabilità”, avverte Curran. La natura a doppio uso dell’IA crea quello che Johnston chiama “il dilemma del difensore” Le iniziative di Google Cloud AI mirano a far pendere la bilancia a favore dei difensori. Johnston sostiene che “l’intelligenza artificiale offre la migliore opportunità di rovesciare il dilemma del difensore e di far pendere la bilancia del cyberspazio per dare ai difensori un vantaggio decisivo sugli attaccanti” L’approccio dell’azienda è incentrato su quelli che definisce “innumerevoli casi d’uso dell’IA generativa nella difesa”, che spaziano dalla scoperta delle vulnerabilità all’intelligence delle minacce, dalla generazione di codice sicuro alla risposta agli incidenti. Il grande sonno di Project Zero: L’intelligenza artificiale trova ciò che gli esseri umani non riescono a trovare Uno degli esempi più interessanti di difesa alimentata dall’intelligenza artificiale di Google è l’iniziativa “Big Sleep” di Project Zero, che utilizza modelli linguistici di grandi dimensioni per identificare le vulnerabilità nel codice del mondo reale. Johnston ha condiviso dati impressionanti: “Big Sleep ha trovato una vulnerabilità in una libreria open source utilizzando strumenti di AI generativa – la prima volta che crediamo che una vulnerabilità sia stata trovata da un servizio di AI” L’evoluzione del programma dimostra le crescenti capacità dell’IA. “Il mese scorso abbiamo annunciato di aver trovato oltre 20 vulnerabilità in diversi pacchetti”, ha sottolineato Johnston. “Ma oggi, quando ho guardato il cruscotto del grande sonno, ho trovato 47 vulnerabilità nel mese di agosto che sono state trovate da questa soluzione” La progressione dall’analisi manuale umana alla scoperta assistita dall’intelligenza artificiale rappresenta ciò che Johnston descrive come un passaggio “da operazioni di sicurezza manuali a semi-autonome”, in cui “Gemini gestisce la maggior parte delle attività del ciclo di vita della sicurezza in modo coerente, delegando le attività che non può automatizzare con una fiducia o una precisione sufficientemente elevate” Il paradosso dell’automazione: promesse e pericoli La roadmap di Google Cloud prevede una progressione in quattro fasi: Operazioni di sicurezza manuali, assistite, semi-autonome e autonome. Nella fase semi-autonoma, i sistemi di intelligenza artificiale gestiranno le attività di routine e affideranno le decisioni complesse agli operatori umani. La fase autonoma finale vedrà l’intelligenza artificiale “guidare il ciclo di vita della sicurezza verso risultati positivi per conto degli utenti” La roadmap di Google Cloud per l’evoluzione dalle operazioni di sicurezza manuali a quelle autonome dell’AI Tuttavia, questa automazione introduce nuove vulnerabilità. Alla domanda sui rischi di un eccessivo affidamento ai sistemi di intelligenza artificiale, Johnston ha riconosciuto la sfida: “C’è il potenziale che questo servizio possa essere attaccato e manipolato. Al momento, quando si vedono strumenti in cui questi agenti vengono inseriti, non esiste un quadro davvero valido per autorizzare che quello sia lo strumento effettivo che non è stato manomesso” Curran fa eco a questa preoccupazione: “Il rischio per le aziende è che i loro team di sicurezza diventino troppo dipendenti dall’IA, mettendo potenzialmente da parte il giudizio umano e lasciando i sistemi vulnerabili agli attacchi. C’è ancora bisogno di un ‘copilota’ umano e i ruoli devono essere chiaramente definiti” Implementazione nel mondo reale: Controllare la natura imprevedibile dell’IA L’approccio di Google Cloud include salvaguardie pratiche per affrontare una delle caratteristiche più problematiche dell’IA: la sua tendenza a generare risposte irrilevanti
L’intelligenza artificiale automatizzerà le banche, minacciando i posti di lavoro nella finanza

L’IA sta trasformando il settore bancario, ma i benefici e i risparmi attesi hanno un costo umano elevato con l’impatto sui posti di lavoro nel settore finanziario. Il rapporto, frutto della collaborazione tra la banca digitale Zopa e Juniper Research, prevede che l’IA generativa consentirà di ottenere risparmi sui costi per 1,8 miliardi di sterline entro il 2030, a fronte di un livello equivalente di investimenti. Tuttavia, questo ritorno del 100% degli investimenti ha un costo umano elevato: si stima che 27.000 posti di lavoro nel settore finanziario siano a rischio. I risultati suggeriscono che le tecnologie di IA stanno andando oltre i progetti sperimentali e si stanno integrando profondamente nei processi fondamentali del settore bancario, dal servizio clienti alle funzioni invisibili del back office. Peter Donlon, Chief Technology Officer di Zopa, ha dichiarato: “GenAI segna un cambiamento paradigmatico nell’informatica applicata. La sua influenza sulla produttività, sulla creazione di software e sui sistemi decisionali potrebbe rivaleggiare con l’avvento di internet o del cloud computing. “Noi di Zopa ci siamo occupati di machine learning per oltre un decennio, ben prima che i LLM diventassero di uso comune. Questa profonda esperienza ci ha fatto credere che GenAI non sia una funzione aggiuntiva, ma una capacità fondamentale. Per i tecnologi di Zopa, si tratta di una rara opportunità di costruire livelli di intelligenza completamente nuovi, a un livello che ridefinirà il settore” La rivoluzione silenziosa dell’intelligenza artificiale nei back office delle banche Sebbene i chatbot rivolti ai clienti e le esperienze personalizzate nelle app catturino spesso i titoli dei giornali, il rapporto rivela che l’impatto più drammatico dell’IA si sta verificando dietro le quinte. l’82% di tutto il tempo risparmiato grazie a questa tecnologia, pari a 154 milioni di ore entro il 2030, proverrà dalle operazioni di back office. Queste funzioni, che comprendono la conformità normativa, il rilevamento delle frodi e la gestione del rischio, sono tradizionalmente ad alta intensità di lavoro e molto complesse. Si prevede che l’Intelligenza Artificiale automatizzerà gran parte di questo importante lavoro finanziario, aiutando a svolgere qualsiasi attività, dai controlli KYC (Know Your Customer) al monitoraggio antiriciclaggio (AML). Le implicazioni finanziarie dell’IA per queste funzioni di back office sono immense: i risparmi previsti in quest’area raggiungeranno 923 milioni di sterline all’anno entro la fine del decennio, pari a più della metà dei risparmi totali dell’intero settore. L’automazione non riguarda solo la riduzione dei costi. Con l’aumento della responsabilità delle banche a causa di normative come quella sui rimborsi per le frodi con pagamento autorizzato (APP), la capacità dell’IA di rilevare nuovi modelli di frode in tempo reale e di ridurre gli errori umani sta diventando una necessità competitiva e finanziaria. Come spesso si sente dire a proposito dell’IA nei vari settori, automatizzando i controlli e le analisi di routine, la tecnologia libera gli esperti umani. Per il settore finanziario, questi esperti possono concentrare le loro competenze sulle indagini più complesse per migliorare l’efficienza e l’efficacia della lotta contro i reati finanziari. Iper-personalizzazione dell’esperienza bancaria con l’AI La spinta all’iper-personalizzazione nel settore finanziario sta alimentando un massiccio investimento nell’IA del servizio clienti. Il rapporto prevede che le banche del Regno Unito investiranno oltre 1,1 miliardi di sterline nell’IA rivolta ai clienti entro il 2030, la quota maggiore di investimenti in tutti i segmenti. Questo afflusso di capitali per la personalizzazione viene utilizzato per sviluppare sofisticati assistenti virtuali e chatbot in grado di gestire domande complesse, offrire consigli finanziari personalizzati e persino anticipare le esigenze dei clienti. L’obiettivo è quello di andare ben oltre i bot basati su regole del passato per passare a un’interfaccia realmente conversazionale e intelligente. Si prevede che questo passaggio produrrà grandi efficienze, facendo risparmiare 540 milioni di sterline di costi operativi e liberando 26 milioni di ore di tempo di agenti umani all’anno entro il 2030. Questi dipendenti potranno inoltre essere reimpiegati per gestire interazioni più complesse e di alto valore che richiedono un tocco umano. Anche la gestione del portafoglio è destinata a beneficiarne. Si prevede che gli investimenti in questo settore cresceranno fino a 145 milioni di sterline entro il 2030. In questo caso, l’IA non viene posizionata come un sostituto dei consulenti umani, ma come un potente strumento di potenziamento. Può sintetizzare vasti dati di mercato, simulare le performance dei portafogli e automatizzare la reportistica di routine, consentendo agli esperti umani di concentrarsi sul processo decisionale e sulle relazioni con i clienti. L’impatto dell’IA sui posti di lavoro nel settore finanziario I guadagni di efficienza garantiti dall’IA sollevano inevitabilmente domande urgenti sul futuro della forza lavoro nel settore finanziario. La proiezione del rapporto secondo cui 27.000 ruoli potrebbero essere eliminati entro il 2030 è un dato preoccupante. Il servizio clienti e le posizioni di back-office dovrebbero sopportare il peso maggiore di questo cambiamento, con quasi 14.000 e 10.000 posti di lavoro a rischio rispettivamente. Tuttavia, gli autori del rapporto suggeriscono che non si tratta semplicemente di una perdita di posti di lavoro, ma di una ridefinizione fondamentale dei ruoli. Lo spostamento dei posti di lavoro nel settore finanziario, incentrati su attività manuali e ripetitive, crea l’opportunità di migliorare le competenze della forza lavoro del settore bancario in nuove posizioni incentrate sulla governance dell’IA, sulla strategia dei dati e sulla supervisione di questi complessi sistemi automatizzati. Donlon sottolinea questo punto, considerando il cambiamento tecnologico come un catalizzatore di cambiamenti positivi. Osserva che “questo investimento inaugura un’opportunità unica nella generazione per riqualificare e reimmaginare la forza lavoro che alimenta il nostro sistema finanziario” La sfida per il settore, suggerisce Donlon, è quella di gestire in modo proattivo questa transizione. “Soprattutto, il nostro obiettivo è quello di dotare le banche, le fintech, le autorità di regolamentazione e i politici delle conoscenze necessarie per cogliere questo momento storico: dare forma ai posti di lavoro del futuro, non semplicemente reagire ad essi” Il rapporto si conclude con un chiaro avvertimento per le istituzioni consolidate. Sta già emergendo un notevole divario di capacità tra le banche sfidanti tecnologicamente avanzate, che hanno costruito le loro piattaforme attorno all’IA,
X e xAI citano in giudizio Apple e OpenAI per le rivendicazioni di monopolio sull’AI

X e xAI di Elon Musk si scagliano contro Apple e OpenAI, accusando i giganti della tecnologia di aver creato un monopolio sull’intelligenza artificiale per schiacciare la concorrenza. In una causa intentata dalle aziende presso un tribunale federale del Texas, si sostiene che la partnership esclusiva tra Apple e OpenAI per l’inserimento di ChatGPT nell’iPhone è una mossa calcolata da “due monopolisti che uniscono le forze per garantire il loro continuo dominio” L’accordo per l’integrazione di ChatGPT nel sistema operativo di Apple fa sì che l’assistente AI più famoso al mondo sia attualmente l’unico e il solo a poter controllare le funzioni principali dell’iPhone, escludendo di fatto rivali come Grok, il chatbot di xAI. L’azione legale sostiene che questo nega agli utenti una scelta equa, citando ironicamente un documento strategico di OpenAI che afferma: “La vera scelta guida la concorrenza e avvantaggia tutti. Gli utenti dovrebbero essere in grado di scegliere il proprio assistente Al” Il vero premio, secondo la denuncia, sono i dati. L’intelligenza artificiale generativa diventa più intelligente e migliore con ogni domanda dell’utente, creando un potente ciclo di feedback. Dando a ChatGPT l’accesso esclusivo a potenzialmente miliardi di messaggi provenienti da centinaia di milioni di iPhone, la partnership costruisce di fatto un “fossato” impenetrabile intorno alla leadership di mercato di OpenAI. In questo modo, i concorrenti vengono privati dei dati di cui hanno bisogno per migliorare i propri modelli e competere davvero, contribuendo così a sostenere il presunto monopolio dell’IA. La causa sostiene che questo flusso di dati è così prezioso che OpenAI sta dando ad Apple la sua tecnologia gratuitamente, considerando l’accesso “di valore pari o superiore ai pagamenti monetari” Per quanto riguarda il motivo per cui Apple avrebbe accettato, la causa sostiene che si tratta di una mossa difensiva contro una minaccia esistenziale: l’ascesa delle “super app”. Queste applicazioni all-in-one – come quella che sta costruendo X, simile alla popolare piattaforma cinese WeChat – combinano social media, messaggistica, pagamenti e altri servizi in un’unica piattaforma. Man mano che queste super app diventano più potenti grazie ai servizi di intelligenza artificiale basati sul cloud, rendono lo smartphone stesso meno importante. Gli utenti potrebbero semplicemente acquistare un telefono più economico e ottenere tutte le funzionalità di cui hanno bisogno dall’app, minacciando le lucrose vendite di hardware di Apple. La denuncia sostiene che Apple sia perfettamente consapevole di questo pericolo, citando un dirigente dell’azienda che ha avvertito che lasciare che le super app prendano il sopravvento sarebbe come lasciare che “i barbari entrino dalla porta” Ma le accuse non si fermano all’accordo di integrazione. La causa per monopolio accusa anche Apple di usare il suo controllo ferreo sull’App Store per far pendere l’ago della bilancia dalla parte di specifiche app di intelligenza artificiale. L’azione legale sostiene che le app di X e xAI, che godono di un’ottima reputazione, vengono deliberatamente nascoste ed escluse dal prestigioso elenco delle “App imperdibili” dell’App Store, mentre ChatGPT è in primo piano. A ciò si aggiungono i ritardi nell’approvazione degli aggiornamenti dell’app Grok, che ostacolano ulteriormente la sua capacità di competere. X e xAI sostengono che questo comportamento danneggia tutti. Bloccando la concorrenza, la partnership avrebbe portato a meno innovazione, meno scelta e prezzi più alti per i consumatori. L’azione legale sul monopolio dell’intelligenza artificiale mira ad abbattere questo accordo e a recuperare i miliardi di dollari di perdita di valore e di vendite che l’azienda sostiene di aver subito come conseguenza. (Foto di Julian Hochgesang) Leggi di più su www.artificialintelligence-news.com
Sfruttare l’intelligenza artificiale per la sicurezza informatica aziendale

La sicurezza informatica è nel bel mezzo di una nuova corsa agli armamenti e la potente arma scelta in questa nuova era è l’intelligenza artificiale. L’IA offre la classica arma a doppio taglio: un potente scudo per i difensori e un nuovo potente strumento per i malintenzionati. Navigare in questo complesso campo di battaglia richiede una mano ferma e una profonda conoscenza sia della tecnologia che delle persone che ne abuserebbero. Per avere un punto di vista dalla prima linea, AI News ha incontrato Rachel James, Principal AI ML Threat Intelligence Engineer presso l’azienda biofarmaceutica globale AbbVie. “Oltre al potenziamento dell’intelligenza artificiale integrato nei nostri strumenti attuali, utilizziamo anche l’analisi LLM per i nostri rilevamenti, osservazioni, correlazioni e regole associate”, spiega James. James e il suo team utilizzano modelli linguistici di grandi dimensioni per setacciare una montagna di avvisi di sicurezza, alla ricerca di schemi, individuare duplicati e trovare pericolose lacune nelle difese prima che un attaccante possa farlo. “Li usiamo per determinare la somiglianza, i doppioni e per fornire un’analisi delle lacune”, aggiunge l’esperta, sottolineando che il prossimo passo sarà quello di integrare un numero ancora maggiore di dati sulle minacce esterne. “Stiamo cercando di migliorare questo aspetto con l’integrazione delle informazioni sulle minacce nella nostra prossima fase” Al centro di questa operazione c’è una piattaforma di threat intelligence specializzata chiamata OpenCTI, che aiuta a costruire un quadro unificato delle minacce da un mare di rumore digitale. L’intelligenza artificiale è il motore che rende possibile questo sforzo di cybersecurity, prendendo grandi quantità di testo confuso e non strutturato e organizzandolo ordinatamente in un formato standard noto come STIX. La grande visione, dice James, è quella di utilizzare i modelli linguistici per collegare questa intelligenza di base con tutte le altre aree delle operazioni di sicurezza, dalla gestione delle vulnerabilità al rischio di terze parti. Sfruttare questa potenza, tuttavia, comporta una sana dose di cautela. In qualità di collaboratore chiave di un’importante iniziativa del settore, James è perfettamente consapevole delle insidie. “Sarei negligente se non menzionassi il lavoro di un meraviglioso gruppo di persone di cui faccio parte: la ‘OWASP Top 10 for GenAI’ come metodo fondamentale per comprendere le vulnerabilità che GenAI può introdurre”, afferma. Al di là delle vulnerabilità specifiche, James indica tre compromessi fondamentali che i leader aziendali devono affrontare: Accettare il rischio che deriva dalla natura creativa ma spesso imprevedibile dell’IA generativa. La perdita di trasparenza nel modo in cui l’IA giunge alle sue conclusioni, un problema che cresce con l’aumentare della complessità dei modelli. Il pericolo di giudicare male il reale ritorno sull’investimento per qualsiasi progetto di IA, dove il clamore può facilmente portare a sopravvalutare i benefici o a sottovalutare l’impegno richiesto in un campo in così rapida evoluzione. Per migliorare la sicurezza informatica nell’era dell’IA, devi capire chi ti attacca. È qui che entra in gioco la profonda esperienza di James. “Questa è la mia particolare competenza: ho un background di intelligence sulle minacce informatiche e ho condotto e documentato ricerche approfondite sull’interesse, l’uso e lo sviluppo dell’IA da parte degli attori delle minacce”, spiega. James segue attivamente le conversazioni degli avversari e lo sviluppo di strumenti attraverso i canali open-source e le sue raccolte automatiche dal dark web, condividendo le sue scoperte sul suo GitHub cybershujin. Il suo lavoro prevede anche di sporcarsi le mani. “In qualità di responsabile della voce Prompt Injection per OWASP e di co-autrice della Guide to Red Teaming GenAI, dedico anche del tempo allo sviluppo di tecniche di input avversario e mantengo una rete di esperti in questo campo”, aggiunge James. Cosa significa tutto questo per il futuro del settore? Per James, la strada da seguire è chiara. L’esperta sottolinea un affascinante parallelismo che ha scoperto anni fa: “Il ciclo di vita dell’intelligence sulle minacce informatiche è quasi identico al ciclo di vita della scienza dei dati alla base dei sistemi di intelligenza artificiale” Questo allineamento rappresenta un’enorme opportunità. “Senza dubbio, in termini di set di dati con cui possiamo operare, i difensori hanno la possibilità unica di capitalizzare la potenza della condivisione dei dati di intelligence e dell’IA”, afferma l’esperta. Il suo messaggio finale offre sia un incoraggiamento che un avvertimento ai suoi colleghi nel mondo della cybersecurity: “La scienza dei dati e l’IA faranno parte della vita di ogni professionista della cybersecurity, abbracciatele” Rachel James condividerà le sue intuizioni all’AI & Big Data Expo Europedi quest’anno , che si terrà ad Amsterdam il 24-25 settembre 2025. Assicurati di dare un’occhiata alla sua presentazione del secondo giorno, intitolata “Dal principio alla pratica – incorporare l’etica dell’IA su larga scala”. Leggi di più su www.artificialintelligence-news.com
Perché le recensioni dei media hanno bisogno di un aggiornamento

Durante gli incontri di pitch in tutto il settore, sento sempre la stessa frase da parte dei CMO: “La decisione finale non riguarda i soldi” Lascia che te lo decifri: si tratta sempre di soldi. Ma nel 2025, la definizione di “valore” nelle partnership con le agenzie sta subendo un cambiamento sismico. Non si tratta più solo di risparmio. Si tratta di velocità. Intelligenza. Precisione. E soprattutto, tecnologia. Il vecchio manuale? Semplice. Chi può acquistare a prezzi più bassi, avere personale più numeroso e far pagare di meno? Di solito vinceva l’agenzia con le tariffe più basse e il team più giovane. Questa mentalità sembra ormai superata come la misurazione della portata con un diario Nielsen. I marchi più lungimiranti di oggi sanno che la sola ricerca di un risparmio sui costi non è in grado di cogliere il quadro generale. Il vero valore (e il vero denaro) risiede nelle piattaforme che trasformano l’intelligenza artificiale in azione: intuizioni fulminee, targeting del pubblico più preciso e accesso collaborativo agli stessi dati e strumenti utilizzati dalla tua agenzia. Perché il vecchio modello è rotto Per anni, i team di procurement si sono concentrati sugli input: ore fatturabili, numero di persone, ecc. Spesso la domanda era: “Quanti dipendenti possiamo avere con questo budget?” e le agenzie erano costrette a indicare esattamente il numero di pianificatori, acquirenti e analisti junior per ogni dollaro. Ma questa equazione è stata costruita per un mondo precedente all’AI, quando erano le persone, e non le piattaforme, a guidare il lavoro. Ma nell’attuale mondo guidato dalla tecnologia, dove i sistemi automatizzati possono eseguire in pochi secondi complesse ottimizzazioni dei media che un tempo richiedevano eserciti di coordinatori, misurare il valore in ore umane è controproducente. I marketer più intelligenti stanno ribaltando il copione. Si chiedono: quanto velocemente puoi trasformare i nostri dati di prima parte in veri e propri insight sul pubblico? Quanto velocemente possiamo passare dall’analisi all’azione? Cosa può mostrarci oggi la vostra piattaforma che ieri non sapevamo? La tecnologia è la nuova moneta La tecnologia non è più una voce di bilancio, ma la valuta del vantaggio competitivo. La piattaforma giusta non solo rende la tua agenzia più veloce, ma rende il tuo marchio più intelligente. È la base per ottenere il massimo valore dai tuoi dati e rispondere ai cambiamenti del mercato in tempo reale. Basta guardare le diverse scommesse che vengono fatte. Publicis Groupe ha puntato sull’infrastruttura e ha investito oltre 7 miliardi di dollari in acquisizioni di dati come Sapient ed Epsilon, creando un enorme tessuto connettivo tra 80.000 dipendenti e 2,3 miliardi di profili di consumatori. Si tratta di una base consistente. La prossima sfida? Trasformare la scala in velocità. La piattaforma Omnicom Omni integra l’analisi del pubblico guidata dall’intelligenza artificiale con l’ottimizzazione automatica per aggiustamenti in tempo reale delle campagne, consentendo una risposta rapida ai dati sulle performance. Si tratta di un ciclo chiuso e, per il cliente giusto, molto potente. WPP punta su WPP Open, una piattaforma modulare guidata dall’AI progettata per unificare creatività, media e dati nelle sue agenzie. E con un nuovo CEO al timone, sta segnalando un cambiamento: una mossa per riaffermare la leadership attraverso la trasformazione tecnologica, non solo la scala. Horizon Media ha intrapreso un percorso più netto, saltando la corsa agli armamenti infrastrutturali e collaborando invece con Akkio per lanciare Blu, una piattaforma agile e guidata dall’intelligenza artificiale che le ha permesso di aggiudicarsi il business da 800 milioni di dollari di Spectrum segmentando istantaneamente il pubblico e facendo emergere gli insight attraverso query in linguaggio naturale. La conclusione? Non si tratta di semplici scelte di piattaforma, ma di visioni strategiche del mondo e c’è più di un modo di investire nella tecnologia, ognuno con implicazioni diverse per i brand. La domanda intelligente non è “Qual è l’approccio giusto?” o “Chi ha lo stack tecnologico più brillante?” È “Quale piattaforma è stata costruita per accelerare i tuoi risultati di marketing?” Basta con le storie: pretendi un test drive Eppure, in troppe presentazioni, si sente ancora la solita vecchia canzone: mazzi di carte patinate, parole d’ordine sull’intelligenza artificiale e video dimostrativi in cui nessuno clicca mai su “play”. Permettetemi di essere schietto. Nel 2025, se la piattaforma di un’agenzia non è in grado di mostrarti come trasforma i tuoi dati in risultati, non stai guardando una piattaforma. Stai guardando una presentazione. Chiedi una dimostrazione dal vivo con i tuoi dati reali. Richiedi un accesso alla sandbox. Scopri quanto velocemente riescono a trasformare i dati dei tuoi clienti in segmenti di pubblico utilizzabili. Le migliori agenzie saranno ansiose di lasciar parlare le loro piattaforme, mostrandoti esattamente come riescono a ottenere risultati migliori. Se si mantengono su un livello elevato o mostrano solo dei mock-up raffinati, è un segnale di allarme. In tutte le campagne pubblicitarie future, la trasparenza e la responsabilizzazione dell’IA devono essere parte integrante del pacchetto. Il gioco di valore a lungo termine Questo cambiamento non riguarda solo l’aggiudicarsi le RFP, ma anche il prossimo decennio. Le agenzie che aiutano i brand a sbloccare la propria intelligenza dei dati non si limitano ad aumentare l’efficienza dei media, ma creano un valore composto e scalabile: un targeting più intelligente, un’ottimizzazione più rapida e una comprensione del pubblico più approfondita nel tempo. Le agenzie che oggi utilizzano le migliori piattaforme saranno quelle che aiuteranno i brand a superare le sfide di domani. Che si tratti di utilizzare l’apprendimento automatico per comprendere i nuovi comportamenti dei consumatori, l’AI per ottimizzare i canali emergenti o i modelli predittivi per creare esperienze più personalizzate, l’AI è la base che rende possibile il potenziale. Il vero test? Inizia quando la presentazione finisce. Chiedi di vedere il prodotto dal vivo. Chiedi il login. Spingi la piattaforma a dimostrare che è in grado di fornire informazioni, dall’analisi all’ottimizzazione, fino all’attribuzione, per l’intero ciclo di vita della campagna. Perché nel 2025 il rischio maggiore non sarà quello di pagare troppo per la tecnologia. È quello di non investire nell’intelligenza, mentre i tuoi concorrenti
Desiderosi di abbracciare l’intelligenza artificiale, i marketer sono alle prese con il “come”

La maggior parte delle aziende di marketing e pubblicità è seriamente intenzionata ad adottare l’intelligenza artificiale, ma c’è un problema: molte non sono sicure di come procedere. Un recente sondaggio condotto tra i lettori di ADWEEK mostra che la barriera più grande per le aziende che cercano di incorporare l’intelligenza artificiale nelle loro attività quotidiane è la mancanza di competenze e di know-how. Anche le questioni legali e i problemi di budget rappresentano degli ostacoli. Nonostante questi ostacoli, oltre l’80% dei marketer e degli inserzionisti è molto o abbastanza fiducioso nella capacità della propria azienda di rendere l’IA parte delle normali operazioni. Per quanto riguarda i responsabili del piano di implementazione dell’IA all’interno dell’organizzazione, il 23% degli intervistati ha risposto che il responsabile è il reparto marketing. Un altro 19% ha indicato il reparto IT, mentre il 13% ha indicato come responsabile il team operativo. Per il 25% degli intervistati, invece, non c’era nessun reparto a guidare la strategia globale di IA della loro organizzazione. Circa 250 lettori di ADWEEK hanno partecipato al sondaggio online, che si è svolto dal 21 al 27 luglio. Più di due terzi degli intervistati hanno dichiarato di lavorare per un marchio o un’agenzia pubblicitaria. Più di ogni altra cosa, i marketer e gli inserzionisti hanno mostrato il timore di diventare irrilevanti o di essere messi da parte se non riuscissero a imparare a incorporare i nuovi strumenti di IA nel loro lavoro. Anche i licenziamenti del personale, la privacy dei dati e i problemi legati a pregiudizi ed etica sono in cima alla lista dei timori e delle preoccupazioni che i dipendenti nutrono per il fatto che l’IA diventi parte integrante della loro giornata lavorativa. Per quanto riguarda l’aiuto ai lavoratori per familiarizzare con l’IA, la maggior parte delle aziende non sembra farne una priorità. La maggior parte dei marketer e degli inserzionisti ha dichiarato che la propria azienda sta fornendo ai dipendenti una quantità minima o moderata di formazione e risorse sull’IA. Oltre il 20% ha dichiarato che la propria azienda non offre alcuna formazione sull’IA. Leggi di più su www.adweek.com
La Gen AI non fa alcuna differenza economica nel 95% dei casi, se non sai come usarla

I titoli delle aziende statunitensi che si occupano di tecnologia AI sono scesi di valore alla chiusura delle contrattazioni di ieri, con l’indice NASDAQ Composite in calo dell’1,4%. Tra i titoli che hanno perso valore ci sono Palantir, in calo del 9,4% e Arm Holdings in calo del 5%. Secondo il Financial Times [paywall], martedì si è registrato il più grande calo di un giorno nel mercato dall’inizio di agosto. Alcuni trader attribuiscono il calo a un rapporto pubblicato [PDF] da una società di AI, NANDA, che ha rilevato l’alto tasso di fallimento di molti progetti di AI generativa nelle organizzazioni commerciali. Il progetto NANDA è nato presso il Media Lab del Massachusetts Institute of Technology e si descrive come un’organizzazione che sta costruendo una “rete agenziale” Il documento, dopo la pubblicazione, è stato messo dietro un muro di indagine, ma è disponibile per il download da questo sito. Gli autori della ricerca affermano che solo il 5% dei progetti pilota di intelligenza artificiale raggiunge la produzione e produce effettivamente un valore monetario misurabile, mentre la stragrande maggioranza dei progetti ha un impatto minimo sulle metriche di profitto e perdita. La ricerca intrapresa da NANDA comprende il contenuto di 52 interviste strutturate a responsabili decisionali aziendali, l’analisi da parte dei ricercatori di 300 iniziative e annunci pubblici sull’IA e un questionario di indagine compilato da 153 leader aziendali. L’indagine ha misurato il ritorno sull’investimento nei sei mesi successivi all’uscita dei progetti di IA dallo stato di pilota. Mentre molte organizzazioni implementano l’IA nelle funzioni aziendali di front-office o rivolte ai clienti, i progetti di successo tendono a trovarsi nei flussi di lavoro di back-office, si legge nel documento. È nelle attività banali del back-office che si registrano i risparmi, in gran parte dovuti a una minore necessità di agenzie di terze parti e BPO. L’indagine ha rilevato che i progetti di IA hanno avuto un impatto limitato sui livelli complessivi del personale interno. Sebbene il 90% del personale abbia dichiarato di aver tratto benefici personali dall’utilizzo di IA disponibili pubblicamente, in genere sotto forma di modelli linguistici di grandi dimensioni come ChatGPT, questi vantaggi soggettivi non si traducono a livello istituzionale. Circa il 40% delle aziende intervistate paga un abbonamento ai LLM. Molti dei titolari dei progetti falliti hanno citato la mancanza di consapevolezza contestuale dei modelli di IA generativa, ovvero la capacità di adattarsi alle circostanze, di cambiare nel tempo e di ricordare le richieste precedenti. NANDA afferma che la creazione di una partnership con un’organizzazione in grado di fornire un sistema di questo tipo e di garantire che si adatti alle circostanze specifiche di un’organizzazione è l’elemento critico per il successo. Il documento evidenzia diverse citazioni “derivate dalle interviste” che includono il 60%-70% di accordo con le affermazioni: “Il sistema di intelligenza artificiale non impara dai nostri feedback” e “È necessario un contesto troppo manuale ogni volta” Il settore più influenzato positivamente dall’intelligenza artificiale è quello dei media e delle telecomunicazioni, seguito dai servizi professionali, dalla sanità e dalla farmaceutica, dal settore dei beni di consumo e della vendita al dettaglio e dai servizi finanziari. Secondo il documento, il tasso di lancio di progetti di IA generativa nel settore dell’energia e dei materiali è attualmente trascurabile. In termini di unità aziendali, il settore vendite e marketing è quello in cui si concentra la maggior parte dei progetti, mentre il settore finanziario e degli approvvigionamenti è il meno gettonato come luogo in cui avviare progetti di IA. L’area di un’organizzazione tipica in cui l’IA generativa viene impiegata maggiormente è quella delle vendite e del marketing, mentre la finanza e gli approvvigionamenti sono i luoghi meno popolari. Inoltre, i compiti complessi sono quelli che meno ci si aspetta vengano portati a termine dall’IA; i manager assegnerebbero progetti come la gestione dei clienti a un’IA solo nel 10% dei casi, mentre compiti come la sintesi di un report o la scrittura di un’e-mail verrebbero affidati a un umano nel 70% dei casi. Il linguaggio del rapporto pubblicato e la sua mancanza di rigore accademico suggeriscono che la sua provenienza e il suo scopo sono più simili al marketing che alla discussione intellettuale e tecnologica. Gli autori del documento invitano a stringere partnership strategiche con un fornitore competente per aumentare le possibilità di successo dei progetti di IA generativa, una partnership di cui NANDA, per pura coincidenza, è in grado di costituire una metà. Nelle conclusioni del documento si legge che esistono “opportunità senza precedenti per i fornitori in grado di fornire sistemi di IA profondamente integrati e capaci di apprendere”. I titoli del rapporto NANDA sono una lettura preoccupante per i decisori incaricati di implementare l’IA generativa, ma i messaggi di fondo del documento sono indeboliti dalle intenzioni alla base della sua pubblicazione. I prezzi delle azioni di questa settimana potrebbero essere stati influenzati da sondaggi di parte di autori con evidenti interessi in gioco, ma sembra più probabile che la pubblicazione di NANDA rifletta semplicemente le preoccupazioni dei negozianti sull’efficacia pratica dell’IA generativa come strumento di business. (Fonte immagine: “Arthur Daley” di Tim Dennell con licenza CC BY-NC-ND 2.0) Leggi di più su www.artificialintelligence-news.com