Samsung analizza la produttività reale dei modelli AI aziendali

Samsung sta superando i limiti dei benchmark esistenti per valutare meglio la produttività reale dei modelli di IA in ambito aziendale. Il nuovo sistema, sviluppato da Samsung Research e denominato TRUEBench, mira a risolvere la crescente disparità tra le prestazioni teoriche dell’IA e la sua effettiva utilità sul posto di lavoro. Mentre le aziende di tutto il mondo accelerano l’adozione di modelli linguistici di grandi dimensioni (LLM) per migliorare le loro operazioni, è emersa una sfida: come valutare accuratamente la loro efficacia. Molti benchmark esistenti si concentrano su test accademici o di conoscenza generale, spesso limitati all’inglese e a semplici formati di domande e risposte. Questo ha creato una lacuna che lascia le aziende senza un metodo affidabile per valutare le prestazioni di un modello di IA in compiti aziendali complessi, multilingue e ricchi di contesto. Il TRUEBench di Samsung, acronimo di Trustworthy Real-world Usage Evaluation Benchmark, è stato sviluppato per colmare questa lacuna. Fornisce una suite completa di metriche che valutano i LLM sulla base di scenari e compiti direttamente legati agli ambienti aziendali del mondo reale. Il benchmark si basa sull’ampio uso interno di Samsung dei modelli di intelligenza artificiale, garantendo che i criteri di valutazione siano basati sulle reali esigenze del luogo di lavoro. Il framework valuta funzioni aziendali comuni come la creazione di contenuti, l’analisi dei dati, la sintesi di lunghi documenti e la traduzione di materiali. Queste sono suddivise in 10 categorie distinte e 46 sottocategorie, che forniscono una visione granulare delle capacità di produttività di un’IA. “Samsung Research apporta una profonda competenza e un vantaggio competitivo grazie alla sua esperienza nell’IA del mondo reale”, ha dichiarato Paul (Kyungwhoon) Cheun, CTO della divisione DX di Samsung Electronics e responsabile di Samsung Research. “Ci aspettiamo che TRUEBench stabilisca degli standard di valutazione per la produttività” Per affrontare i limiti dei vecchi benchmark, TRUEBench si basa su una serie di 2.485 test diversi che abbracciano 12 lingue diverse e supportano scenari interlinguistici. Questo approccio multilingue è fondamentale per le aziende globali in cui le informazioni circolano in diverse regioni. Gli stessi materiali di test riflettono la varietà delle richieste sul posto di lavoro, che vanno da brevi istruzioni di soli otto caratteri alla complessa analisi di documenti che superano i 20.000 caratteri. Samsung ha riconosciuto che in un contesto aziendale reale, l’intento dell’utente non è sempre esplicitamente dichiarato nella richiesta iniziale. Il benchmark è quindi progettato per valutare la capacità di un modello di intelligenza artificiale di comprendere e soddisfare queste esigenze aziendali implicite, andando oltre la semplice accuratezza e passando a una misura più sfumata di utilità e pertinenza. Per raggiungere questo obiettivo, Samsung Research ha sviluppato un processo di collaborazione unico tra esperti umani e IA per creare i criteri di valutazione della produttività. Inizialmente, gli annotatori umani stabiliscono gli standard di valutazione per una determinata attività. Un’intelligenza artificiale esamina poi questi standard, verificando la presenza di potenziali errori, contraddizioni interne o vincoli inutili che potrebbero non riflettere un’aspettativa realistica dell’utente. In seguito al feedback dell’IA, gli annotatori umani perfezionano i criteri. Questo ciclo iterativo garantisce che gli standard di valutazione finali siano precisi e riflettano un risultato di alta qualità. Questo processo di verifica incrociata fornisce un sistema di valutazione automatizzato che assegna un punteggio alle prestazioni dei LLM. Utilizzando l’intelligenza artificiale per applicare questi criteri raffinati, il sistema riduce al minimo i pregiudizi soggettivi che possono verificarsi con l’assegnazione di punteggi esclusivamente umani, garantendo coerenza e affidabilità in tutti i test. TRUEBench impiega anche un modello di punteggio rigoroso in cui un modello AI deve soddisfare tutte le condizioni associate a un test per ricevere un voto positivo. Questo approccio “tutto o niente” per le singole condizioni consente di valutare in modo più dettagliato ed esigente le prestazioni dei modelli di IA nelle diverse attività aziendali. Per aumentare la trasparenza e incoraggiare un’adozione più ampia, Samsung ha reso pubblici i campioni di dati e le classifiche di TRUEBench sulla piattaforma open-source globale Hugging Face. Questo permette a sviluppatori, ricercatori e aziende di confrontare direttamente le prestazioni di produttività di un massimo di cinque diversi modelli di IA contemporaneamente. La piattaforma fornisce una panoramica chiara e immediata di come le varie IA si posizionano l’una rispetto all’altra in compiti pratici. Al momento della stesura di questo articolo, ecco i 20 modelli migliori per classifica generale in base al benchmark AI di Samsung: I dati completi pubblicati includono anche la lunghezza media delle risposte generate dall’IA. Ciò consente di confrontare simultaneamente non solo le prestazioni ma anche l’efficienza, un aspetto fondamentale per le aziende che valutano i costi operativi e la velocità. Con il lancio di TRUEBench, Samsung non si limita a rilasciare un altro strumento, ma punta a cambiare il modo in cui il settore pensa alle prestazioni dell’IA. Spostando l’obiettivo dalla conoscenza astratta alla produttività tangibile, il benchmark di Samsung potrebbe aiutare le aziende a prendere decisioni migliori su quali modelli di IA aziendali integrare nei loro flussi di lavoro e a colmare il divario tra il potenziale di un’IA e il suo valore comprovato. Leggi di più su www.artificialintelligence-news.com
La qualità dei dati è fondamentale per la crescita guidata dall’AI

Mentre le aziende si affrettano a implementare l’IA, molte scoprono che il successo del progetto dipende direttamente dalla qualità dei dati. Questa dipendenza fa sì che molte iniziative ambiziose si arenino, non andando mai oltre la fase sperimentale di proof-of-concept. Qual è quindi il segreto per trasformare questi esperimenti in veri e propri generatori di reddito? AI News ha incontrato Martin Frederik, responsabile regionale per Paesi Bassi, Belgio e Lussemburgo del gigante del cloud dei dati Snowflake, per scoprirlo. “Non esiste una strategia di AI senza una strategia di dati”, afferma Frederik. “Le app, gli agenti e i modelli di IA sono efficaci quanto i dati su cui sono costruiti e, senza un’infrastruttura di dati unificata e ben gestita, anche i modelli più avanzati possono fallire” Migliorare la qualità dei dati è fondamentale per il successo dei progetti di IA È una storia familiare per molte organizzazioni: un promettente proof-of-concept impressiona il team ma non si traduce mai in uno strumento che fa guadagnare l’azienda. Secondo Frederik, questo accade spesso perché i leader considerano la tecnologia come un obiettivo finale. “L’intelligenza artificiale non è la meta, ma il veicolo per raggiungere gli obiettivi aziendali”, consiglia Frederik. Quando i progetti si bloccano, di solito i colpevoli sono alcuni: il progetto non è veramente allineato con le esigenze dell’azienda, i team non si parlano tra loro o i dati non sono chiari. È facile scoraggiarsi di fronte alle statistiche che indicano che l’80% dei progetti di IA non raggiunge la produzione, ma Frederik offre una prospettiva diversa. Non si tratta necessariamente di un fallimento, suggerisce, ma di “parte del processo di maturazione”. Per chi riesce a creare le basi giuste, i vantaggi sono molto concreti. Un recente studio di Snowflake ha rilevato che il 92% delle aziende sta già vedendo un ritorno sui propri investimenti nell’IA. Infatti, per ogni sterlina spesa, ne ricevono 1,41 in termini di risparmi sui costi e nuove entrate. La chiave, ripete Frederik, è avere una “piattaforma sicura, governata e centralizzata” per i tuoi dati fin dall’inizio. Non si tratta solo di tecnologia, ma anche di persone Anche con la migliore tecnologia, una strategia di IA può fallire se la cultura aziendale non è pronta. Una delle sfide più grandi è portare i dati nelle mani di tutti coloro che ne hanno bisogno, non solo di pochi scienziati dei dati. Per far funzionare l’IA su scala, devi costruire solide fondamenta nelle tue “persone, processi e tecnologie” Ciò significa abbattere i muri tra i reparti e rendere accessibili a tutti dati di qualità e strumenti di IA. “Con la giusta governance, l’IA diventa una risorsa condivisa piuttosto che uno strumento isolato”, spiega Frederik. Quando tutti lavorano da un’unica fonte di verità, i team possono smettere di discutere su quali numeri siano corretti e iniziare a prendere insieme decisioni più rapide e intelligenti. Il prossimo salto: L’intelligenza artificiale che ragiona da sola La vera svolta a cui stiamo assistendo è l’emergere di agenti di intelligenza artificiale in grado di comprendere e ragionare su tutti i tipi di dati contemporaneamente, indipendentemente dalla qualità della struttura; dalle righe e colonne ordinate di un foglio di calcolo, alle informazioni non strutturate contenute in documenti, video ed e-mail. Considerando che questi dati non strutturati costituiscono l’80-90% dei dati di una tipica azienda, si tratta di un enorme passo avanti. I nuovi strumenti consentono al personale, indipendentemente dal livello di competenza tecnica, di porre domande complesse in inglese semplice e di ottenere risposte direttamente dai dati. Frederik spiega che si tratta di un passo avanti verso quella che chiama “autonomia orientata agli obiettivi”. Finora l’intelligenza artificiale era un assistente utile che dovevi dirigere costantemente. “Se fai una domanda, ottieni una risposta; se chiedi un codice, ottieni uno snippet”, osserva. La prossima generazione di IA è diversa. Potrai dare a un agente un obiettivo complesso e lui capirà da solo i passaggi necessari, dalla scrittura del codice all’acquisizione di informazioni da altre app per fornire una risposta completa. Questo automatizzerà le parti più lunghe del lavoro di un data scientist, come la “noiosa pulizia dei dati” e la “ripetitiva messa a punto dei modelli” Il risultato? Libera le menti più brillanti per concentrarsi su ciò che conta davvero. Questo eleva il tuo personale “da professionista a stratega” e gli permette di creare valore reale per l’azienda. E questo non può che essere un bene. Snowflake è uno degli sponsor principali dell’AI & Big Data Expo Europedi quest’anno e avrà una serie di relatori che condivideranno le loro profonde intuizioni durante l’evento. Passa allo stand di Snowflake, al numero 50, per saperne di più su come rendere l’AI aziendale facile, efficiente e affidabile. Leggi di più su www.artificialintelligence-news.com
Il deficit di fiducia del pubblico è un ostacolo importante per la crescita dell’IA

Mentre i politici fanno leva sulle promesse di crescita ed efficienza dell’IA, un nuovo rapporto rivela un deficit di fiducia da parte dei cittadini nei confronti di questa tecnologia. Molti sono profondamente scettici e questo crea un grosso problema ai piani dei governi. Un’indagine approfondita condotta dal Tony Blair Institute for Global Change (TBI) e da Ipsos ha messo nero su bianco questa sensazione di disagio. È emerso che la mancanza di fiducia è il motivo principale per cui le persone si tirano indietro di fronte all’utilizzo dell’IA generativa. Non si tratta solo di una vaga preoccupazione, ma di un vero e proprio ostacolo che frena la rivoluzione dell’IA di cui i politici sono tanto entusiasti. La fiducia del pubblico nell’IA aumenta con l’uso Il rapporto mostra un’interessante divisione nel modo in cui vediamo l’IA. Da un lato, più della metà di noi si è cimentata con strumenti di IA generativa nell’ultimo anno. Si tratta di un’adozione piuttosto rapida per una tecnologia che fino a pochi anni fa era a malapena sul radar del pubblico. Tuttavia, quasi la metà del paese non ha mai utilizzato l’IA, né a casa né al lavoro. Questo crea un enorme divario nel modo in cui le persone percepiscono l’IA e la sua crescita. I dati suggeriscono che più si utilizza l’IA, più si tende a fidarsi di essa. Per le persone che non hanno mai utilizzato l’IA, il 56% la vede come un rischio per la società. Ma per le persone che la usano ogni settimana, questa percentuale si riduce di oltre la metà, scendendo al 26%. Si tratta di un classico caso di familiarità che genera comfort. Se non hai mai avuto un’esperienza positiva con l’IA, è molto più facile credere ai titoli spaventosi. Vedere i suoi limiti in prima persona aiuta anche a contrastare il timore che tutti stiano per essere sostituiti dall’IA. Questo divario nella fiducia del pubblico nei confronti dell’IA dipende anche dall’età. I giovani sono generalmente più ottimisti, mentre le generazioni più anziane sono più caute. I professionisti del mondo tecnologico si sentono pronti per ciò che sta per accadere, ma quelli di settori come la sanità e l’istruzione? Si sentono molto meno fiduciosi, anche se i loro lavori saranno probabilmente più influenzati dalla crescita dell’IA. Non è importante quello che fai, ma il modo in cui lo fai Uno degli aspetti più rivelatori del rapporto è che i nostri sentimenti nei confronti dell’IA cambiano a seconda del lavoro che sta svolgendo. Siamo felici che l’IA ci aiuti a risolvere gli ingorghi stradali o a velocizzare la diagnosi del cancro. Perché? Perché possiamo vedere i benefici diretti e positivi per le nostre vite. È una tecnologia che sta chiaramente lavorando per noi. Ma se chiediamo alle persone cosa ne pensano dell’IA che monitora le loro prestazioni sul lavoro o che viene utilizzata per indirizzarli con annunci politici, l’umore peggiora immediatamente. L’accettazione crolla. Questo dimostra che le nostre preoccupazioni non riguardano la crescita dell’IA in sé, ma il suo scopo. Vogliamo sapere se l’IA viene usata a fin di bene e se ci sono delle regole che impediscono alle grandi aziende tecnologiche di avere il coltello dalla parte del manico. Come possiamo aumentare la fiducia del pubblico nell’IA per sostenere la crescita? Il rapporto del TBI non si limita a evidenziare il problema, ma offre un percorso chiaro per costruire quella che definisce “fiducia giustificata” Innanzitutto, il governo deve cambiare il modo in cui parla di IA. Dimentica le promesse astratte di aumento del PIL. Parla invece di ciò che significa per la vita delle persone: ottenere un appuntamento in ospedale più velocemente, rendere i servizi pubblici più facili da usare o ridurre gli spostamenti quotidiani. Mostra, non limitarti a raccontare, i benefici della crescita dell’IA. Poi, dimostra che funziona. Quando l’IA viene utilizzata nei servizi pubblici, dobbiamo vedere la prova che sta effettivamente migliorando le cose per le persone reali, non solo che è più efficiente per un foglio di calcolo. La misura del successo dovrebbe essere la nostra esperienza, non solo un benchmark tecnico. Naturalmente, tutto questo non funziona senza regole e formazione adeguate. Le autorità di regolamentazione devono avere il potere e il know-how necessari per tenere sotto controllo l’IA e tutti noi dobbiamo avere accesso alla formazione per sentirci sicuri di utilizzare questi nuovi strumenti in modo sicuro ed efficace. L’obiettivo è quello di rendere l’IA qualcosa con cui tutti possiamo lavorare, non qualcosa che sembra essere fatto per noi. Costruire la fiducia del pubblico nell’IA per sostenerne la crescita significa costruire la fiducia nelle persone e nelle istituzioni che se ne occupano. Se il governo riesce a dimostrare che si impegna a far funzionare l’IA per tutti, potrebbe coinvolgere il pubblico. Leggi di più su www.artificialintelligence-news.com
Trump scherza sull’intelligenza artificiale mentre Stati Uniti e Regno Unito firmano un nuovo accordo tecnologico

Il Presidente degli Stati Uniti Donald Trump ha affermato giovedì che l’intelligenza artificiale sta “conquistando il mondo” e ha scherzato dicendo che spera che i dirigenti del settore tecnologico la capiscano meglio di lui. Il commento è arrivato nel momento in cui Trump e il primo ministro britannico Keir Starmer hanno ospitato a Londra un incontro di leader del mondo dell’economia e della tecnologia durante la seconda visita di Stato del presidente in Gran Bretagna. Tra i presenti c’era anche il CEO di Nvidia Jensen Huang, la cui azienda è diventata centrale nel boom globale dell’intelligenza artificiale. Dopo un discorso preparato sui legami tra Stati Uniti e Regno Unito, sulle nuove partnership e sui miliardi di dollari di investimenti promessi, Trump ha ammesso di avere una scarsa conoscenza dell’IA. “Questo creerà una nuova cooperazione tra governo, mondo accademico e settore privato in aree come l’IA, che sta conquistando il mondo […] Sto guardando voi ragazzi. State conquistando il mondo. Jensen, non so cosa tu stia facendo qui”, ha detto Trump, suscitando le risate di Starmer e del pubblico. “Spero che tu abbia ragione. Posso solo dire che entrambi speriamo che tu abbia ragione” Trump e Starmer firmano un accordo tecnologico incentrato sull’AI Il momento clou dell’evento è stata la firma di un “Tech Prosperity Deal”, che definisce i piani dei due Paesi per approfondire la cooperazione nelle tecnologie emergenti. L’accordo riguarda progetti come lo sviluppo di modelli di intelligenza artificiale per l’assistenza sanitaria, il progresso dell’informatica quantistica e la modernizzazione dei programmi nucleari. Come parte dell’accordo, Nvidia si è impegnata a distribuire 120.000 GPU in Gran Bretagna. Si tratterà del più grande rollout dell’azienda in Europa. La mossa parallela di Nvidia con Intel Giovedì scorso, Nvidia ha rivelato un investimento di 5 miliardi di dollari in Intel e una collaborazione con quest’ultima su nuovi prodotti. Le due aziende lavoreranno insieme su data center personalizzati che supportano i sistemi di intelligenza artificiale e su processori per personal computer. Nvidia ha dichiarato che intende acquistare azioni Intel a 23,28 dollari per azione, previa approvazione da parte delle autorità competenti. L’investimento arriva mentre Intel cerca di recuperare terreno dopo anni di declino. “Questa storica collaborazione unisce strettamente lo stack di AI e di calcolo accelerato di Nvidia con le CPU e il vasto ecosistema x86 di Intel – una fusione di due piattaforme di livello mondiale”, ha dichiarato Huang. “Insieme, espanderemo i nostri ecosistemi e getteremo le basi per la prossima era dell’informatica” Per i data center, Intel progetterà chip che supporteranno l’infrastruttura AI di Nvidia. Per i PC desktop, Intel produrrà processori che integreranno la tecnologia di Nvidia, dando all’azienda la possibilità di spingersi in aree in cui ha perso slancio. Un’ancora di salvezza per Intel La partnership offre una spinta a Intel, un tempo colonna portante dei personal computer ma ora in difficoltà nel tenere il passo. L’azienda ha perso il passaggio agli smartphone dopo che l’iPhone di Apple ha trasformato il mercato nel 2007 e più recentemente è rimasta indietro nella corsa all’hardware per l’intelligenza artificiale. Nvidia, nel frattempo, è diventata l’azienda di maggior valore al mondo. Gli investitori hanno reagito rapidamente: Le azioni di Intel hanno fatto un balzo del 30% nelle contrattazioni pre-mercato, mentre quelle di Nvidia sono salite di quasi il 3%. Prima di firmare l’accordo, Trump ha aggiunto una dose di umorismo, rivolgendosi al Segretario del Tesoro Scott Bessent e chiedendo: “Devo firmare? Sei sicuro, Scott? Se l’accordo non va bene, la colpa è tua” Durante la visita nel Regno Unito, Trump ha anche detto di sperare che l’IA sia gestita con saggezza dagli esperti che ne guidano lo sviluppo, dal momento che ha ammesso che è al di là della sua comprensione. L’amministrazione Trump monitora da vicino la concorrenza dell’IA Mentre le partnership si espandono, le autorità di regolamentazione degli Stati Uniti si concentrano maggiormente sulla concorrenza nel settore dell’IA. Parlando a una conferenza a New York, l’Assistente del Procuratore Generale Gail Slater ha dichiarato che il Dipartimento di Giustizia degli Stati Uniti è in allerta per i comportamenti anticoncorrenziali nel settore. “Le dinamiche competitive di ogni livello dello stack dell’IA e le loro interrelazioni, con un occhio particolare ai comportamenti di esclusione che precludono l’accesso a input e canali di distribuzione chiave, sono aree legittime di indagine antitrust”, ha dichiarato. “Naturalmente, un modello veramente open-source non deve essere gestito unilateralmente da un singolo fornitore che esercita un’influenza ingiustificata e impone restrizioni” Un aspetto fondamentale è l’accesso ai dati. Un giudice federale di Washington ha recentemente ordinato a Google di condividere alcuni dei suoi dati di ricerca con i rivali, comprese le aziende di intelligenza artificiale, per contribuire a livellare il campo di gioco della ricerca online. Google ha dichiarato che farà appello a questa sentenza. Le osservazioni di Slater riflettono una continuità di preoccupazioni. Anche i funzionari dell’Antitrust sotto il presidente Joe Biden hanno esaminato i legami delle big tech con le startup di IA, a dimostrazione del fatto che entrambe le amministrazioni ritengono che la concorrenza sia fondamentale per il futuro dell’IA. (Foto di History in HD) Leggi di più su www.artificialintelligence-news.com
Google svela nuovi strumenti di AI Marketing in vista della stagione delle feste

Google ha annunciato oggi l’introduzione di nuovi strumenti che consentiranno agli inserzionisti di raggiungere gli acquirenti grazie all’intelligenza artificiale, che sta caratterizzando l’imminente stagione delle feste. Una delle parti più importanti dell’annuncio di Google è la possibilità per gli inserzionisti di attivare annunci di ricerca guidati dall’intelligenza artificiale attraverso AI Max. AI Max è ora disponibile a livello globale in versione beta e promuove i prodotti insieme ai riepiloghi di ricerca dell’intelligenza artificiale, anziché rispondere semplicemente a termini di ricerca specifici. Ciò significa che i marchi possono apparire in ricerche complesse e multi-intento, ha spiegato Dan Taylor, vicepresidente degli annunci globali di Google, durante un evento stampa di presentazione della nuova suite di strumenti. Ad esempio, supponiamo che qualcuno digiti su Google “come decorare un piccolo appartamento per le vacanze”. L’intelligenza artificiale potrebbe includere consigli per risparmiare spazio e per il fai-da-te, ma potrebbe anche suggerire un set di luci in miniatura per un albero da tavolo, ha detto Taylor. “Questo crea un’opportunità commerciale che non era necessariamente insita nell’interrogazione iniziale”, ha spiegato Taylor. Google ha anche aggiunto nuovi strumenti a YouTube, consentendo agli inserzionisti di ottimizzare le campagne in base al canale – cioè online, in-app o in-store – e di promuovere in-store in modo specifico con offerte locali. Inoltre, gli annunci pubblicitari su YouTube sono ora “shoppabili”, consentendo ai brand di promuovere prodotti specifici in quello spazio pubblicitario. L’azienda ha inoltre annunciato che gli strumenti di intelligenza artificiale generativa consentiranno agli inserzionisti di creare o modificare le immagini dei prodotti all’interno delle sue piattaforme di asset e product studio. Ad esempio, i commercianti che utilizzano lo studio di prodotti di Google possono ora modificare lo sfondo dell’immagine di un gruppo di prodotti in una sola volta. Nelle prossime settimane, gli inserzionisti avranno anche accesso al modello Imagen 4 di Google per la creazione di asset di campagne in Performance Max e Demand Gen. Inoltre, Google ha aggiunto nuove funzionalità incentrate sulla fidelizzazione in Performance Max e Standard Shopping, consentendo ai brand di stabilire obiettivi di fidelizzazione e di offrire ai membri della fidelizzazione vantaggi come prezzi più bassi o vantaggi di spedizione. “La maggior parte di queste innovazioni non esisteva in nessuna forma un anno fa”, ha sottolineato Taylor. “Per questo motivo organizziamo questi eventi a metà anno, invece che una sola volta all’anno, perché dobbiamo iterare e lanciare nuove cose così rapidamente” Leggi di più su www.adweek.com
Claude di Anthropic fa la prima grande operazione pubblicitaria per affrontare i rivali dell’intelligenza artificiale

La prima grande campagna di Anthropic per il suo chatbot AI di punta, Claude, ha una visione ottimistica del potenziale della tecnologia nell’affrontare i grandi problemi del mondo. Oggi Anthropic ha lanciato “Keep Thinking” per posizionare Claude come il miglior strumento di IA per i risolutori di problemi. La campagna, creata dall’agenzia indipendente Mother, rappresenta un investimento mediatico multimilionario e il primo ingresso di Anthropic nella pubblicità a pagamento, secondo il marchio. La posta in gioco è alta per Anthropic, valutata 183 miliardi di dollari, per differenziarsi nel boom dell’IA generativa. Anche rivali come Perplexity e OpenAI, che ha lanciato il suo primo spot al Super Bowl a febbraio, si sono spinti nella pubblicità tradizionale nell’ultimo anno. A marzo, Anthropic si è estesa alla ricerca sul web. All’inizio di questo mese, l’azienda ha accettato di pagare 1,5 miliardi di dollari per risolvere una causa collettiva per violazione del copyright relativa all’uso di libri pirata per addestrare modelli linguistici di grandi dimensioni. La nuova pubblicità di Claude, diretta da Daniel Wolfe attraverso la casa di produzione Love Song Films, inizia con una nota negativa, con la frase “Non c’è mai stato un momento peggiore”, che passa sopra un montaggio di immagini che evocano varie sfide. La voce fuori campo passa poi a un invito ottimistico: “Non c’è mai stato un momento migliore per avere un problema” Le scene successive illustrano i problemi, dalle diagnosi mediche alla mancanza di istruzione, che Claude può aiutare ad affrontare. La campagna includerà posizionamenti mediatici di rilievo come trasmissioni durante eventi sportivi dal vivo, servizi di streaming come Netflix e Hulu, stampa sul New York Times e sul Wall Street Journal, podcast e collaborazioni con influencer. Gli annunci out-of-home hanno come protagonisti i ricercatori di Anthropic Kamal Ndousse e Grace Han, nonché i creatori del motore di intelligenza artificiale Poetry Camera, Kelin Zhang, Ryan Mather e Evan Kahn. Initiative è stata l’agenzia media. Parlare ai clienti business Il target di Claude è costituito da “risolutori di problemi”, come sviluppatori, ricercatori e imprenditori. Le ricerche condotte da Anthropic hanno rilevato che Claude.ai e Claude API vengono utilizzati principalmente per attività lavorative come la codifica, la ricerca e l’istruzione. L’azienda ha dichiarato di avere oltre 300.000 clienti commerciali, rispetto ai meno di 1.000 di due anni fa. “Continua a pensare” vuole essere sia un grido d’appello che una promessa: all’industria, che dobbiamo costruire l’IA in modo responsabile; ai risolutori di problemi di tutto il mondo, che ciò che un tempo sembrava impossibile ora è a portata di mano”, ha dichiarato Andrew Stirk, responsabile del marketing del marchio di Anthropic, in un comunicato. “Claude è per coloro che vedono l’IA non come una scorciatoia, ma come un partner di pensiero per affrontare le sfide più importanti” Mother si è aggiudicata l’attività creativa di Anthropic all’inizio di quest’anno. L’agenzia ha utilizzato Claude per lo sviluppo dell’annuncio pubblicitario facendo ricerche sugli scenari di utilizzo, ha dichiarato un portavoce di Mother. “Il film prende atto del nostro presente pieno di problemi, ma riflette l’intelligenza artificiale come soluzione piuttosto che come un’altra minaccia”, ha dichiarato Felix Richter, direttore creativo globale di Mother. Leggi di più su www.adweek.com
Minacce abilitate dall’intelligenza artificiale e regolamentazione più severa in Francia

Un nuovo rapporto di ricerca della società di consulenza tecnologica Information Services Group (ISG) ha rivelato che le minacce dell’intelligenza artificiale e le normative più severe stanno modificando il panorama francese della sicurezza informatica, portando le aziende a rivalutare le proprie strategie di sicurezza. L’aumento dei budget destinati alla sicurezza fa sì che molte aziende francesi abbiano bisogno di una nuova guida e di nuove competenze per stabilire priorità efficaci e affrontare le sfide della sicurezza. Secondo il rapporto 2025 ISG Provider Lens Cybersecurity – Services and Solutions, le aziende francesi si stanno adattando a un panorama di sicurezza più complesso e stratificato, e molte adottano una difesa basata sull’intelligenza artificiale. Questo per rispondere alle esigenze introdotte dalle nuove normative, dall’adozione del cloud, dai vincoli finanziari e dalla carenza di lavoratori qualificati, sostiene l’esperto di sicurezza AI. “Il modo in cui le aziende francesi scelgono i servizi di sicurezza sta cambiando”, ha dichiarato Julien Escribe, partner e amministratore delegato di ISG. “Con l’aumento dei budget destinati alla sicurezza, le aziende hanno bisogno di una guida e di una visione per stabilire le giuste priorità e affrontare i problemi di sicurezza” Secondo il rapporto, le aziende iniziano ad affidarsi a soluzioni all-in-one per la sicurezza, piuttosto che a una serie di strumenti separati. Le organizzazioni cercano fornitori di servizi che possano integrare i loro team di sicurezza. Secondo l’azienda, le aziende che migrano verso topologie multicloud e cloud devono affrontare sfide di integrazione, visibilità e gestione. Le aziende hanno difficoltà a mantenere la supervisione delle applicazioni, quindi ricorrono a soluzioni come il secure access service edge (SASE), che unisce la sicurezza di rete e la connettività in un servizio unificato. Il rapporto ha rilevato che le organizzazioni francesi sono alla ricerca di piattaforme di sicurezza integrate per avere una visione unica delle possibili minacce e una supervisione centralizzata delle difese. A causa dello stress finanziario e della continua carenza di talenti nel campo della cybersecurity, molte aziende utilizzano ancora fornitori di servizi di sicurezza tecnica (TSS) per il supporto, le piattaforme centralizzate e l’automazione. ISG afferma che le imprese francesi devono integrare le politiche di governance, rischio e committenza (GRC) nelle loro strategie di sicurezza, poiché le normative europee come la direttiva NIS2 e l’AI Act stanno diventando legge francese. Secondo il rapporto, oltre 15.000 aziende francesi sono ora soggette a ulteriori adempimenti. Il documento mostra come gli attori malintenzionati utilizzino l’intelligenza artificiale nei cyberattacchi, ponendo nuove sfide per il rilevamento e la risposta. Per reagire, le aziende si rivolgono a fornitori di servizi di sicurezza che utilizzano essi stessi l’AI e il ML. I loro clienti stanno investendo maggiormente nel rilevamento guidato dall’AI, nella formazione dei dipendenti e nelle risposte automatizzate. Benoît Scheuber, consulente principale e analista di sicurezza presso ISG, ha affermato che l’IA sta trasformando il panorama della cybersecurity, spingendo le aziende a cercare fornitori in grado di integrare strumenti che aumentino l’efficienza, affermando: “I clienti cercano fornitori in grado di integrare i migliori prodotti in una piattaforma unificata per l’efficienza operativa” (Fonte immagine: “Soldato dell’esercito francese alla Torre Eiffel” di derekskey è concesso in licenza CC BY 2.0.) Leggi di più su www.artificialintelligence-news.com
Meta rivede le politiche sui chatbot AI tra le preoccupazioni per la sicurezza dei bambini

Meta sta rivedendo il modo in cui i suoi chatbot AI interagiscono con gli utenti dopo una serie di segnalazioni che hanno messo in luce comportamenti preoccupanti, tra cui interazioni con minori. L’azienda ha dichiarato a TechCrunch che ora sta addestrando i suoi bot a non interagire con gli adolescenti su argomenti come l’autolesionismo, il suicidio o i disturbi alimentari e a evitare battute romantiche. Si tratta di misure temporanee in attesa di sviluppare regole a lungo termine. Le modifiche fanno seguito a un’indagine di Reuters che ha scoperto che i sistemi di Meta potevano generare contenuti sessualizzati, tra cui immagini a torso nudo di celebrità minorenni, e coinvolgere i bambini in conversazioni romantiche o allusive. Un caso riportato dall’agenzia di stampa descrive un uomo morto dopo essersi precipitato a un indirizzo fornito da un chatbot a New York. La portavoce di Meta, Stephanie Otway, ha ammesso che l’azienda ha commesso degli errori. Ha dichiarato che Meta sta “addestrando le nostre IA a non interagire con gli adolescenti su questi argomenti, ma a guidarli verso risorse esperte” e ha confermato che alcuni personaggi IA, come quelli altamente sessualizzati come “Russian Girl”, saranno limitati. I sostenitori della sicurezza dei bambini sostengono che l’azienda avrebbe dovuto agire prima. Andy Burrows della Molly Rose Foundation ha definito “stupefacente” il fatto che ai bot sia stato permesso di operare in modi che mettono a rischio i giovani. E ha aggiunto: “Sebbene ulteriori misure di sicurezza siano benvenute, i test di sicurezza dovrebbero essere effettuati prima che i prodotti vengano immessi sul mercato, non retroattivamente quando si è verificato un danno” Problemi più ampi legati all’uso improprio dell’IA L’esame dei chatbot AI di Meta si inserisce in un contesto di preoccupazioni più ampie su come i chatbot AI possano influenzare gli utenti più vulnerabili. Una coppia californiana ha recentemente intentato una causa contro OpenAI, sostenendo che ChatGPT ha incoraggiato il figlio adolescente a togliersi la vita. OpenAI ha dichiarato che sta lavorando a strumenti per promuovere un uso più sano della sua tecnologia, sottolineando in un post sul blog che “l’IA può sembrare più reattiva e personale rispetto alle tecnologie precedenti, soprattutto per gli individui vulnerabili che vivono un disagio mentale o emotivo” Gli incidenti evidenziano un crescente dibattito sul fatto che le aziende di IA stiano rilasciando prodotti troppo velocemente senza le dovute garanzie. I legislatori di diversi paesi hanno già avvertito che i chatbot, pur essendo utili, possono amplificare contenuti dannosi o dare consigli fuorvianti a persone che non sono in grado di metterli in discussione. AI Studio di Meta e i problemi di impersonificazione dei chatbot Nel frattempo, Reuters ha riportato che AI Studio di Meta è stato utilizzato per creare chatbot “parodia” di celebrità come Taylor Swift e Scarlett Johansson. I tester hanno scoperto che i bot spesso sostenevano di essere le persone reali, facevano avances sessuali e in alcuni casi generavano immagini inappropriate, anche di minori. Sebbene Meta abbia rimosso diversi bot dopo essere stata contattata dai giornalisti, molti sono rimasti attivi. Alcuni dei chatbot AI sono stati creati da utenti esterni, ma altri provengono dall’interno di Meta. Un chatbot creato da un product lead della sua divisione di AI generativa impersonava Taylor Swift e invitava un giornalista della Reuters a incontrarsi per una “avventura romantica” sul suo tour bus. Questo nonostante le politiche di Meta vietino esplicitamente immagini sessualmente suggestive e l’impersonificazione diretta di personaggi pubblici. La questione dell’impersonificazione di chatbot AI è particolarmente delicata. Le celebrità corrono rischi di reputazione quando la loro immagine viene utilizzata in modo improprio, ma gli esperti sottolineano che anche gli utenti comuni possono essere ingannati. Un chatbot che finge di essere un amico, un mentore o un partner romantico può incoraggiare qualcuno a condividere informazioni private o addirittura a incontrarsi in situazioni non sicure. Rischi del mondo reale I problemi non si limitano all’intrattenimento. I chatbot di intelligenza artificiale che si spacciano per persone reali hanno offerto indirizzi e inviti falsi, sollevando interrogativi sul modo in cui gli strumenti di intelligenza artificiale di Meta vengono monitorati. Un esempio riguarda un uomo di 76 anni del New Jersey che è morto dopo essere caduto mentre si accingeva a incontrare un chatbot che sosteneva di provare qualcosa per lui. Casi come questo illustrano perché le autorità di regolamentazione stanno osservando attentamente l’IA. Il Senato e 44 procuratori generali statali hanno già iniziato a indagare sulle pratiche di Meta, aggiungendo pressione politica alle riforme interne dell’azienda. La loro preoccupazione non riguarda solo i minori, ma anche il modo in cui l’IA potrebbe manipolare gli utenti più anziani o vulnerabili. Meta afferma di essere ancora al lavoro per migliorare la situazione. Le sue piattaforme inseriscono gli utenti di età compresa tra i 13 e i 18 anni in “account adolescenti” con impostazioni più rigide per i contenuti e la privacy, ma l’azienda non ha ancora spiegato come intende affrontare l’elenco completo dei problemi sollevati da Reuters. Tra questi, i bot che offrono falsi consigli medici e generano contenuti razzisti. Pressioni continue sulle politiche di Meta in materia di chatbot AI Per anni Meta ha dovuto affrontare critiche sulla sicurezza delle sue piattaforme di social media, in particolare per quanto riguarda bambini e adolescenti. Ora gli esperimenti sui chatbot AI di Meta stanno attirando un’attenzione simile. Sebbene l’azienda stia adottando misure per limitare il comportamento dannoso dei chatbot, il divario tra le sue politiche dichiarate e il modo in cui sono stati utilizzati i suoi strumenti solleva continui dubbi sulla capacità di far rispettare tali regole. Fino a quando non verranno adottate misure di salvaguardia più severe, è probabile che le autorità di regolamentazione, i ricercatori e i genitori continueranno a chiedere a Meta se la sua intelligenza artificiale è pronta per l’uso pubblico. (Foto di Maxim Tolchinskiy) Leggi di più su www.artificialintelligence-news.com
Copilot di Microsoft supera ChatGPT nella crescita della telefonia mobile negli Stati Uniti, come mostrano i dati

Copilot sta superando i rivali nella crescita mobile, secondo i dati Comscore condivisi in esclusiva con ADWEEK. L’assistente AI di Microsoft ha aggiunto 5,6 milioni di utenti mobili da marzo a giugno di quest’anno, rispetto ai 3,9 milioni di ChatGPT nello stesso periodo, ChatGPT di OpenAI domina ancora il mercato con 25,4 milioni di utenti mobili, ma la sua crescita del 17,9% nello stesso periodo precede l’aumento del 175% di Copilot che ha raggiunto gli 8,8 milioni. Anche Gemini di Google ha registrato una crescita del 68%, raggiungendo 14,3 milioni di utenti, grazie anche al fatto di essere precaricato sui telefoni Pixel. “L’elemento di produttività di Copilot e la convenienza dal punto di vista aziendale – dato che è integrato nei prodotti Microsoft – stanno guidando gran parte dell’adozione”, ha dichiarato Brian Pugh, Chief Product Officer di Comscore. Rispetto a OpenAI, Microsoft ha una posizione molto più solida nel mercato aziendale e i suoi rapporti di lunga data con agenzie e marchi l’hanno aiutata a integrare l’IA nei flussi di lavoro aziendali, favorendo una rapida adozione. L’impennata nell’adozione dell’IA sta dando i suoi frutti finanziari a Microsoft, che ha dichiarato che i ricavi di Azure hanno superato i 75 miliardi di dollari per l’anno fiscale, con un aumento del 34% rispetto all’anno precedente, grazie soprattutto alla domanda di IA e alla “crescita di tutti i carichi di lavoro”, secondo quanto dichiarato dal CEO di Microsoft Satya Nadella. L’azienda è anche un importante investitore in OpenAI e integra i modelli di OpenAI in Copilot e Azure. OpenAI, nel frattempo, ha generato 10 miliardi di dollari di ricavi ricorrenti annuali dalle vendite di ChatGPT e API a giugno, indipendentemente dal suo accordo di licenza con Microsoft. I dati di Comscore mostrano che l’utilizzo dei dispositivi mobili sta aumentando mentre il desktop diminuisce. Da marzo a giugno, l’utilizzo degli strumenti di intelligenza artificiale su web e app per dispositivi mobili è cresciuto del 5,3%, raggiungendo 73,4 milioni di utenti, mentre gli utenti desktop sono scesi dell’11,1%, raggiungendo 78,4 milioni. I dati riflettono un cambiamento più ampio nel modo in cui gli strumenti di IA si stanno integrando nella vita di tutti i giorni. Inoltre, secondo Pugh, i fornitori di IA hanno l’opportunità strategica di abbinare gli strumenti a piani di hardware e servizi. La startup di AI Perplexity, ad esempio, ha firmato un accordo globale con Motorola ad aprile. Comscore ha raccolto i dati attraverso un panel digitale di circa un quarto di milione di dispositivi, monitorando il coinvolgimento di 117 strumenti di intelligenza artificiale, tra cui ChatGPT, Copilot, Gemini, Canva e Grammarly. I risultati mostrano anche che oltre l’85% degli utenti dei principali assistenti AI rimane fedele a un’unica piattaforma, il che indica che questi strumenti stanno diventando una parte abituale dei flussi di lavoro quotidiani piuttosto che esperimenti occasionali. Leggi di più su www.adweek.com
Dai minuti ai millisecondi: Come CrateDB affronta l’infrastruttura dei dati dell’intelligenza artificiale

La promessa dell’IA rimane immensa, ma c’è una cosa che potrebbe frenarla. “L’infrastruttura che oggi alimenta l’IA non sarà in grado di sostenere le richieste di domani”, si legge in un recente articolo di CIO.com. “I CIO devono ripensare a come scalare in modo più intelligente, non solo più grande, o rischiano di rimanere indietro” CrateDB è d’accordo e l’azienda di database punta a risolvere il problema diventando un “livello di dati unificato per l’analisi, la ricerca e l’intelligenza artificiale” “La sfida è che la maggior parte dei sistemi IT si basa, o è stata costruita, su pipeline batch o asincrone, e ora è necessario ridurre il tempo tra la produzione e il consumo dei dati”, spiega Stephane Castellani, SVP marketing. “CrateDB è un’ottima soluzione perché è davvero in grado di fornire approfondimenti sui dati giusti, con un grande volume e una grande complessità di formati, in una manciata di millisecondi” In un post sul blog si legge che CrateDB agisce come “tessuto connettivo tra i dati operativi e i sistemi di intelligenza artificiale” in quattro fasi: dall’ingestione, all’aggregazione e all’analisi in tempo reale, alla trasmissione dei dati alle pipeline di intelligenza artificiale, fino all’attivazione di cicli di feedback tra modelli e dati. La velocità e la varietà dei dati sono fondamentali; Castellani sottolinea la riduzione dei tempi di interrogazione da minuti a millisecondi. Nel settore manifatturiero, la telemetria può essere raccolta dalle macchine in tempo reale, consentendo un maggiore apprendimento per i modelli di manutenzione predittiva. C’è un altro vantaggio, come spiega Castellani. “Alcuni utilizzano CrateDB anche in fabbrica per l’assistenza alla conoscenza”, spiega Castellani. “Se qualcosa va storto, se compare un messaggio di errore specifico sulla tua macchina e dici: ‘Non sono un esperto di questa macchina, cosa significa e come posso risolverlo?’, [puoi] chiedere a un assistente di conoscenza, che si basa anch’esso su CrateDB come database vettoriale, di accedere alle informazioni e di estrarre il manuale giusto e le istruzioni giuste per reagire in tempo reale” L’intelligenza artificiale, tuttavia, non rimane ferma a lungo: ” non sappiamo come sarà tra qualche mese o addirittura tra qualche settimana”, osserva Castellani. Le organizzazioni stanno cercando di passare a flussi di lavoro di AI completamente agici e con una maggiore autonomia, ma secondo una recente ricerca di PYMENTS Intelligence, il settore manifatturiero – come parte del più ampio settore dei beni e dei servizi – è in ritardo. CrateDB ha stretto una partnership con Tech Mahindra su questo fronte per contribuire a fornire soluzioni di intelligenza artificiale agentica per i settori automobilistico, manifatturiero e delle fabbriche intelligenti. Castellani ha notato l’entusiasmo per il Model Context Protocol (MCP), che standardizza il modo in cui le applicazioni forniscono il contesto ai modelli linguistici di grandi dimensioni (LLM). Lo paragona alla tendenza delle API aziendali di 12 anni fa. L ‘MCP Server di CrateDB, che è ancora in fase sperimentale, funge da ponte tra gli strumenti di intelligenza artificiale e il database di analisi. “Quando parliamo di MCP è più o meno lo stesso approccio [delle API] ma per gli LLM”, spiega. Tech Mahindra è solo una delle partnership chiave per il futuro di CrateDB. “Continuiamo a concentrarci sulle nostre basi”, aggiunge Castellani. “Prestazioni, scalabilità… investendo nella nostra capacità di ingerire dati da un numero sempre maggiore di fonti e riducendo sempre al minimo la latenza, sia dal lato dell’ingestione che da quello delle query” Stephane Castellani interverrà all’AI & Big Data Expo Europe sul tema ” Bringing AI to Real-Time Data – Text2SQL, RAG, and TAG with CrateDB” e all’IoT Tech Expo Europe sul tema ” Smarter IoT Operations: Real-Time Wind Farm Analytics and AI-Driven Diagnostics. Puoi guardare l’intervista completa a Stephane qui sotto: