ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Il nuovo agente AI di Google riscrive il codice per automatizzare le correzioni delle vulnerabilità

Il nuovo agente AI di Google riscrive il codice per automatizzare le correzioni delle vulnerabilità

Google DeepMind ha messo in campo un nuovo agente AI progettato per trovare e correggere autonomamente le vulnerabilità di sicurezza critiche nel codice del software. Il sistema, giustamente chiamato CodeMender, ha già apportato 72 correzioni di sicurezza a progetti open-source consolidati negli ultimi sei mesi. L’identificazione e la correzione delle vulnerabilità è un processo notoriamente difficile e lungo, anche con l’aiuto di metodi automatizzati tradizionali come il fuzzing. La ricerca di Google DeepMind, che comprende progetti basati sull’intelligenza artificiale come Big Sleep e OSS-Fuzz, si è dimostrata efficace nello scoprire nuove vulnerabilità zero-day in codici ben controllati. Questo successo, tuttavia, crea un nuovo collo di bottiglia: man mano che l’IA accelera la scoperta delle falle, si intensifica l’onere per gli sviluppatori umani di risolverle. CodeMender è stato progettato per risolvere questo squilibrio. Funziona come un agente AI autonomo che adotta un approccio completo per risolvere la sicurezza del codice. Le sue capacità sono sia reattive, in quanto gli permettono di correggere istantaneamente le vulnerabilità appena scoperte, sia proattive, in quanto gli consentono di riscrivere il codice esistente per eliminare intere classi di difetti di sicurezza prima che possano essere sfruttati. Questo permette agli sviluppatori e ai manutentori dei progetti di dedicare più tempo alla creazione di funzionalità e al miglioramento del software. Il sistema funziona sfruttando le capacità di ragionamento avanzato dei recenti modelli Gemini Deep Think di Google. Questa base consente all’agente di eseguire il debug e di risolvere complessi problemi di sicurezza con un elevato grado di autonomia. A tal fine, il sistema è dotato di una serie di strumenti che gli consentono di analizzare e ragionare sul codice prima di implementare qualsiasi modifica. CodeMender include anche un processo di validazione per garantire che le modifiche siano corrette e non introducano nuovi problemi, noti come regressioni. Sebbene i modelli linguistici di grandi dimensioni stiano avanzando rapidamente, un errore in materia di sicurezza del codice può avere conseguenze costose. La struttura di validazione automatica di CodeMender è quindi essenziale. Controlla sistematicamente che le modifiche proposte risolvano il problema alla radice, siano funzionalmente corrette, non interrompano i test esistenti e aderiscano alle linee guida sullo stile di codifica del progetto. Solo le patch di alta qualità che soddisfano questi criteri rigorosi vengono sottoposte alla revisione umana. Per migliorare l’efficacia della correzione del codice, il team di DeepMind ha sviluppato nuove tecniche per l’agente AI. CodeMender impiega un’analisi avanzata dei programmi, utilizzando una suite di strumenti che comprende analisi statica e dinamica, test differenziali, fuzzing e risolutori SMT. Questi strumenti gli permettono di esaminare sistematicamente i modelli di codice, il flusso di controllo e il flusso di dati per identificare le cause fondamentali delle falle di sicurezza e delle debolezze architettoniche. Il sistema utilizza anche un’architettura multi-agente, in cui vengono impiegati agenti specializzati per affrontare aspetti specifici di un problema. Ad esempio, uno strumento dedicato alla critica basata su modelli linguistici di grandi dimensioni rivela le differenze tra il codice originale e quello modificato. Questo permette all’agente principale di verificare che le modifiche proposte non introducano effetti collaterali indesiderati e di autocorreggere il proprio approccio quando necessario. In un esempio pratico, CodeMender ha affrontato una vulnerabilità in cui un crash report indicava un heap buffer overflow. Sebbene la patch finale richiedesse solo la modifica di alcune righe di codice, la causa principale non era immediatamente evidente. Utilizzando un debugger e strumenti di ricerca del codice, l’agente ha determinato che il vero problema era un problema di gestione dello stack non corretto con gli elementi dell’Extensible Markup Language (XML) durante l’analisi, situato in un altro punto del codice. In un altro caso, l’agente ha ideato una patch non banale per un complesso problema di durata degli oggetti, modificando un sistema personalizzato per la generazione di codice C all’interno del progetto di destinazione. Oltre a reagire semplicemente ai bug esistenti, CodeMender è stato progettato per proteggere in modo proattivo il software dalle minacce future. Il team ha utilizzato l’agente per applicare le annotazioni -fbounds-safety a parti di libwebp, una libreria di compressione di immagini molto utilizzata. Queste annotazioni istruiscono il compilatore ad aggiungere controlli sui limiti al codice, che possono impedire a un aggressore di sfruttare un buffer overflow per eseguire codice arbitrario. Questo lavoro è particolarmente importante perché una vulnerabilità di heap buffer overflow in libwebp, segnalata come CVE-2023-4863, è stata utilizzata da un attore di minacce in un exploit iOS zero-click diversi anni fa. DeepMind fa notare che, grazie a queste annotazioni, quella specifica vulnerabilità, insieme alla maggior parte degli altri buffer overflow presenti nelle sezioni annotate, sarebbe stata resa non sfruttabile. La correzione proattiva del codice da parte dell’agente AI comporta un sofisticato processo decisionale. Quando applica le annotazioni, può correggere automaticamente i nuovi errori di compilazione e i fallimenti dei test che derivano dalle sue stesse modifiche. Se gli strumenti di convalida rilevano che una modifica ha compromesso una funzionalità, l’agente si autocorregge in base al feedback e tenta una soluzione diversa. Nonostante questi primi risultati promettenti, Google DeepMind sta adottando un approccio cauto e deliberato alla distribuzione, con una forte attenzione all’affidabilità. Al momento, ogni patch generata da CodeMender viene rivista da ricercatori umani prima di essere inviata a un progetto open-source. Il team sta gradualmente aumentando gli invii per garantire un’elevata qualità e per incorporare sistematicamente il feedback della comunità open-source. In prospettiva, i ricercatori intendono raggiungere i manutentori di progetti open-source critici con le patch generate da CodeMender. Grazie all’iterazione del feedback della comunità, sperano di rilasciare CodeMender come strumento disponibile al pubblico per tutti gli sviluppatori di software. Il team di DeepMind intende inoltre pubblicare nei prossimi mesi articoli e relazioni tecniche per condividere le proprie tecniche e i propri risultati. Questo lavoro rappresenta i primi passi nell’esplorazione del potenziale degli agenti di intelligenza artificiale per correggere in modo proattivo il codice e migliorare radicalmente la sicurezza del software per tutti. Leggi di più su www.artificialintelligence-news.com

Samsung analizza la produttività reale dei modelli AI aziendali

Samsung analizza la produttività reale dei modelli AI aziendali

Samsung sta superando i limiti dei benchmark esistenti per valutare meglio la produttività reale dei modelli di IA in ambito aziendale. Il nuovo sistema, sviluppato da Samsung Research e denominato TRUEBench, mira a risolvere la crescente disparità tra le prestazioni teoriche dell’IA e la sua effettiva utilità sul posto di lavoro. Mentre le aziende di tutto il mondo accelerano l’adozione di modelli linguistici di grandi dimensioni (LLM) per migliorare le loro operazioni, è emersa una sfida: come valutare accuratamente la loro efficacia. Molti benchmark esistenti si concentrano su test accademici o di conoscenza generale, spesso limitati all’inglese e a semplici formati di domande e risposte. Questo ha creato una lacuna che lascia le aziende senza un metodo affidabile per valutare le prestazioni di un modello di IA in compiti aziendali complessi, multilingue e ricchi di contesto. Il TRUEBench di Samsung, acronimo di Trustworthy Real-world Usage Evaluation Benchmark, è stato sviluppato per colmare questa lacuna. Fornisce una suite completa di metriche che valutano i LLM sulla base di scenari e compiti direttamente legati agli ambienti aziendali del mondo reale. Il benchmark si basa sull’ampio uso interno di Samsung dei modelli di intelligenza artificiale, garantendo che i criteri di valutazione siano basati sulle reali esigenze del luogo di lavoro. Il framework valuta funzioni aziendali comuni come la creazione di contenuti, l’analisi dei dati, la sintesi di lunghi documenti e la traduzione di materiali. Queste sono suddivise in 10 categorie distinte e 46 sottocategorie, che forniscono una visione granulare delle capacità di produttività di un’IA. “Samsung Research apporta una profonda competenza e un vantaggio competitivo grazie alla sua esperienza nell’IA del mondo reale”, ha dichiarato Paul (Kyungwhoon) Cheun, CTO della divisione DX di Samsung Electronics e responsabile di Samsung Research. “Ci aspettiamo che TRUEBench stabilisca degli standard di valutazione per la produttività” Per affrontare i limiti dei vecchi benchmark, TRUEBench si basa su una serie di 2.485 test diversi che abbracciano 12 lingue diverse e supportano scenari interlinguistici. Questo approccio multilingue è fondamentale per le aziende globali in cui le informazioni circolano in diverse regioni. Gli stessi materiali di test riflettono la varietà delle richieste sul posto di lavoro, che vanno da brevi istruzioni di soli otto caratteri alla complessa analisi di documenti che superano i 20.000 caratteri. Samsung ha riconosciuto che in un contesto aziendale reale, l’intento dell’utente non è sempre esplicitamente dichiarato nella richiesta iniziale. Il benchmark è quindi progettato per valutare la capacità di un modello di intelligenza artificiale di comprendere e soddisfare queste esigenze aziendali implicite, andando oltre la semplice accuratezza e passando a una misura più sfumata di utilità e pertinenza. Per raggiungere questo obiettivo, Samsung Research ha sviluppato un processo di collaborazione unico tra esperti umani e IA per creare i criteri di valutazione della produttività. Inizialmente, gli annotatori umani stabiliscono gli standard di valutazione per una determinata attività. Un’intelligenza artificiale esamina poi questi standard, verificando la presenza di potenziali errori, contraddizioni interne o vincoli inutili che potrebbero non riflettere un’aspettativa realistica dell’utente. In seguito al feedback dell’IA, gli annotatori umani perfezionano i criteri. Questo ciclo iterativo garantisce che gli standard di valutazione finali siano precisi e riflettano un risultato di alta qualità. Questo processo di verifica incrociata fornisce un sistema di valutazione automatizzato che assegna un punteggio alle prestazioni dei LLM. Utilizzando l’intelligenza artificiale per applicare questi criteri raffinati, il sistema riduce al minimo i pregiudizi soggettivi che possono verificarsi con l’assegnazione di punteggi esclusivamente umani, garantendo coerenza e affidabilità in tutti i test. TRUEBench impiega anche un modello di punteggio rigoroso in cui un modello AI deve soddisfare tutte le condizioni associate a un test per ricevere un voto positivo. Questo approccio “tutto o niente” per le singole condizioni consente di valutare in modo più dettagliato ed esigente le prestazioni dei modelli di IA nelle diverse attività aziendali. Per aumentare la trasparenza e incoraggiare un’adozione più ampia, Samsung ha reso pubblici i campioni di dati e le classifiche di TRUEBench sulla piattaforma open-source globale Hugging Face. Questo permette a sviluppatori, ricercatori e aziende di confrontare direttamente le prestazioni di produttività di un massimo di cinque diversi modelli di IA contemporaneamente. La piattaforma fornisce una panoramica chiara e immediata di come le varie IA si posizionano l’una rispetto all’altra in compiti pratici. Al momento della stesura di questo articolo, ecco i 20 modelli migliori per classifica generale in base al benchmark AI di Samsung: I dati completi pubblicati includono anche la lunghezza media delle risposte generate dall’IA. Ciò consente di confrontare simultaneamente non solo le prestazioni ma anche l’efficienza, un aspetto fondamentale per le aziende che valutano i costi operativi e la velocità. Con il lancio di TRUEBench, Samsung non si limita a rilasciare un altro strumento, ma punta a cambiare il modo in cui il settore pensa alle prestazioni dell’IA. Spostando l’obiettivo dalla conoscenza astratta alla produttività tangibile, il benchmark di Samsung potrebbe aiutare le aziende a prendere decisioni migliori su quali modelli di IA aziendali integrare nei loro flussi di lavoro e a colmare il divario tra il potenziale di un’IA e il suo valore comprovato. Leggi di più su www.artificialintelligence-news.com

La qualità dei dati è fondamentale per la crescita guidata dall’AI

La qualità dei dati è fondamentale per la crescita guidata dall'AI

Mentre le aziende si affrettano a implementare l’IA, molte scoprono che il successo del progetto dipende direttamente dalla qualità dei dati. Questa dipendenza fa sì che molte iniziative ambiziose si arenino, non andando mai oltre la fase sperimentale di proof-of-concept. Qual è quindi il segreto per trasformare questi esperimenti in veri e propri generatori di reddito? AI News ha incontrato Martin Frederik, responsabile regionale per Paesi Bassi, Belgio e Lussemburgo del gigante del cloud dei dati Snowflake, per scoprirlo. “Non esiste una strategia di AI senza una strategia di dati”, afferma Frederik. “Le app, gli agenti e i modelli di IA sono efficaci quanto i dati su cui sono costruiti e, senza un’infrastruttura di dati unificata e ben gestita, anche i modelli più avanzati possono fallire” Migliorare la qualità dei dati è fondamentale per il successo dei progetti di IA È una storia familiare per molte organizzazioni: un promettente proof-of-concept impressiona il team ma non si traduce mai in uno strumento che fa guadagnare l’azienda. Secondo Frederik, questo accade spesso perché i leader considerano la tecnologia come un obiettivo finale. “L’intelligenza artificiale non è la meta, ma il veicolo per raggiungere gli obiettivi aziendali”, consiglia Frederik. Quando i progetti si bloccano, di solito i colpevoli sono alcuni: il progetto non è veramente allineato con le esigenze dell’azienda, i team non si parlano tra loro o i dati non sono chiari. È facile scoraggiarsi di fronte alle statistiche che indicano che l’80% dei progetti di IA non raggiunge la produzione, ma Frederik offre una prospettiva diversa. Non si tratta necessariamente di un fallimento, suggerisce, ma di “parte del processo di maturazione”. Per chi riesce a creare le basi giuste, i vantaggi sono molto concreti. Un recente studio di Snowflake ha rilevato che il 92% delle aziende sta già vedendo un ritorno sui propri investimenti nell’IA. Infatti, per ogni sterlina spesa, ne ricevono 1,41 in termini di risparmi sui costi e nuove entrate. La chiave, ripete Frederik, è avere una “piattaforma sicura, governata e centralizzata” per i tuoi dati fin dall’inizio. Non si tratta solo di tecnologia, ma anche di persone Anche con la migliore tecnologia, una strategia di IA può fallire se la cultura aziendale non è pronta. Una delle sfide più grandi è portare i dati nelle mani di tutti coloro che ne hanno bisogno, non solo di pochi scienziati dei dati. Per far funzionare l’IA su scala, devi costruire solide fondamenta nelle tue “persone, processi e tecnologie” Ciò significa abbattere i muri tra i reparti e rendere accessibili a tutti dati di qualità e strumenti di IA. “Con la giusta governance, l’IA diventa una risorsa condivisa piuttosto che uno strumento isolato”, spiega Frederik. Quando tutti lavorano da un’unica fonte di verità, i team possono smettere di discutere su quali numeri siano corretti e iniziare a prendere insieme decisioni più rapide e intelligenti. Il prossimo salto: L’intelligenza artificiale che ragiona da sola La vera svolta a cui stiamo assistendo è l’emergere di agenti di intelligenza artificiale in grado di comprendere e ragionare su tutti i tipi di dati contemporaneamente, indipendentemente dalla qualità della struttura; dalle righe e colonne ordinate di un foglio di calcolo, alle informazioni non strutturate contenute in documenti, video ed e-mail. Considerando che questi dati non strutturati costituiscono l’80-90% dei dati di una tipica azienda, si tratta di un enorme passo avanti. I nuovi strumenti consentono al personale, indipendentemente dal livello di competenza tecnica, di porre domande complesse in inglese semplice e di ottenere risposte direttamente dai dati. Frederik spiega che si tratta di un passo avanti verso quella che chiama “autonomia orientata agli obiettivi”. Finora l’intelligenza artificiale era un assistente utile che dovevi dirigere costantemente. “Se fai una domanda, ottieni una risposta; se chiedi un codice, ottieni uno snippet”, osserva. La prossima generazione di IA è diversa. Potrai dare a un agente un obiettivo complesso e lui capirà da solo i passaggi necessari, dalla scrittura del codice all’acquisizione di informazioni da altre app per fornire una risposta completa. Questo automatizzerà le parti più lunghe del lavoro di un data scientist, come la “noiosa pulizia dei dati” e la “ripetitiva messa a punto dei modelli” Il risultato? Libera le menti più brillanti per concentrarsi su ciò che conta davvero. Questo eleva il tuo personale “da professionista a stratega” e gli permette di creare valore reale per l’azienda. E questo non può che essere un bene. Snowflake è uno degli sponsor principali dell’AI & Big Data Expo Europedi quest’anno e avrà una serie di relatori che condivideranno le loro profonde intuizioni durante l’evento. Passa allo stand di Snowflake, al numero 50, per saperne di più su come rendere l’AI aziendale facile, efficiente e affidabile.   Leggi di più su www.artificialintelligence-news.com

Il deficit di fiducia del pubblico è un ostacolo importante per la crescita dell’IA

Il deficit di fiducia del pubblico è un ostacolo importante per la crescita dell'IA

Mentre i politici fanno leva sulle promesse di crescita ed efficienza dell’IA, un nuovo rapporto rivela un deficit di fiducia da parte dei cittadini nei confronti di questa tecnologia. Molti sono profondamente scettici e questo crea un grosso problema ai piani dei governi. Un’indagine approfondita condotta dal Tony Blair Institute for Global Change (TBI) e da Ipsos ha messo nero su bianco questa sensazione di disagio. È emerso che la mancanza di fiducia è il motivo principale per cui le persone si tirano indietro di fronte all’utilizzo dell’IA generativa. Non si tratta solo di una vaga preoccupazione, ma di un vero e proprio ostacolo che frena la rivoluzione dell’IA di cui i politici sono tanto entusiasti. La fiducia del pubblico nell’IA aumenta con l’uso Il rapporto mostra un’interessante divisione nel modo in cui vediamo l’IA. Da un lato, più della metà di noi si è cimentata con strumenti di IA generativa nell’ultimo anno. Si tratta di un’adozione piuttosto rapida per una tecnologia che fino a pochi anni fa era a malapena sul radar del pubblico. Tuttavia, quasi la metà del paese non ha mai utilizzato l’IA, né a casa né al lavoro. Questo crea un enorme divario nel modo in cui le persone percepiscono l’IA e la sua crescita. I dati suggeriscono che più si utilizza l’IA, più si tende a fidarsi di essa. Per le persone che non hanno mai utilizzato l’IA, il 56% la vede come un rischio per la società. Ma per le persone che la usano ogni settimana, questa percentuale si riduce di oltre la metà, scendendo al 26%. Si tratta di un classico caso di familiarità che genera comfort. Se non hai mai avuto un’esperienza positiva con l’IA, è molto più facile credere ai titoli spaventosi. Vedere i suoi limiti in prima persona aiuta anche a contrastare il timore che tutti stiano per essere sostituiti dall’IA. Questo divario nella fiducia del pubblico nei confronti dell’IA dipende anche dall’età. I giovani sono generalmente più ottimisti, mentre le generazioni più anziane sono più caute. I professionisti del mondo tecnologico si sentono pronti per ciò che sta per accadere, ma quelli di settori come la sanità e l’istruzione? Si sentono molto meno fiduciosi, anche se i loro lavori saranno probabilmente più influenzati dalla crescita dell’IA. Non è importante quello che fai, ma il modo in cui lo fai Uno degli aspetti più rivelatori del rapporto è che i nostri sentimenti nei confronti dell’IA cambiano a seconda del lavoro che sta svolgendo. Siamo felici che l’IA ci aiuti a risolvere gli ingorghi stradali o a velocizzare la diagnosi del cancro. Perché? Perché possiamo vedere i benefici diretti e positivi per le nostre vite. È una tecnologia che sta chiaramente lavorando per noi. Ma se chiediamo alle persone cosa ne pensano dell’IA che monitora le loro prestazioni sul lavoro o che viene utilizzata per indirizzarli con annunci politici, l’umore peggiora immediatamente. L’accettazione crolla. Questo dimostra che le nostre preoccupazioni non riguardano la crescita dell’IA in sé, ma il suo scopo. Vogliamo sapere se l’IA viene usata a fin di bene e se ci sono delle regole che impediscono alle grandi aziende tecnologiche di avere il coltello dalla parte del manico. Come possiamo aumentare la fiducia del pubblico nell’IA per sostenere la crescita? Il rapporto del TBI non si limita a evidenziare il problema, ma offre un percorso chiaro per costruire quella che definisce “fiducia giustificata” Innanzitutto, il governo deve cambiare il modo in cui parla di IA. Dimentica le promesse astratte di aumento del PIL. Parla invece di ciò che significa per la vita delle persone: ottenere un appuntamento in ospedale più velocemente, rendere i servizi pubblici più facili da usare o ridurre gli spostamenti quotidiani. Mostra, non limitarti a raccontare, i benefici della crescita dell’IA. Poi, dimostra che funziona. Quando l’IA viene utilizzata nei servizi pubblici, dobbiamo vedere la prova che sta effettivamente migliorando le cose per le persone reali, non solo che è più efficiente per un foglio di calcolo. La misura del successo dovrebbe essere la nostra esperienza, non solo un benchmark tecnico. Naturalmente, tutto questo non funziona senza regole e formazione adeguate. Le autorità di regolamentazione devono avere il potere e il know-how necessari per tenere sotto controllo l’IA e tutti noi dobbiamo avere accesso alla formazione per sentirci sicuri di utilizzare questi nuovi strumenti in modo sicuro ed efficace. L’obiettivo è quello di rendere l’IA qualcosa con cui tutti possiamo lavorare, non qualcosa che sembra essere fatto per noi. Costruire la fiducia del pubblico nell’IA per sostenerne la crescita significa costruire la fiducia nelle persone e nelle istituzioni che se ne occupano. Se il governo riesce a dimostrare che si impegna a far funzionare l’IA per tutti, potrebbe coinvolgere il pubblico. Leggi di più su www.artificialintelligence-news.com

Trump scherza sull’intelligenza artificiale mentre Stati Uniti e Regno Unito firmano un nuovo accordo tecnologico

Trump scherza sull'intelligenza artificiale mentre Stati Uniti e Regno Unito firmano un nuovo accordo tecnologico

Il Presidente degli Stati Uniti Donald Trump ha affermato giovedì che l’intelligenza artificiale sta “conquistando il mondo” e ha scherzato dicendo che spera che i dirigenti del settore tecnologico la capiscano meglio di lui. Il commento è arrivato nel momento in cui Trump e il primo ministro britannico Keir Starmer hanno ospitato a Londra un incontro di leader del mondo dell’economia e della tecnologia durante la seconda visita di Stato del presidente in Gran Bretagna. Tra i presenti c’era anche il CEO di Nvidia Jensen Huang, la cui azienda è diventata centrale nel boom globale dell’intelligenza artificiale. Dopo un discorso preparato sui legami tra Stati Uniti e Regno Unito, sulle nuove partnership e sui miliardi di dollari di investimenti promessi, Trump ha ammesso di avere una scarsa conoscenza dell’IA. “Questo creerà una nuova cooperazione tra governo, mondo accademico e settore privato in aree come l’IA, che sta conquistando il mondo […] Sto guardando voi ragazzi. State conquistando il mondo. Jensen, non so cosa tu stia facendo qui”, ha detto Trump, suscitando le risate di Starmer e del pubblico. “Spero che tu abbia ragione. Posso solo dire che entrambi speriamo che tu abbia ragione” Trump e Starmer firmano un accordo tecnologico incentrato sull’AI Il momento clou dell’evento è stata la firma di un “Tech Prosperity Deal”, che definisce i piani dei due Paesi per approfondire la cooperazione nelle tecnologie emergenti. L’accordo riguarda progetti come lo sviluppo di modelli di intelligenza artificiale per l’assistenza sanitaria, il progresso dell’informatica quantistica e la modernizzazione dei programmi nucleari. Come parte dell’accordo, Nvidia si è impegnata a distribuire 120.000 GPU in Gran Bretagna. Si tratterà del più grande rollout dell’azienda in Europa. La mossa parallela di Nvidia con Intel Giovedì scorso, Nvidia ha rivelato un investimento di 5 miliardi di dollari in Intel e una collaborazione con quest’ultima su nuovi prodotti. Le due aziende lavoreranno insieme su data center personalizzati che supportano i sistemi di intelligenza artificiale e su processori per personal computer. Nvidia ha dichiarato che intende acquistare azioni Intel a 23,28 dollari per azione, previa approvazione da parte delle autorità competenti. L’investimento arriva mentre Intel cerca di recuperare terreno dopo anni di declino. “Questa storica collaborazione unisce strettamente lo stack di AI e di calcolo accelerato di Nvidia con le CPU e il vasto ecosistema x86 di Intel – una fusione di due piattaforme di livello mondiale”, ha dichiarato Huang. “Insieme, espanderemo i nostri ecosistemi e getteremo le basi per la prossima era dell’informatica” Per i data center, Intel progetterà chip che supporteranno l’infrastruttura AI di Nvidia. Per i PC desktop, Intel produrrà processori che integreranno la tecnologia di Nvidia, dando all’azienda la possibilità di spingersi in aree in cui ha perso slancio. Un’ancora di salvezza per Intel La partnership offre una spinta a Intel, un tempo colonna portante dei personal computer ma ora in difficoltà nel tenere il passo. L’azienda ha perso il passaggio agli smartphone dopo che l’iPhone di Apple ha trasformato il mercato nel 2007 e più recentemente è rimasta indietro nella corsa all’hardware per l’intelligenza artificiale. Nvidia, nel frattempo, è diventata l’azienda di maggior valore al mondo. Gli investitori hanno reagito rapidamente: Le azioni di Intel hanno fatto un balzo del 30% nelle contrattazioni pre-mercato, mentre quelle di Nvidia sono salite di quasi il 3%. Prima di firmare l’accordo, Trump ha aggiunto una dose di umorismo, rivolgendosi al Segretario del Tesoro Scott Bessent e chiedendo: “Devo firmare? Sei sicuro, Scott? Se l’accordo non va bene, la colpa è tua” Durante la visita nel Regno Unito, Trump ha anche detto di sperare che l’IA sia gestita con saggezza dagli esperti che ne guidano lo sviluppo, dal momento che ha ammesso che è al di là della sua comprensione. L’amministrazione Trump monitora da vicino la concorrenza dell’IA Mentre le partnership si espandono, le autorità di regolamentazione degli Stati Uniti si concentrano maggiormente sulla concorrenza nel settore dell’IA. Parlando a una conferenza a New York, l’Assistente del Procuratore Generale Gail Slater ha dichiarato che il Dipartimento di Giustizia degli Stati Uniti è in allerta per i comportamenti anticoncorrenziali nel settore. “Le dinamiche competitive di ogni livello dello stack dell’IA e le loro interrelazioni, con un occhio particolare ai comportamenti di esclusione che precludono l’accesso a input e canali di distribuzione chiave, sono aree legittime di indagine antitrust”, ha dichiarato. “Naturalmente, un modello veramente open-source non deve essere gestito unilateralmente da un singolo fornitore che esercita un’influenza ingiustificata e impone restrizioni” Un aspetto fondamentale è l’accesso ai dati. Un giudice federale di Washington ha recentemente ordinato a Google di condividere alcuni dei suoi dati di ricerca con i rivali, comprese le aziende di intelligenza artificiale, per contribuire a livellare il campo di gioco della ricerca online. Google ha dichiarato che farà appello a questa sentenza. Le osservazioni di Slater riflettono una continuità di preoccupazioni. Anche i funzionari dell’Antitrust sotto il presidente Joe Biden hanno esaminato i legami delle big tech con le startup di IA, a dimostrazione del fatto che entrambe le amministrazioni ritengono che la concorrenza sia fondamentale per il futuro dell’IA. (Foto di History in HD) Leggi di più su www.artificialintelligence-news.com

Google svela nuovi strumenti di AI Marketing in vista della stagione delle feste

Google svela nuovi strumenti di AI Marketing in vista della stagione delle feste

Google ha annunciato oggi l’introduzione di nuovi strumenti che consentiranno agli inserzionisti di raggiungere gli acquirenti grazie all’intelligenza artificiale, che sta caratterizzando l’imminente stagione delle feste. Una delle parti più importanti dell’annuncio di Google è la possibilità per gli inserzionisti di attivare annunci di ricerca guidati dall’intelligenza artificiale attraverso AI Max. AI Max è ora disponibile a livello globale in versione beta e promuove i prodotti insieme ai riepiloghi di ricerca dell’intelligenza artificiale, anziché rispondere semplicemente a termini di ricerca specifici. Ciò significa che i marchi possono apparire in ricerche complesse e multi-intento, ha spiegato Dan Taylor, vicepresidente degli annunci globali di Google, durante un evento stampa di presentazione della nuova suite di strumenti. Ad esempio, supponiamo che qualcuno digiti su Google “come decorare un piccolo appartamento per le vacanze”. L’intelligenza artificiale potrebbe includere consigli per risparmiare spazio e per il fai-da-te, ma potrebbe anche suggerire un set di luci in miniatura per un albero da tavolo, ha detto Taylor. “Questo crea un’opportunità commerciale che non era necessariamente insita nell’interrogazione iniziale”, ha spiegato Taylor. Google ha anche aggiunto nuovi strumenti a YouTube, consentendo agli inserzionisti di ottimizzare le campagne in base al canale – cioè online, in-app o in-store – e di promuovere in-store in modo specifico con offerte locali. Inoltre, gli annunci pubblicitari su YouTube sono ora “shoppabili”, consentendo ai brand di promuovere prodotti specifici in quello spazio pubblicitario. L’azienda ha inoltre annunciato che gli strumenti di intelligenza artificiale generativa consentiranno agli inserzionisti di creare o modificare le immagini dei prodotti all’interno delle sue piattaforme di asset e product studio. Ad esempio, i commercianti che utilizzano lo studio di prodotti di Google possono ora modificare lo sfondo dell’immagine di un gruppo di prodotti in una sola volta. Nelle prossime settimane, gli inserzionisti avranno anche accesso al modello Imagen 4 di Google per la creazione di asset di campagne in Performance Max e Demand Gen. Inoltre, Google ha aggiunto nuove funzionalità incentrate sulla fidelizzazione in Performance Max e Standard Shopping, consentendo ai brand di stabilire obiettivi di fidelizzazione e di offrire ai membri della fidelizzazione vantaggi come prezzi più bassi o vantaggi di spedizione. “La maggior parte di queste innovazioni non esisteva in nessuna forma un anno fa”, ha sottolineato Taylor. “Per questo motivo organizziamo questi eventi a metà anno, invece che una sola volta all’anno, perché dobbiamo iterare e lanciare nuove cose così rapidamente” Leggi di più su www.adweek.com

Claude di Anthropic fa la prima grande operazione pubblicitaria per affrontare i rivali dell’intelligenza artificiale

Claude di Anthropic fa la prima grande operazione pubblicitaria per affrontare i rivali dell'intelligenza artificiale

La prima grande campagna di Anthropic per il suo chatbot AI di punta, Claude, ha una visione ottimistica del potenziale della tecnologia nell’affrontare i grandi problemi del mondo. Oggi Anthropic ha lanciato “Keep Thinking” per posizionare Claude come il miglior strumento di IA per i risolutori di problemi. La campagna, creata dall’agenzia indipendente Mother, rappresenta un investimento mediatico multimilionario e il primo ingresso di Anthropic nella pubblicità a pagamento, secondo il marchio. La posta in gioco è alta per Anthropic, valutata 183 miliardi di dollari, per differenziarsi nel boom dell’IA generativa. Anche rivali come Perplexity e OpenAI, che ha lanciato il suo primo spot al Super Bowl a febbraio, si sono spinti nella pubblicità tradizionale nell’ultimo anno. A marzo, Anthropic si è estesa alla ricerca sul web. All’inizio di questo mese, l’azienda ha accettato di pagare 1,5 miliardi di dollari per risolvere una causa collettiva per violazione del copyright relativa all’uso di libri pirata per addestrare modelli linguistici di grandi dimensioni. La nuova pubblicità di Claude, diretta da Daniel Wolfe attraverso la casa di produzione Love Song Films, inizia con una nota negativa, con la frase “Non c’è mai stato un momento peggiore”, che passa sopra un montaggio di immagini che evocano varie sfide. La voce fuori campo passa poi a un invito ottimistico: “Non c’è mai stato un momento migliore per avere un problema” Le scene successive illustrano i problemi, dalle diagnosi mediche alla mancanza di istruzione, che Claude può aiutare ad affrontare. La campagna includerà posizionamenti mediatici di rilievo come trasmissioni durante eventi sportivi dal vivo, servizi di streaming come Netflix e Hulu, stampa sul New York Times e sul Wall Street Journal, podcast e collaborazioni con influencer. Gli annunci out-of-home hanno come protagonisti i ricercatori di Anthropic Kamal Ndousse e Grace Han, nonché i creatori del motore di intelligenza artificiale Poetry Camera, Kelin Zhang, Ryan Mather e Evan Kahn. Initiative è stata l’agenzia media. Parlare ai clienti business Il target di Claude è costituito da “risolutori di problemi”, come sviluppatori, ricercatori e imprenditori. Le ricerche condotte da Anthropic hanno rilevato che Claude.ai e Claude API vengono utilizzati principalmente per attività lavorative come la codifica, la ricerca e l’istruzione. L’azienda ha dichiarato di avere oltre 300.000 clienti commerciali, rispetto ai meno di 1.000 di due anni fa. “Continua a pensare” vuole essere sia un grido d’appello che una promessa: all’industria, che dobbiamo costruire l’IA in modo responsabile; ai risolutori di problemi di tutto il mondo, che ciò che un tempo sembrava impossibile ora è a portata di mano”, ha dichiarato Andrew Stirk, responsabile del marketing del marchio di Anthropic, in un comunicato. “Claude è per coloro che vedono l’IA non come una scorciatoia, ma come un partner di pensiero per affrontare le sfide più importanti” Mother si è aggiudicata l’attività creativa di Anthropic all’inizio di quest’anno. L’agenzia ha utilizzato Claude per lo sviluppo dell’annuncio pubblicitario facendo ricerche sugli scenari di utilizzo, ha dichiarato un portavoce di Mother. “Il film prende atto del nostro presente pieno di problemi, ma riflette l’intelligenza artificiale come soluzione piuttosto che come un’altra minaccia”, ha dichiarato Felix Richter, direttore creativo globale di Mother. Leggi di più su www.adweek.com

Minacce abilitate dall’intelligenza artificiale e regolamentazione più severa in Francia

Minacce abilitate dall'intelligenza artificiale e regolamentazione più severa in Francia

Un nuovo rapporto di ricerca della società di consulenza tecnologica Information Services Group (ISG) ha rivelato che le minacce dell’intelligenza artificiale e le normative più severe stanno modificando il panorama francese della sicurezza informatica, portando le aziende a rivalutare le proprie strategie di sicurezza. L’aumento dei budget destinati alla sicurezza fa sì che molte aziende francesi abbiano bisogno di una nuova guida e di nuove competenze per stabilire priorità efficaci e affrontare le sfide della sicurezza. Secondo il rapporto 2025 ISG Provider Lens Cybersecurity – Services and Solutions, le aziende francesi si stanno adattando a un panorama di sicurezza più complesso e stratificato, e molte adottano una difesa basata sull’intelligenza artificiale. Questo per rispondere alle esigenze introdotte dalle nuove normative, dall’adozione del cloud, dai vincoli finanziari e dalla carenza di lavoratori qualificati, sostiene l’esperto di sicurezza AI. “Il modo in cui le aziende francesi scelgono i servizi di sicurezza sta cambiando”, ha dichiarato Julien Escribe, partner e amministratore delegato di ISG. “Con l’aumento dei budget destinati alla sicurezza, le aziende hanno bisogno di una guida e di una visione per stabilire le giuste priorità e affrontare i problemi di sicurezza” Secondo il rapporto, le aziende iniziano ad affidarsi a soluzioni all-in-one per la sicurezza, piuttosto che a una serie di strumenti separati. Le organizzazioni cercano fornitori di servizi che possano integrare i loro team di sicurezza. Secondo l’azienda, le aziende che migrano verso topologie multicloud e cloud devono affrontare sfide di integrazione, visibilità e gestione. Le aziende hanno difficoltà a mantenere la supervisione delle applicazioni, quindi ricorrono a soluzioni come il secure access service edge (SASE), che unisce la sicurezza di rete e la connettività in un servizio unificato. Il rapporto ha rilevato che le organizzazioni francesi sono alla ricerca di piattaforme di sicurezza integrate per avere una visione unica delle possibili minacce e una supervisione centralizzata delle difese. A causa dello stress finanziario e della continua carenza di talenti nel campo della cybersecurity, molte aziende utilizzano ancora fornitori di servizi di sicurezza tecnica (TSS) per il supporto, le piattaforme centralizzate e l’automazione. ISG afferma che le imprese francesi devono integrare le politiche di governance, rischio e committenza (GRC) nelle loro strategie di sicurezza, poiché le normative europee come la direttiva NIS2 e l’AI Act stanno diventando legge francese. Secondo il rapporto, oltre 15.000 aziende francesi sono ora soggette a ulteriori adempimenti. Il documento mostra come gli attori malintenzionati utilizzino l’intelligenza artificiale nei cyberattacchi, ponendo nuove sfide per il rilevamento e la risposta. Per reagire, le aziende si rivolgono a fornitori di servizi di sicurezza che utilizzano essi stessi l’AI e il ML. I loro clienti stanno investendo maggiormente nel rilevamento guidato dall’AI, nella formazione dei dipendenti e nelle risposte automatizzate. Benoît Scheuber, consulente principale e analista di sicurezza presso ISG, ha affermato che l’IA sta trasformando il panorama della cybersecurity, spingendo le aziende a cercare fornitori in grado di integrare strumenti che aumentino l’efficienza, affermando: “I clienti cercano fornitori in grado di integrare i migliori prodotti in una piattaforma unificata per l’efficienza operativa” (Fonte immagine: “Soldato dell’esercito francese alla Torre Eiffel” di derekskey è concesso in licenza CC BY 2.0.) Leggi di più su www.artificialintelligence-news.com

Meta rivede le politiche sui chatbot AI tra le preoccupazioni per la sicurezza dei bambini

Meta rivede le politiche sui chatbot AI tra le preoccupazioni per la sicurezza dei bambini

Meta sta rivedendo il modo in cui i suoi chatbot AI interagiscono con gli utenti dopo una serie di segnalazioni che hanno messo in luce comportamenti preoccupanti, tra cui interazioni con minori. L’azienda ha dichiarato a TechCrunch che ora sta addestrando i suoi bot a non interagire con gli adolescenti su argomenti come l’autolesionismo, il suicidio o i disturbi alimentari e a evitare battute romantiche. Si tratta di misure temporanee in attesa di sviluppare regole a lungo termine. Le modifiche fanno seguito a un’indagine di Reuters che ha scoperto che i sistemi di Meta potevano generare contenuti sessualizzati, tra cui immagini a torso nudo di celebrità minorenni, e coinvolgere i bambini in conversazioni romantiche o allusive. Un caso riportato dall’agenzia di stampa descrive un uomo morto dopo essersi precipitato a un indirizzo fornito da un chatbot a New York. La portavoce di Meta, Stephanie Otway, ha ammesso che l’azienda ha commesso degli errori. Ha dichiarato che Meta sta “addestrando le nostre IA a non interagire con gli adolescenti su questi argomenti, ma a guidarli verso risorse esperte” e ha confermato che alcuni personaggi IA, come quelli altamente sessualizzati come “Russian Girl”, saranno limitati. I sostenitori della sicurezza dei bambini sostengono che l’azienda avrebbe dovuto agire prima. Andy Burrows della Molly Rose Foundation ha definito “stupefacente” il fatto che ai bot sia stato permesso di operare in modi che mettono a rischio i giovani. E ha aggiunto: “Sebbene ulteriori misure di sicurezza siano benvenute, i test di sicurezza dovrebbero essere effettuati prima che i prodotti vengano immessi sul mercato, non retroattivamente quando si è verificato un danno” Problemi più ampi legati all’uso improprio dell’IA L’esame dei chatbot AI di Meta si inserisce in un contesto di preoccupazioni più ampie su come i chatbot AI possano influenzare gli utenti più vulnerabili. Una coppia californiana ha recentemente intentato una causa contro OpenAI, sostenendo che ChatGPT ha incoraggiato il figlio adolescente a togliersi la vita. OpenAI ha dichiarato che sta lavorando a strumenti per promuovere un uso più sano della sua tecnologia, sottolineando in un post sul blog che “l’IA può sembrare più reattiva e personale rispetto alle tecnologie precedenti, soprattutto per gli individui vulnerabili che vivono un disagio mentale o emotivo” Gli incidenti evidenziano un crescente dibattito sul fatto che le aziende di IA stiano rilasciando prodotti troppo velocemente senza le dovute garanzie. I legislatori di diversi paesi hanno già avvertito che i chatbot, pur essendo utili, possono amplificare contenuti dannosi o dare consigli fuorvianti a persone che non sono in grado di metterli in discussione. AI Studio di Meta e i problemi di impersonificazione dei chatbot Nel frattempo, Reuters ha riportato che AI Studio di Meta è stato utilizzato per creare chatbot “parodia” di celebrità come Taylor Swift e Scarlett Johansson. I tester hanno scoperto che i bot spesso sostenevano di essere le persone reali, facevano avances sessuali e in alcuni casi generavano immagini inappropriate, anche di minori. Sebbene Meta abbia rimosso diversi bot dopo essere stata contattata dai giornalisti, molti sono rimasti attivi. Alcuni dei chatbot AI sono stati creati da utenti esterni, ma altri provengono dall’interno di Meta. Un chatbot creato da un product lead della sua divisione di AI generativa impersonava Taylor Swift e invitava un giornalista della Reuters a incontrarsi per una “avventura romantica” sul suo tour bus. Questo nonostante le politiche di Meta vietino esplicitamente immagini sessualmente suggestive e l’impersonificazione diretta di personaggi pubblici. La questione dell’impersonificazione di chatbot AI è particolarmente delicata. Le celebrità corrono rischi di reputazione quando la loro immagine viene utilizzata in modo improprio, ma gli esperti sottolineano che anche gli utenti comuni possono essere ingannati. Un chatbot che finge di essere un amico, un mentore o un partner romantico può incoraggiare qualcuno a condividere informazioni private o addirittura a incontrarsi in situazioni non sicure. Rischi del mondo reale I problemi non si limitano all’intrattenimento. I chatbot di intelligenza artificiale che si spacciano per persone reali hanno offerto indirizzi e inviti falsi, sollevando interrogativi sul modo in cui gli strumenti di intelligenza artificiale di Meta vengono monitorati. Un esempio riguarda un uomo di 76 anni del New Jersey che è morto dopo essere caduto mentre si accingeva a incontrare un chatbot che sosteneva di provare qualcosa per lui. Casi come questo illustrano perché le autorità di regolamentazione stanno osservando attentamente l’IA. Il Senato e 44 procuratori generali statali hanno già iniziato a indagare sulle pratiche di Meta, aggiungendo pressione politica alle riforme interne dell’azienda. La loro preoccupazione non riguarda solo i minori, ma anche il modo in cui l’IA potrebbe manipolare gli utenti più anziani o vulnerabili. Meta afferma di essere ancora al lavoro per migliorare la situazione. Le sue piattaforme inseriscono gli utenti di età compresa tra i 13 e i 18 anni in “account adolescenti” con impostazioni più rigide per i contenuti e la privacy, ma l’azienda non ha ancora spiegato come intende affrontare l’elenco completo dei problemi sollevati da Reuters. Tra questi, i bot che offrono falsi consigli medici e generano contenuti razzisti. Pressioni continue sulle politiche di Meta in materia di chatbot AI Per anni Meta ha dovuto affrontare critiche sulla sicurezza delle sue piattaforme di social media, in particolare per quanto riguarda bambini e adolescenti. Ora gli esperimenti sui chatbot AI di Meta stanno attirando un’attenzione simile. Sebbene l’azienda stia adottando misure per limitare il comportamento dannoso dei chatbot, il divario tra le sue politiche dichiarate e il modo in cui sono stati utilizzati i suoi strumenti solleva continui dubbi sulla capacità di far rispettare tali regole. Fino a quando non verranno adottate misure di salvaguardia più severe, è probabile che le autorità di regolamentazione, i ricercatori e i genitori continueranno a chiedere a Meta se la sua intelligenza artificiale è pronta per l’uso pubblico. (Foto di Maxim Tolchinskiy) Leggi di più su www.artificialintelligence-news.com

Copilot di Microsoft supera ChatGPT nella crescita della telefonia mobile negli Stati Uniti, come mostrano i dati

Copilot di Microsoft supera ChatGPT nella crescita della telefonia mobile negli Stati Uniti, come mostrano i dati

  Copilot sta superando i rivali nella crescita mobile, secondo i dati Comscore condivisi in esclusiva con ADWEEK. L’assistente AI di Microsoft ha aggiunto 5,6 milioni di utenti mobili da marzo a giugno di quest’anno, rispetto ai 3,9 milioni di ChatGPT nello stesso periodo, ChatGPT di OpenAI domina ancora il mercato con 25,4 milioni di utenti mobili, ma la sua crescita del 17,9% nello stesso periodo precede l’aumento del 175% di Copilot che ha raggiunto gli 8,8 milioni. Anche Gemini di Google ha registrato una crescita del 68%, raggiungendo 14,3 milioni di utenti, grazie anche al fatto di essere precaricato sui telefoni Pixel. “L’elemento di produttività di Copilot e la convenienza dal punto di vista aziendale – dato che è integrato nei prodotti Microsoft – stanno guidando gran parte dell’adozione”, ha dichiarato Brian Pugh, Chief Product Officer di Comscore. Rispetto a OpenAI, Microsoft ha una posizione molto più solida nel mercato aziendale e i suoi rapporti di lunga data con agenzie e marchi l’hanno aiutata a integrare l’IA nei flussi di lavoro aziendali, favorendo una rapida adozione. L’impennata nell’adozione dell’IA sta dando i suoi frutti finanziari a Microsoft, che ha dichiarato che i ricavi di Azure hanno superato i 75 miliardi di dollari per l’anno fiscale, con un aumento del 34% rispetto all’anno precedente, grazie soprattutto alla domanda di IA e alla “crescita di tutti i carichi di lavoro”, secondo quanto dichiarato dal CEO di Microsoft Satya Nadella. L’azienda è anche un importante investitore in OpenAI e integra i modelli di OpenAI in Copilot e Azure. OpenAI, nel frattempo, ha generato 10 miliardi di dollari di ricavi ricorrenti annuali dalle vendite di ChatGPT e API a giugno, indipendentemente dal suo accordo di licenza con Microsoft. I dati di Comscore mostrano che l’utilizzo dei dispositivi mobili sta aumentando mentre il desktop diminuisce. Da marzo a giugno, l’utilizzo degli strumenti di intelligenza artificiale su web e app per dispositivi mobili è cresciuto del 5,3%, raggiungendo 73,4 milioni di utenti, mentre gli utenti desktop sono scesi dell’11,1%, raggiungendo 78,4 milioni. I dati riflettono un cambiamento più ampio nel modo in cui gli strumenti di IA si stanno integrando nella vita di tutti i giorni. Inoltre, secondo Pugh, i fornitori di IA hanno l’opportunità strategica di abbinare gli strumenti a piani di hardware e servizi. La startup di AI Perplexity, ad esempio, ha firmato un accordo globale con Motorola ad aprile. Comscore ha raccolto i dati attraverso un panel digitale di circa un quarto di milione di dispositivi, monitorando il coinvolgimento di 117 strumenti di intelligenza artificiale, tra cui ChatGPT, Copilot, Gemini, Canva e Grammarly. I risultati mostrano anche che oltre l’85% degli utenti dei principali assistenti AI rimane fedele a un’unica piattaforma, il che indica che questi strumenti stanno diventando una parte abituale dei flussi di lavoro quotidiani piuttosto che esperimenti occasionali. Leggi di più su www.adweek.com