ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Microsoft e OpenAI indagano sul presunto furto di dati da parte di DeepSeek

Microsoft e OpenAI indagano sul presunto furto di dati da parte di DeepSeek

  Microsoft e OpenAI stanno indagando su una potenziale violazione del sistema dell’azienda di AI da parte di un gruppo presumibilmente legato alla startup cinese DeepSeek. Secondo Bloomberg, l’indagine deriva da un’attività di estrazione di dati sospetti rilevata alla fine del 2024 attraverso l’interfaccia di programmazione delle applicazioni (API) di OpenAI, suscitando preoccupazioni più ampie sulla concorrenza internazionale dell’IA. Microsoft, il principale finanziatore di OpenAI, ha individuato per primo l’estrazione di dati su larga scala e ha informato il produttore di ChatGPT dell’accaduto. Le fonti ritengono che l’attività possa aver violato i termini di servizio di OpenAI o che il gruppo possa aver sfruttato delle scappatoie per aggirare le restrizioni che limitano la quantità di dati da raccogliere. DeepSeek è salita rapidamente alla ribalta nel panorama delle AI competitive, in particolare con il rilascio del suo ultimo modello, R-1, il 20 gennaio. Presentato come un rivale di ChatGPT di OpenAI in termini di prestazioni, ma sviluppato a un costo significativamente inferiore, R-1 ha scosso l’industria tecnologica. Il suo rilascio ha innescato un forte calo dei titoli tecnologici e dell’intelligenza artificiale che ha cancellato miliardi dai mercati statunitensi in una sola settimana. David Sacks, lo “zar delle criptovalute e dell’IA” appena nominato dalla Casa Bianca, ha affermato che DeepSeek potrebbe aver impiegato metodi discutibili per raggiungere le capacità della sua IA. In un’intervista rilasciata a Fox News, Sacks ha rilevato prove che suggeriscono che DeepSeek abbia utilizzato la “distillazione” per addestrare i suoi modelli di IA utilizzando i risultati dei sistemi di OpenAI. “Ci sono prove sostanziali che DeepSeek ha distillato la conoscenza dai modelli di OpenAI e non credo che OpenAI ne sia molto felice”, ha detto Sacks al network. La distillazione dei modelli consiste nell’addestrare un sistema di intelligenza artificiale utilizzando i dati generati da un altro, consentendo potenzialmente a un concorrente di sviluppare funzionalità simili. Questo metodo, se applicato senza un’adeguata autorizzazione, ha suscitato dibattiti etici e sulla proprietà intellettuale mentre la corsa globale alla supremazia dell’IA si fa sempre più accesa. OpenAI ha rifiutato di commentare nello specifico le accuse rivolte a DeepSeek, ma ha riconosciuto il rischio più ampio rappresentato dalla distillazione dei modelli, in particolare da parte delle aziende cinesi. “Sappiamo che le aziende della RPC – e altre – cercano costantemente di distillare i modelli delle aziende statunitensi leader nel settore dell’intelligenza artificiale”, ha dichiarato a Bloomberg un portavoce di OpenAI. Preoccupazioni geopolitiche e di sicurezza Le crescenti tensioni sull’innovazione dell’IA si estendono ora alla sicurezza nazionale. La CNBC ha riferito che la Marina Militare degli Stati Uniti ha vietato al proprio personale l’utilizzo dei prodotti di DeepSeek, per timore che il governo cinese possa sfruttare la piattaforma per accedere a informazioni sensibili. In un’e-mail del 24 gennaio, la Marina ha messo in guardia il suo personale dall’utilizzare l’intelligenza artificiale di DeepSeek “in qualsiasi veste” a causa di “potenziali problemi etici e di sicurezza associati all’origine e all’utilizzo del modello” I critici hanno sottolineato la politica sulla privacy di DeepSeek, che consente la raccolta di dati come indirizzi IP, informazioni sui dispositivi e persino modelli di battitura dei tasti, un ambito di raccolta dei dati considerato eccessivo da alcuni esperti. Per tua informazione, @deepseek_ai raccoglie il tuo IP, i modelli di battitura dei tasti, le informazioni sul dispositivo, ecc. ecc. e li archivia in Cina, dove tutti questi dati sono vulnerabili alle requisizioni arbitrarie dello Stato 🇨🇳. Dalla loro stessa informativa sulla privacy: pic.twitter.com/wueJokHcn3 – Luke de Pulford (@lukedepulford) 27 gennaio 2025 All’inizio di questa settimana, DeepSeek ha dichiarato di essere alle prese con “attacchi malevoli su larga scala” contro i suoi sistemi. Un banner sul suo sito web informava gli utenti di una restrizione temporanea all’iscrizione. La crescente competizione tra Stati Uniti e Cina, in particolare nel settore dell’intelligenza artificiale, ha sottolineato preoccupazioni più ampie riguardanti la proprietà tecnologica, la governance etica e la sicurezza nazionale. Gli esperti avvertono che, man mano che i sistemi di IA progrediscono e diventano sempre più parte integrante della pianificazione economica e strategica globale, le controversie sull’utilizzo dei dati e sulla proprietà intellettuale sono destinate a intensificarsi. Accuse come quelle rivolte a DeepSeek amplificano l’allarme per il rapido sviluppo della Cina nel settore e per la sua potenziale ricerca di aggirare le misure di salvaguardia guidate dagli Stati Uniti attraverso il reverse engineering e altri mezzi. Mentre OpenAI e Microsoft continuano le loro indagini sul presunto uso improprio della piattaforma di OpenAI, le aziende e i governi stanno prestando molta attenzione. Il caso potrebbe costituire un precedente per il modo in cui gli sviluppatori di IA controllano l’utilizzo dei modelli e applicano i termini di servizio. Per ora, la risposta delle parti interessate, sia statunitensi che cinesi, evidenzia come l’innovazione dell’IA sia diventata non solo una gara per il dominio tecnologico, ma anche un’agguerrita competizione geopolitica che sta plasmando le dinamiche di potere del XXI secolo.   Leggi di più su www.artificialintelligence-news.com

ChatGPT Gov mira a modernizzare le agenzie governative statunitensi

ChatGPT Gov mira a modernizzare le agenzie governative statunitensi

  OpenAI ha lanciato ChatGPT Gov, una versione appositamente progettata del suo chatbot AI per essere utilizzata dalle agenzie governative statunitensi. ChatGPT Gov mira a sfruttare il potenziale dell’intelligenza artificiale per migliorare l’efficienza, la produttività e la fornitura di servizi, salvaguardando i dati sensibili e rispettando i rigorosi requisiti di sicurezza. “Crediamo che l’adozione dell’intelligenza artificiale da parte del governo degli Stati Uniti possa incrementare l’efficienza e la produttività e sia fondamentale per mantenere e rafforzare la leadership globale dell’America in questa tecnologia”, ha spiegato OpenAI. L’azienda ha sottolineato come le sue soluzioni di intelligenza artificiale presentino un “enorme potenziale” per affrontare sfide complesse nel settore pubblico, che vanno dal miglioramento della salute pubblica e delle infrastrutture al rafforzamento della sicurezza nazionale. Con l’introduzione di ChatGPT Gov, OpenAI spera di offrire strumenti che “servano l’interesse nazionale e il bene pubblico, in linea con i valori democratici”, assistendo i politici nell’integrazione responsabile dell’IA per migliorare i servizi per il popolo americano. Il ruolo di ChatGPT Gov Le organizzazioni del settore pubblico possono distribuire ChatGPT Gov all’interno dei propri ambienti Microsoft Azure, sia attraverso il cloud commerciale di Azure che attraverso il cloud specializzato Azure Government. Questa capacità di self-hosting garantisce alle agenzie il rispetto di rigorosi standard di sicurezza, privacy e conformità, come IL5, CJIS, ITAR e FedRAMP High. OpenAI ritiene che questa infrastruttura non solo contribuirà a facilitare la conformità con le norme di cybersecurity, ma anche a velocizzare i processi di autorizzazione interna per la gestione di dati sensibili non pubblici. La versione personalizzata di ChatGPT incorpora molte delle funzionalità presenti nella versione aziendale, tra cui: La possibilità di salvare e condividere le conversazioni all’interno di uno spazio di lavoro governativo sicuro. Caricamento di file di testo e di immagini per semplificare i flussi di lavoro. L’accesso al GPT-4o, il modello all’avanguardia di OpenAI in grado di interpretare, riassumere, codificare, analizzare immagini e matematica in modo avanzato. GPT personalizzabili, che consentono agli utenti di creare e condividere modelli specifici per le esigenze della propria agenzia. Una console amministrativa integrata per aiutare i CIO e i dipartimenti IT a gestire utenti, gruppi, protocolli di sicurezza come il single sign-on (SSO) e altro ancora. Queste caratteristiche assicurano che ChatGPT Gov non sia solo uno strumento di innovazione, ma un’infrastruttura a sostegno di operazioni sicure ed efficienti in tutti gli enti pubblici statunitensi. OpenAI afferma che sta lavorando attivamente per ottenere gli accreditamenti FedRAMP Moderate e High per il suo prodotto SaaS completamente gestito, ChatGPT Enterprise, un passo che rafforzerebbe la fiducia nelle sue offerte di IA per uso governativo. Inoltre, l’azienda sta valutando come espandere le funzionalità di ChatGPT Gov nelle regioni classificate di Azure per ottenere ambienti ancora più sicuri. “ChatGPT Gov riflette il nostro impegno ad aiutare le agenzie governative statunitensi a sfruttare la tecnologia di OpenAI oggi”, ha dichiarato l’azienda. Un curriculum migliore di quello della maggior parte dei politici in ambito governativo Da gennaio 2024, ChatGPT ha visto un’ampia adozione da parte delle agenzie governative statunitensi, con oltre 90.000 utenti in più di 3.500 agenzie federali, statali e locali che hanno già inviato oltre 18 milioni di messaggi per supportare una serie di attività operative. Diverse agenzie di rilievo hanno evidenziato come stanno utilizzando gli strumenti di intelligenza artificiale di OpenAI per ottenere risultati significativi: L’Air Force Research Laboratory: Il laboratorio utilizza ChatGPT Enterprise per scopi amministrativi, tra cui il miglioramento dell’accesso alle risorse interne, l’assistenza di base alla codifica e l’incremento delle attività di formazione sull’IA. Los Alamos National Laboratory: Il laboratorio utilizza ChatGPT Enterprise per la ricerca scientifica e l’innovazione. Questo include il lavoro all’interno della divisione Bioscience, che sta valutando come il GPT-4o possa far progredire in modo sicuro la ricerca bioscientifica in laboratorio. Stato del Minnesota: L’Enterprise Translations Office del Minnesota utilizza ChatGPT Team per fornire servizi di traduzione più rapidi e accurati alle comunità multilingue di tutto lo stato. L’integrazione ha permesso di risparmiare sui costi e di ridurre i tempi di consegna. Commonwealth of Pennsylvania: i dipendenti del programma pilota di AI della Pennsylvania hanno riferito che ChatGPT Enterprise li ha aiutati a ridurre i tempi delle attività di routine, come l’analisi dei requisiti del progetto, di circa 105 minuti al giorno nei giorni in cui hanno utilizzato lo strumento. Questi primi casi d’uso dimostrano il potenziale di trasformazione delle applicazioni di IA a vari livelli di governo. Oltre a fornire miglioramenti tangibili ai flussi di lavoro governativi, OpenAI cerca di promuovere la fiducia del pubblico nell’intelligenza artificiale attraverso la collaborazione e la trasparenza. L’azienda ha dichiarato di essere impegnata a lavorare a stretto contatto con le agenzie governative per allineare i suoi strumenti alle priorità condivise e ai valori democratici. “Non vediamo l’ora di collaborare con le agenzie governative per migliorare la fornitura di servizi al popolo americano attraverso l’intelligenza artificiale”, ha dichiarato OpenAI. Mentre altri governi in tutto il mondo iniziano ad adottare tecnologie simili, l’approccio proattivo dell’America può servire da modello per integrare l’IA nel settore pubblico, salvaguardando i rischi. Che si tratti di supportare i flussi di lavoro amministrativi, le iniziative di ricerca o i servizi linguistici, ChatGPT Gov è una testimonianza del ruolo crescente che l’IA avrà nel plasmare il futuro di una governance efficace. Leggi di più su www.artificialintelligence-news.com

DeepSeek limita le iscrizioni a causa di “attacchi malevoli su larga scala”

DeepSeek limita le iscrizioni a causa di "attacchi malevoli su larga scala"

  DeepSeek è alle prese con interruzioni del servizio e limitazioni all’iscrizione di nuovi account per combattere quelli che descrive come “attacchi malevoli su larga scala” L’app di chat dell’azienda cinese, che di recente ha conquistato la vetta dell’App Store di Apple, ha pubblicato un avviso sul suo sito web in cui si afferma che nel prossimo futuro potranno registrarsi solo gli utenti con numeri di telefono basati in Cina ( 86). Nell’avviso, DeepSeek afferma che: “I servizi online di DeepSeek hanno recentemente subito attacchi malevoli su larga scala. Per garantire la continuità del servizio, la registrazione è temporaneamente limitata a 86 numeri di telefono. Gli utenti esistenti possono accedere come sempre” Al momento in cui scriviamo, le iscrizioni sono state riaperte con l’avviso che “la registrazione potrebbe essere occupata” e di attendere e riprovare. Nonostante le difficoltà, gli utenti esistenti non sono interessati dall’accesso. La pagina di stato di DeepSeek riportava i problemi in corso lunedì mattina, aggiungendo una giornata turbolenta per la piattaforma di intelligenza artificiale. DeepSeek deve affrontare una prova dopo una crescita esplosiva DeepSeek è diventata rapidamente una forza dirompente nella corsa alla supremazia dell’IA. Oltre a ottenere un’ampia adozione da parte degli utenti, il potente modello di intelligenza artificiale open-source dell’app ha suscitato preoccupazioni tra le aziende Big Tech statunitensi. La forza dell’applicazione risiede nella sua capacità di fornire solide prestazioni di IA su chip meno avanzati, creando una soluzione più economica e accessibile rispetto a rivali di alto profilo come ChatGPT di OpenAI. Questa differenziazione chiave ha scosso la fiducia degli investitori lunedì, portando a un calo significativo dei prezzi delle azioni delle principali aziende tecnologiche statunitensi. Gli osservatori del settore suggeriscono che tali scosse potrebbero diventare più frequenti, dato che i concorrenti innovativi come DeepSeek sfidano il dominio degli operatori tecnologici tradizionali. Nigel Green, CEO della società di consulenza finanziaria globale deVere Group, ha commentato: “I progressi tecnologici della Cina, in particolare nel campo dell’intelligenza artificiale, stanno erodendo la capacità degli Stati Uniti di utilizzare le tariffe come strumento per mantenere la supremazia globale”. “L’equilibrio di potere si sta spostando e Washington deve riconoscere che non può sempre dettare le condizioni a Pechino come faceva un tempo. Questa nuova realtà avrà conseguenze di vasta portata per gli investitori e i politici. “L’intelligenza artificiale sarà la tecnologia che definirà il nostro tempo e la corsa per dominarla darà forma ai mercati globali per i decenni a venire” Green ha poi sottolineato il potenziale di attori e regioni non tradizionali per conquistare la corona dell’IA. “I giganti tecnologici tradizionali non sono più i vincitori garantiti. L’attenzione deve ora spostarsi sui settori e sulle regioni che stanno guidando la prossima ondata di innovazione. Questo include non solo l’IA, ma anche le infrastrutture critiche necessarie per supportarla e renderla sicura” Gli ultimi sviluppi si inseriscono in un contesto più ampio di crescente competizione tra Cina e Stati Uniti nel settore dell’IA e delle tecnologie emergenti. Nonostante le restrizioni all’esportazione dell’hardware statunitense, il settore dell’IA di Pechino ha fatto passi da gigante, grazie a significativi investimenti governativi e a un fiorente ecosistema di startup innovative. L’ascesa di applicazioni come DeepSeek indica che il campo di gioco non è più decisamente inclinato a favore della Silicon Valley. Per anni, le aziende statunitensi sono state sostenute dalle tecnologie dei semiconduttori di aziende nazionali come NVIDIA. La capacità della Cina di offrire capacità di IA competitive su hardware meno avanzato potrebbe segnare un punto di svolta significativo. Tuttavia, mentre l’innovazione dell’IA sta aumentando a livello globale, le difficoltà di DeepSeek evidenziano i problemi di crescita che possono accompagnare una crescita esplosiva. Leggi di più su www.artificialintelligence-news.com

I modelli di ragionamento di DeepSeek-R1 rivaleggiano con OpenAI in termini di prestazioni

I modelli di ragionamento di DeepSeek-R1 rivaleggiano con OpenAI in termini di prestazioni

  DeepSeek ha presentato i modelli di prima generazione DeepSeek-R1 e DeepSeek-R1-Zero, progettati per affrontare compiti di ragionamento complessi. DeepSeek-R1-Zero viene addestrato esclusivamente attraverso l’apprendimento per rinforzo (RL) su larga scala, senza ricorrere alla messa a punto supervisionata (SFT) come fase preliminare. Secondo DeepSeek, questo approccio ha portato all’emergere naturale di “numerosi comportamenti di ragionamento potenti e interessanti”, tra cui l’autoverifica, la riflessione e la generazione di ampie catene di pensiero (CoT). “In particolare, [DeepSeek-R1-Zero] è la prima ricerca aperta a convalidare che le capacità di ragionamento dei LLM possono essere incentivate esclusivamente attraverso la RL, senza la necessità di SFT”, hanno spiegato i ricercatori di DeepSeek. Questa pietra miliare non solo sottolinea le basi innovative del modello, ma apre anche la strada a progressi incentrati sulla RL nell’IA ragionante. Tuttavia, le capacità di DeepSeek-R1-Zero presentano alcune limitazioni. Tra i problemi principali ci sono “la ripetizione infinita, la scarsa leggibilità e la mescolanza di linguaggi”, che potrebbero rappresentare un ostacolo significativo nelle applicazioni reali. Per ovviare a queste carenze, DeepSeek ha sviluppato il suo modello di punta: DeepSeek-R1. Presentazione di DeepSeek-R1 DeepSeek-R1 si basa sul suo predecessore incorporando dati a freddo prima dell’addestramento RL. Questa fase aggiuntiva di pre-addestramento migliora le capacità di ragionamento del modello e risolve molte delle limitazioni riscontrate in DeepSeek-R1-Zero. In particolare, DeepSeek-R1 raggiunge prestazioni paragonabili a quelle dell’apprezzato sistema o1 di OpenAI nei compiti di matematica, codifica e ragionamento generale, consolidando il suo ruolo di concorrente leader. DeepSeek ha scelto di rendere open-source sia DeepSeek-R1-Zero che DeepSeek-R1 insieme a sei modelli più piccoli. Tra questi, DeepSeek-R1-Distill-Qwen-32B ha dimostrato risultati eccezionali, superando persino o1-mini di OpenAI in diversi benchmark. MATH-500 (Pass@1): DeepSeek-R1 ha ottenuto il 97,3%, superando OpenAI (96,4%) e altri importanti concorrenti. LiveCodeBench (Pass@1-COT): la versione distillata DeepSeek-R1-Distill-Qwen-32B ha ottenuto un punteggio del 57,2%, una prestazione di rilievo tra i modelli più piccoli. AIME 2024 (Pass@1): DeepSeek-R1 ha ottenuto il 79,8%, stabilendo uno standard impressionante nella risoluzione di problemi matematici. Una pipeline a beneficio dell’industria in generale DeepSeek ha condiviso i dettagli della sua rigorosa pipeline per lo sviluppo di modelli di ragionamento, che integra una combinazione di fine-tuning supervisionato e apprendimento per rinforzo. Secondo l’azienda, il processo prevede due fasi SFT per stabilire le capacità fondamentali di ragionamento e non, e due fasi RL per scoprire modelli di ragionamento avanzati e allineare queste capacità alle preferenze umane. “Crediamo che la pipeline porterà benefici all’industria creando modelli migliori”, ha dichiarato DeepSeek, alludendo al potenziale della sua metodologia di ispirare futuri progressi nel settore dell’IA. Uno dei risultati più significativi del loro approccio incentrato su RL è la capacità di DeepSeek-R1-Zero di eseguire intricati modelli di ragionamento senza precedenti istruzioni umane, una novità assoluta per la comunità di ricerca open-source sull’IA. Importanza della distillazione I ricercatori di DeepSeek hanno anche sottolineato l’importanza della distillazione, il processo di trasferimento delle capacità di ragionamento da modelli più grandi a modelli più piccoli e più efficienti, una strategia che ha permesso di ottenere guadagni di prestazioni anche per le configurazioni più piccole. Le iterazioni più piccole di DeepSeek-R1, come le versioni da 1,5B, 7B e 14B, sono state in grado di reggere il confronto con applicazioni di nicchia. I modelli distillati possono superare i risultati ottenuti con l’addestramento RL su modelli di dimensioni comparabili. 🔥 Bonus: Modelli distillati open-source! 🔬 Distillati da DeepSeek-R1, 6 piccoli modelli completamente open-sourced 📏 Modelli 32B e 70B alla pari con OpenAI-o1-mini 🤝 Dare forza alla comunità open-source 🌍 Spingendo i confini della **open AI**! 🐋 2/n pic.twitter.com/tfXLM2xtZZ – DeepSeek (@deepseek_ai) 20 gennaio 2025 Per i ricercatori, questi modelli sono disponibili in configurazioni che vanno da 1,5 miliardi a 70 miliardi di parametri, supportando le architetture Qwen2.5 e Llama3. Questa flessibilità consente un utilizzo versatile in un’ampia gamma di attività, dalla codifica alla comprensione del linguaggio naturale. DeepSeek ha adottato la Licenza MIT per il suo repository e i suoi pesi, estendendo i permessi per l’uso commerciale e le modifiche a valle. Sono consentiti lavori derivati, come l’utilizzo di DeepSeek-R1 per addestrare altri modelli linguistici di grandi dimensioni (LLM). Tuttavia, gli utenti di modelli specifici devono rispettare le licenze dei modelli di base originali, come le licenze Apache 2.0 e Llama3. Leggi di più su www.artificialintelligence-news.com

Apple ritira le notizie generate dall’intelligenza artificiale dai suoi dispositivi dopo le reazioni dei consumatori

Apple ritira le notizie generate dall'intelligenza artificiale dai suoi dispositivi dopo le reazioni dei consumatori

Apple ha eliminato la sua funzione di notizie AI Apple Intelligence dopo che questa aveva inventato storie e stravolto titoli reali. L’AI news di Apple avrebbe dovuto semplificare la vita riassumendo gli avvisi di notizie provenienti da più fonti. Invece, ha creato il caos diffondendo notizie false, spesso sotto marchi di media affidabili. Ecco dove è andato tutto storto: Utilizzando il logo della BBC, ha inventato una storia che sosteneva che la star del tennis Rafael Nadal avesse fatto coming out come gay, fraintendendo completamente una storia su un giocatore brasiliano. Ha fatto un passo falso annunciando che il giovane giocatore di freccette Luke Littler aveva vinto il campionato mondiale PDC, prima ancora di aver giocato la finale. In un errore più grave, ha creato un falso avviso della BBC in cui si affermava che Luigi Mangione, accusato di aver ucciso l’amministratore delegato di UnitedHealthcare Brian Thompson, si era suicidato. Il sistema ha inserito il nome del New York Times in una storia completamente inventata sull’arresto del primo ministro israeliano Benjamin Netanyahu. Un riassunto generato dall’AI di un articolo della BBC affermava erroneamente che il sospettato di aver sparato all’amministratore delegato Luigi Mangione si era suicidato. Il logo della BBC era allegato. La BBC, infuriata per aver visto il suo nome associato a storie false, ha presentato un reclamo formale. I gruppi di stampa si sono uniti a loro, come Reporter Senza Frontiere, che ha avvertito che lasciare che l’intelligenza artificiale riscriva le notizie mette a rischio il diritto del pubblico a un’informazione accurata. Anche il Sindacato Nazionale dei Giornalisti ha chiesto la rimozione della funzione, affermando che i lettori non dovrebbero dover indovinare se ciò che stanno leggendo è reale. Alcune ricerche hanno già dimostrato che anche quando le persone imparano che i media creati dall’intelligenza artificiale sono falsi, lasciano comunque un “segno” psicologico che persiste anche in seguito. Apple L’Intelligenza – che offre una serie di funzioni basate sull’intelligenza artificiale, tra cui le notizie AI – è stata una delle caratteristiche principali della nuova gamma di iPhone 16. Apple è un’azienda che si vanta di prodotti raffinati che “funzionano e basta” – è raro che Apple faccia marcia indietro – quindi evidentemente non aveva molta scelta in questo caso. Detto questo, non è l’unica ad aver commesso errori con l’intelligenza artificiale. Non molto tempo fa, i riassunti delle ricerche generate dall’intelligenza artificiale di Google dicevano alle persone che potevano mangiare sassi e mettere la colla sulla pizza. Apple ha in programma di resuscitare la funzione con etichette di avvertimento e una formattazione speciale per mostrare quando l’intelligenza artificiale crea i riassunti. I lettori devono decodificare font ed etichette diverse solo per sapere se stanno leggendo notizie vere? Ed ecco un’idea radicale: potrebbero continuare a visualizzare il titolo stesso della notizia? Tutto ciò dimostra che, mentre l’intelligenza artificiale continua a penetrare in ogni angolo della nostra vita digitale, alcune cose – come ricevere notizie accurate – sono semplicemente troppo importanti per essere sbagliate. Una grande inversione di rotta da parte di Apple, ma probabilmente non l’ultima che vedremo di questo tipo. Leggi di più su dailyai.com

Microsoft fa avanzare la scoperta dei materiali con MatterGen

Microsoft fa avanzare la scoperta dei materiali con MatterGen

  La scoperta di nuovi materiali è fondamentale per risolvere alcune delle più grandi sfide dell’umanità. Tuttavia, come evidenziato da Microsoft, i metodi tradizionali di scoperta di nuovi materiali possono sembrare come “trovare un ago in un pagliaio” Storicamente, la ricerca di nuovi materiali si è affidata a esperimenti di prova ed errore, laboriosi e costosi. Più di recente, lo screening computazionale di vasti database di materiali ha aiutato a velocizzare il processo, ma è rimasto un processo che richiede molto tempo. Ora, un nuovo potente strumento di intelligenza artificiale generativa di Microsoft potrebbe accelerare questo processo in modo significativo. Denominato MatterGen, lo strumento si allontana dai metodi di screening tradizionali e progetta direttamente nuovi materiali in base ai requisiti di progettazione, offrendo un approccio potenzialmente rivoluzionario alla scoperta dei materiali. Pubblicato in un articolo su Nature, Microsoft descrive MatterGen come un modello di diffusione che opera all’interno della geometria 3D dei materiali. Mentre un modello di diffusione delle immagini potrebbe generare immagini da messaggi di testo modificando i colori dei pixel, MatterGen genera strutture di materiali modificando elementi, posizioni e reticoli periodici in strutture randomizzate. Questa architettura su misura è stata progettata appositamente per gestire le esigenze uniche della scienza dei materiali, come la periodicità e la disposizione in 3D. “MatterGen consente un nuovo paradigma di progettazione generativa dei materiali assistita dall’intelligenza artificiale che permette un’esplorazione efficiente dei materiali, andando oltre l’insieme limitato di quelli conosciuti”, spiega Microsoft. Un salto oltre lo screening I metodi computazionali tradizionali prevedono lo screening di enormi database di potenziali materiali per identificare quelli con le proprietà desiderate. Tuttavia, anche questi metodi sono limitati nella loro capacità di esplorare l’universo dei materiali sconosciuti e richiedono ai ricercatori di vagliare milioni di opzioni prima di trovare candidati promettenti. MatterGen, invece, parte da zero e genera materiali in base a specifiche richieste di chimica, caratteristiche meccaniche, proprietà elettroniche, comportamento magnetico o combinazioni di questi vincoli. Il modello è stato addestrato utilizzando oltre 608.000 materiali stabili provenienti dai database del Materials Project e di Alexandria. Nel confronto che segue, MatterGen ha superato in modo significativo i metodi di screening tradizionali nel generare nuovi materiali con proprietà specifiche, in particolare un modulo di massa superiore a 400 GPa, che significa che sono difficili da comprimere. Mentre lo screening ha mostrato rendimenti decrescenti nel tempo, man mano che il pool di candidati noti si esauriva, MatterGen ha continuato a generare risultati sempre più innovativi. Una sfida comune incontrata durante la sintesi dei materiali è il disordine compositivo, il fenomeno per cui gli atomi si scambiano casualmente la posizione all’interno di un reticolo cristallino. Gli algoritmi tradizionali spesso non riescono a distinguere tra strutture simili quando si tratta di decidere che cosa conta come materiale “veramente nuovo”. Per risolvere questo problema, Microsoft ha ideato un nuovo algoritmo di corrispondenza delle strutture che incorpora il disordine compositivo nelle sue valutazioni. Lo strumento identifica se due strutture sono semplicemente approssimazioni ordinate della stessa struttura disordinata sottostante, consentendo definizioni più solide di novità. Dimostrare che MatterGen funziona per la scoperta dei materiali Per dimostrare il potenziale di MatterGen, Microsoft ha collaborato con i ricercatori dello Shenzhen Institutes of Advanced Technology (SIAT) – parte dell’Accademia delle Scienze cinese – per sintetizzare sperimentalmente un nuovo materiale progettato dall’intelligenza artificiale. Il materiale, TaCr₂O₆, è stato generato da MatterGen per raggiungere un modulo di massa di 200 GPa. Sebbene il risultato sperimentale sia stato leggermente inferiore all’obiettivo, misurando un modulo di 169 GPa, l’errore relativo è stato solo del 20%, una discrepanza minima dal punto di vista sperimentale. È interessante notare che il materiale finale presentava un disordine compositivo tra gli atomi di Ta e Cr, ma la sua struttura era strettamente allineata alle previsioni del modello. Se questo livello di accuratezza predittiva può essere tradotto in altri settori, MatterGen potrebbe avere un impatto profondo sulla progettazione di materiali per batterie, celle a combustibile, magneti e altro ancora. Oggi su @Nature: Il nostro modello MatterGen rappresenta un cambiamento paradigmatico nella progettazione dei materiali, applicando l’intelligenza artificiale generativa per creare nuovi composti con proprietà specifiche con una precisione senza precedenti. pic.twitter.com/RpnphXUY0c – Satya Nadella (@satyanadella) 16 gennaio 2025 Microsoft posiziona MatterGen come strumento complementare al suo precedente modello di intelligenza artificiale, MatterSim, che accelera le simulazioni delle proprietà dei materiali. Insieme, gli strumenti potrebbero fungere da “volano” tecnologico, migliorando sia l’esplorazione di nuovi materiali che la simulazione delle loro proprietà in cicli iterativi. Questo approccio è in linea con quello che Microsoft definisce il “quinto paradigma della scoperta scientifica”, in cui l’intelligenza artificiale va oltre il riconoscimento dei modelli per guidare attivamente esperimenti e simulazioni. Microsoft ha rilasciato il codice sorgente di MatterGen con licenza MIT. Oltre al codice, il team ha reso disponibili i dataset di addestramento e di messa a punto del modello per supportare ulteriori ricerche e incoraggiare un’adozione più ampia di questa tecnologia. Riflettendo sul più ampio potenziale scientifico dell’IA generativa, Microsoft fa un parallelo con la scoperta dei farmaci, dove questi strumenti hanno già iniziato a trasformare il modo in cui i ricercatori progettano e sviluppano i medicinali. Allo stesso modo, MatterGen potrebbe rimodellare il modo in cui ci approcciamo alla progettazione dei materiali, in particolare per settori critici come le energie rinnovabili, l’elettronica e l’ingegneria aerospaziale. Leggi di più su www.artificialintelligence-news.com

Rendere i cosmetici sostenibili con l’intelligenza artificiale generativa

Rendere i cosmetici sostenibili con l'intelligenza artificiale generativa

  L’Oréal sfrutterà la tecnologia generativa AI (GenAI) di IBM per creare prodotti cosmetici innovativi e sostenibili. La partnership prevede lo sviluppo di un modello di fondazione AI su misura per potenziare i team di ricerca e innovazione (R&I) di L’Oréal nella creazione di formulazioni ecologiche che utilizzano materie prime rinnovabili. A sua volta, questa iniziativa è pensata per ridurre gli sprechi di energia e di materiali. Descritta come il primo modello di intelligenza artificiale dell’industria cosmetica incentrato sulla formulazione, questa iniziativa rappresenta un’anticipazione di un futuro in cui la tecnologia all’avanguardia guida soluzioni attente all’ambiente. Stéphane Ortiz, Head of Innovation Métiers & Product Development di L’Oréal R&I, ha dichiarato: “Nell’ambito del nostro Programma di Trasformazione Digitale, questa partnership amplierà la velocità e la scala della nostra pipeline di innovazione e riformulazione, con prodotti che raggiungeranno sempre standard più elevati di inclusività, sostenibilità e personalizzazione” AI e bellezza: Un connubio perfetto Unendo l’esperienza di L’Oréal nella scienza cosmetica con le tecnologie di intelligenza artificiale di IBM, le aziende mirano a sbloccare nuovi percorsi sia nell’innovazione cosmetica che nella sostenibilità. Il ruolo dell’intelligenza artificiale nella personalizzazione dei prodotti è ormai consolidato, ma l’approfondimento del suo ruolo nella creazione di formulazioni rinnovabili e di origine sostenibile sottolinea una missione ecologica più ampia. Matthieu Cassier, Chief Transformation & Digital Officer di L’Oréal R&I, ha commentato: “Basandoci su anni di esperienza unica nella scienza della bellezza e nella strutturazione dei dati, questa importante alleanza con IBM apre una nuova entusiasmante era per il nostro processo di innovazione e sviluppo” I modelli Foundation costituiscono la spina dorsale tecnologica di questa collaborazione. Questi sistemi di intelligenza artificiale vengono addestrati su vasti set di dati, consentendo loro di svolgere vari compiti e di trasferire gli apprendimenti in diverse applicazioni. Sebbene questi modelli siano noti soprattutto per aver rivoluzionato l’elaborazione del linguaggio naturale (NLP), IBM ha ampliato i loro casi d’uso al di là del testo, includendo applicazioni nella chimica, nei dati geospaziali e nell’analisi delle serie temporali. In questo contesto, il modello AI personalizzato che si sta sviluppando per L’Oréal elaborerà un enorme database di formule cosmetiche e componenti di materie prime. Dalla creazione di nuovi prodotti alla riformulazione di quelli esistenti e alla scalabilità per la produzione, il modello accelererà le attività critiche per i team di ricerca e sviluppo dell’azienda. “Questa collaborazione è un’applicazione davvero efficace dell’IA generativa, che sfrutta la potenza della tecnologia e delle competenze per il bene del pianeta”, ha dichiarato Alessandro Curioni, IBM Fellow e VP per l’Europa e l’Africa, nonché Direttore di IBM Research Zurich. “In IBM crediamo nel potere dell’IA personalizzata e costruita ad hoc per aiutare a trasformare le aziende. Utilizzando la più recente tecnologia AI di IBM, L’Oréal sarà in grado di ricavare informazioni significative dai suoi ricchi dati sulle formule e sui prodotti per creare un modello AI su misura che la aiuterà a raggiungere i suoi obiettivi operativi e a continuare a creare prodotti di alta qualità e sostenibili.” Una delle dimensioni più affascinanti di questa collaborazione è la possibilità di approfondire la comprensione del comportamento degli ingredienti rinnovabili nelle formulazioni cosmetiche. Guilhaume Leroy-Méline, IBM Distinguished Engineer e CTO di IBM Consulting France, ha dichiarato: “Questa alleanza tra competenze altamente specializzate nel campo dell’intelligenza artificiale e della cosmetica mira a rivoluzionare la formulazione dei cosmetici. Incarna lo spirito della ricerca potenziata dall’intelligenza artificiale, ponendo l’accento sulla sostenibilità e sulla diversità” Per IBM, questa partnership riflette la sua più ampia strategia di estendere le applicazioni dell’IA ai settori che richiedono soluzioni personalizzate. Come ha sottolineato Curioni, l’IA personalizzata ha il potenziale per rimodellare le aziende a più livelli. Sviluppando insieme questo modello di formulazione su misura, IBM e L’Oréal stanno ponendo le basi per un settore della bellezza che premia sia la sostenibilità che l’innovazione all’avanguardia. In caso di successo, questa partnership potrebbe fungere da modello per altri settori che desiderano sfruttare il potenziale di trasformazione dell’IA per gli sforzi di sostenibilità. Leggi di più su www.artificialintelligence-news.com

Proteggere le imprese nell’era dell’intelligenza artificiale

Proteggere le imprese nell'era dell'intelligenza artificiale

  Man mano che l’IA diventa sempre più parte integrante delle operazioni aziendali, emergono nuovi problemi di sicurezza e minacce alla sicurezza a un ritmo senza precedenti, che superano le capacità delle soluzioni di cybersecurity tradizionali. La posta in gioco è alta e le ripercussioni potenzialmente significative. Secondo il 2024 AI Readiness Index di Cisco, solo il 29% delle organizzazioni intervistate si sente pienamente equipaggiato per rilevare e prevenire manomissioni non autorizzate delle tecnologie AI. Convalida continua dei modelli DJ Sampath, Head of AI Software & Platform di Cisco, ha dichiarato: “Quando parliamo di convalida del modello, non si tratta di una cosa una tantum, giusto? La convalida del modello avviene su base continua. quindi, man mano che si verificano cambiamenti nel modello – se si sta effettuando un qualsiasi tipo di messa a punto, o si scoprono nuovi attacchi che iniziano a manifestarsi e da cui i modelli devono imparare – stiamo costantemente apprendendo tutte queste informazioni e riconvalidando il modello per vedere come si comportano i modelli in caso di nuovi attacchi che abbiamo scoperto”. “L’altro punto molto importante è che disponiamo di un team di ricerca sulle minacce davvero avanzato che esamina costantemente questi attacchi dell’intelligenza artificiale e capisce come questi attacchi possano essere ulteriormente migliorati. Infatti, stiamo contribuendo ai gruppi di lavoro all’interno di organizzazioni standard come MITRE, OWASP e NIST” Oltre a prevenire gli output dannosi, Cisco affronta le vulnerabilità dei modelli di intelligenza artificiale alle influenze esterne dannose che possono modificarne il comportamento. Questi rischi includono gli attacchi di tipo prompt injection, il jailbreak e l’avvelenamento dei dati di formazione, ognuno dei quali richiede misure preventive rigorose. L’evoluzione porta nuove complessità Frank Dickson, Group VP for Security & Trust di IDC, ha espresso la sua opinione sull’evoluzione della cybersecurity nel tempo e su cosa significhino i progressi dell’IA per il settore. “La prima tendenza macro è stata il passaggio dall’on-premise al cloud, che ha introdotto una serie di nuovi problemi da affrontare. Poi, con il passaggio dalle applicazioni monolitiche ai microservizi, abbiamo assistito a una serie di nuovi problemi. “L’intelligenza artificiale e l’aggiunta dei LLM… la stessa cosa, una serie di nuovi problemi” Le complessità della sicurezza dell’IA aumentano quando le applicazioni diventano multi-modello. Le vulnerabilità possono sorgere a vari livelli, dai modelli alle applicazioni, coinvolgendo diverse parti interessate come sviluppatori, utenti finali e fornitori. “Una volta che un’applicazione si spostava dall’on-premise al cloud, in un certo senso rimaneva lì. Sì, abbiamo sviluppato applicazioni su più cloud, ma una volta che hai messo un’applicazione su AWS, Azure o GCP, non l’hai spostata da un ambiente all’altro con cadenza mensile, trimestrale o settimanale, giusto? “Una volta che si passa dallo sviluppo di applicazioni monolitiche ai microservizi, si rimane lì. Una volta che metti un’applicazione in Kubernetes, non salti di nuovo in un altro ambiente. “Quando cerchi di assicurarti un LLM, la cosa importante da notare è che il modello cambia. E quando parliamo di cambiamento di modello, non si tratta di una revisione… questa settimana forse [gli sviluppatori] usano Anthropic, la prossima settimana potrebbero usare Gemini. “Sono completamente diversi e i vettori di minaccia di ciascun modello sono completamente diversi. Tutti hanno i loro punti di forza e tutti hanno le loro drammatiche debolezze” A differenza delle misure di sicurezza convenzionali integrate nei singoli modelli, Cisco offre controlli per un ambiente multi-modello attraverso la sua nuova AI Defense. La soluzione si auto-ottimizza, utilizzando gli algoritmi di machine learning proprietari di Cisco per identificare i problemi di sicurezza e protezione dell’intelligenza artificiale in continua evoluzione, informati dalle informazioni sulle minacce di Cisco Talos. Adattarsi alla nuova normalità Jeetu Patel, Executive VP e Chief Product Officer di Cisco, ha condiviso la sua opinione sul fatto che i grandi progressi in un breve periodo di tempo sembrano sempre rivoluzionari, ma in breve tempo diventano normali. “Waymo è, come dire, l’auto a guida autonoma di Google. Sali, non c’è nessuno seduto nell’auto e ti porta dal punto A al punto B. È una sensazione incredibile, come se vivessimo nel futuro. La seconda volta ci si abitua. La terza volta, inizi a lamentarti dei sedili. “Anche per la rapidità con cui ci siamo abituati all’intelligenza artificiale e al ChatGPT negli ultimi due anni, penso che qualsiasi progresso importante si sentirà eccezionalmente progressista per un breve periodo di tempo. Poi si verifica una normalizzazione in cui tutti iniziano ad abituarsi” Patel ritiene che questa normalizzazione avverrà anche con l’AGI. Tuttavia, osserva che “non si possono sottovalutare i progressi che questi modelli stanno iniziando a fare” e, in ultima analisi, il tipo di casi d’uso che riusciranno a sbloccare. “Nessuno pensava che avremmo avuto uno smartphone con una capacità di calcolo superiore a quella di un computer mainframe a portata di mano e in grado di fare migliaia di cose in qualsiasi momento e ora è solo un altro modo di vivere. Mia figlia di 14 anni non ci pensa nemmeno. “Dovremmo fare in modo che le aziende si adeguino molto rapidamente a questa situazione”   Leggi di più su www.artificialintelligence-news.com

Il governo britannico firma un vasto piano d’azione per l’intelligenza artificiale

Il governo britannico firma un vasto piano d'azione per l'intelligenza artificiale

  L’intelligenza artificiale è destinata a diventare una pietra miliare della visione di rinnovamento economico e sociale del Regno Unito grazie a un vasto piano d’azione presentato oggi dal Primo Ministro Keir Starmer. Il governo si è impegnato a seguire tutte le 50 raccomandazioni delineate nell’ambizioso Piano d’azione per le opportunità dell’IA creato da Matt Clifford CBE, imprenditore tecnologico e presidente dell’Advanced Research and Invention Agency. “Il nostro piano farà della Gran Bretagna un leader mondiale”, ha dichiarato Starmer. “Questo significa più posti di lavoro e investimenti nel Regno Unito, più soldi nelle tasche dei cittadini e servizi pubblici trasformati. Questo è il cambiamento che questo governo sta portando avanti” Il piano pone l’IA come motore fondamentale del progresso nazionale, con l’obiettivo di rivoluzionare i servizi pubblici, aumentare la produttività e affermare il Regno Unito come leader globale nel settore. Chris Lehane, Chief Global Affairs Officer di OpenAI, ha dichiarato: “Dalla locomotiva al computer Colossus, il Regno Unito ha una ricca storia di leadership nell’innovazione tecnologica e nella ricerca e sviluppo dell’IA. “Il piano d’azione sull’IA del governo, guidato dal Primo Ministro e dal Segretario Peter Kyle, riconosce la direzione dello sviluppo dell’IA e mette il Regno Unito sulla strada giusta per beneficiare della sua crescita. Il Regno Unito ha un’enorme risorsa nazionale nel talento delle persone, delle istituzioni e delle imprese che insieme possono sfruttare l’IA per promuovere l’interesse nazionale del Paese” Un piano per sbloccare il potenziale economico I vantaggi economici dell’adozione dell’IA costituiscono un elemento centrale della strategia del governo. Il Fondo Monetario Internazionale stima che l’adozione dell’IA potrebbe aumentare la produttività di 1,5 punti percentuali all’anno. Nell’arco di un decennio, secondo i calcoli del Tesoro, questo potrebbe portare a un guadagno economico di 47 miliardi di sterline all’anno. La strategia non mira solo a far crescere l’economia, ma anche a creare benefici tangibili per i cittadini. Il dottor Jean Innes, CEO dell’Alan Turing Institute, ha dichiarato: “Questo piano offre un’entusiasmante tabella di marcia e accogliamo con favore la sua attenzione all’adozione di un’IA sicura e responsabile, alle competenze in materia di IA e all’ambizione di sostenere la leadership globale del Regno Unito, mettendo l’IA al servizio della crescita e dei benefici per la società”. “Condividiamo queste ambizioni e non vediamo l’ora di lavorare con il governo, le università, l’industria e la società civile per plasmare il futuro di queste tecnologie a sostegno del successo del Regno Unito e per migliorare la vita delle persone” Tre grandi aziende – Vantage Data Centres, Nscale e Kyndryl – si sono già impegnate a investire complessivamente 14 miliardi di sterline, creando 13.250 posti di lavoro in tutto il Paese e rafforzando la fiducia nel potenziale dell’IA del Regno Unito. Questo va ad aggiungersi ai 25 miliardi di sterline di impegni presi in occasione dell’International Investment Summit dello scorso anno. Vantage Data Centres investirà oltre 12 miliardi di sterline in progetti di data center nel Regno Unito, tra cui uno dei campus di data center più grandi d’Europa in Galles. Nel frattempo, Kyndryl stabilirà un nuovo polo tecnologico a Liverpool, creando fino a 1.000 posti di lavoro legati all’intelligenza artificiale. Nscale ha in programma di sostenere l’infrastruttura dei data center del Regno Unito con un investimento di 2,5 miliardi di dollari, che comprende la costruzione del più grande data center di AI sovrano della nazione nell’Essex entro il 2026. Alison Kay, VP per il Regno Unito e l’Irlanda di Amazon Web Services (AWS), ha dichiarato: “Noi di AWS abbiamo visto in prima persona i benefici che le tecnologie digitali come l’IA possono portare, ed è per questo che abbiamo annunciato l’intenzione di investire 8 miliardi di sterline nei prossimi cinque anni per la costruzione, la gestione e la manutenzione di data center nel Regno Unito”. “Mettendo al centro dell’agenda del governo una stretta collaborazione tra industria e partenariato pubblico-privato, ogni cittadino, comunità e azienda in ogni regione del Regno Unito avrà l’opportunità di sfruttare i vantaggi dell’IA e di prosperare e crescere.” Zahra Bahrololoumi CBE, CEO di Salesforce UK e Irlanda, ha aggiunto: “Le aziende del Regno Unito sono in una posizione privilegiata per sfruttare appieno le opportunità dell’IA, grazie a una forte cultura dell’innovazione e a leggi basate sul rischio. Ecco perché Salesforce ha scelto il Regno Unito come sede del suo primo centro AI, sulla base del nostro impegno a investire 4 miliardi di dollari nelle nostre attività nel Regno Unito per sfruttare il potere di trasformazione dell’AI” Trasformare i servizi pubblici L’intelligenza artificiale viene già impiegata negli ospedali del Regno Unito, aiutando a modernizzare il servizio sanitario nazionale con diagnosi più rapide di patologie come il cancro al seno, migliorando l’assistenza ai pazienti non verbali e accelerando le dimissioni dei pazienti. “I dati del Servizio Sanitario Nazionale potrebbero essere preziosi per le innovazioni dell’IA nel settore sanitario”, ha dichiarato il dott. Bilal, professore di IA applicata e di etica tecnologica presso la Birmingham City University. “Ma rimangono in gran parte inaccessibili a molti ricercatori a causa dei costi proibitivi e degli ostacoli logistici” iniziative come gli NHS Secure Data Environments sono un ottimo inizio, ma devono essere rese più accessibili, o idealmente gratuite, per le istituzioni accademiche”. Oltre all’assistenza sanitaria, il governo scommette sul fatto che un’adozione più ampia dell’IA potrebbe portare a efficienze simili in altri settori pubblici. Ad esempio, il piano sottolinea il potenziale dell’IA nel ridurre il carico di lavoro amministrativo degli insegnanti, nell’accelerare le consultazioni urbanistiche per facilitare la costruzione di nuovi alloggi e persino nell’identificare le buche sulle strade tramite telecamere potenziate dall’IA per accelerare le riparazioni. La nuova strategia introduce le AI Growth Zones, progettate per accelerare lo sviluppo di infrastrutture critiche. Queste zone non solo accelereranno i permessi di pianificazione, ma garantiranno anche connessioni energetiche dedicate per alimentare i progetti di intelligenza artificiale. La prima zona di questo tipo sarà istituita a Culham, nell’Oxfordshire. Costruire infrastrutture per l’IA Per sostenere le aspirazioni del Regno Unito in materia di IA sono necessari investimenti significativi nelle infrastrutture. Il piano prevede: Un aumento

La funzione Gen AI di Amazon Marketing Cloud consente agli inserzionisti di costruire e indirizzare facilmente pubblici personalizzati

La funzione Gen AI di Amazon Marketing Cloud consente agli inserzionisti di costruire e indirizzare facilmente pubblici personalizzati

Amazon Marketing Cloud sta aggiungendo un pizzico di intelligenza artificiale generativa alla sua piattaforma, sotto forma di una nuova funzione, presentata mercoledì al CES di Las Vegas, che consente agli inserzionisti di inviare query in linguaggio strutturato (SQL) per creare e indirizzare il pubblico. La nuova funzionalità, che sarà disponibile per tutti gli inserzionisti di Amazon Marketing Cloud all’inizio di quest’anno, fornisce un’interfaccia in linguaggio naturale in cui gli inserzionisti possono inviare query SQL per il caso d’uso del pubblico desiderato, invece di dover creare tali codici manualmente. L’esecuzione di queste query in Amazon Marketing Cloud genera e attiva il nuovo pubblico personalizzato nella piattaforma demand-side e nella console annunci di Amazon, dove può essere utilizzato nelle campagne Amazon Ads attraverso l’intero funnel di marketing, via audio, canali digitali e televisione in streaming. “Con il generatore SQL, stiamo portando la potenza della gen AI per aiutare gli inserzionisti a sbloccare più rapidamente il valore dei loro dati e dei nostri segnali di shopping e streaming per eseguire strategie pubblicitarie davvero full-funnel”, ha dichiarato Paula Despins, vicepresidente di Amazon Ads, gestione delle campagne, pianificazione e Amazon Marketing Cloud, in un comunicato. Ad esempio, un inserzionista può inserire: “Crea un pubblico di clienti che hanno visitato le pagine dei nostri prodotti e visto i miei annunci televisivi in streaming ma non hanno acquistato negli ultimi 30 giorni”, secondo l’esempio dell’azienda. Il generatore SQL utilizza quindi algoritmi avanzati per creare la query SQL per creare il pubblico, che può essere utilizzato per campagne di retargeting su vari canali, dalla sensibilizzazione dell’upper-funnel sulla TV in streaming alle tattiche di conversione del lower-funnel sugli annunci di prodotti sponsorizzati. Il nuovo generatore SQL consente inoltre agli inserzionisti di porre domande del tipo: “Come posso creare un pubblico di clienti che hanno ascoltato i nostri annunci audio, ma non hanno ancora effettuato un acquisto?” Il generatore genera quindi il codice necessario per creare questo pubblico cross-canale con istruzioni passo-passo. “Questa funzionalità non solo ha aumentato la produttività, ma ha aiutato gli inserzionisti a esplorare nuovi casi d’uso e segmenti di pubblico, aiutandoli a far crescere il loro marchio e a ottimizzare la spesa mediatica attraverso la TV in streaming, l’audio e i canali digitali”, ha aggiunto Despins. Leggi di più su www.adweek.com