Il generatore di immagini AI Midjourney è stato citato in giudizio da Disney e Universal per violazione di copyright

Due importanti studios di Hollywood, Disney e Universal Pictures, stanno facendo causa a Midjourney per quello che definiscono un uso non autorizzato della loro proprietà intellettuale per addestrare il suo modello di intelligenza artificiale di grandi dimensioni. La causa per violazione del copyright, depositata presso la Corte Distrettuale degli Stati Uniti per il Distretto Centrale della California a Los Angeles, accusa Midjourney di aver prodotto repliche dei personaggi protetti da copyright degli studios utilizzando il suo strumento di generazione di immagini. Tra i personaggi e le immagini coinvolte figurano Shrek e Minions di Universal, oltre a vari personaggi degli universi Disney de Il Re Leone, Aladdin, Frozen, Marvel, Star Wars, I Simpson, Toy Story, Cars e Come addestrare il tuo drago. “La pirateria è pirateria e il fatto che un’immagine o un video in violazione sia realizzato con l’intelligenza artificiale o con un’altra tecnologia non lo rende meno in violazione”, hanno dichiarato le due aziende nella loro causa. “La condotta di Midjourney si appropria indebitamente della proprietà intellettuale di Disney e Universal e minaccia di mettere a repentaglio gli incentivi fondamentali della legge statunitense sul diritto d’autore, che determinano la leadership americana nel cinema, nella televisione e in altre arti creative” I dirigenti di NBCUniversal, società madre di Disney e Universal, hanno rilasciato dichiarazioni separate ad Axios. “La nostra proprietà intellettuale di livello mondiale è costruita su decenni di investimenti finanziari, creatività e innovazione, investimenti resi possibili solo dagli incentivi contenuti nella legge sul diritto d’autore che dà ai creatori il diritto esclusivo di trarre profitto dalle loro opere”, ha dichiarato Horacio Gutierrez, vicepresidente esecutivo senior, responsabile legale e della conformità della Disney. Kim Harris, vicepresidente esecutivo e consigliere generale di NBCU, ha aggiunto: “Oggi abbiamo avviato questa azione legale per proteggere il duro lavoro di tutti gli artisti che ci intrattengono e ci ispirano e il significativo investimento che facciamo nei nostri contenuti. Un furto è un furto a prescindere dalla tecnologia utilizzata e questa azione comporta una palese violazione dei nostri diritti d’autore” Midjourney, con sede a San Francisco e avviata nel 2021, aveva una base di utenti di quasi 21 milioni a settembre 2024. Ha lanciato il suo generatore di immagini AI nel febbraio 2022 e lo scorso anno ha accumulato 300 milioni di dollari di fatturato, quasi 100 milioni in più rispetto al 2023. Leggi di più su www.adweek.com
Anthropic lancia i modelli di AI Claude per la sicurezza nazionale degli Stati Uniti

Anthropic ha presentato una collezione personalizzata di modelli Claude AI progettati per i clienti della sicurezza nazionale degli Stati Uniti. L’annuncio rappresenta una potenziale pietra miliare nell’applicazione dell’IA in ambienti governativi riservati. I modelli “Claude Gov” sono già stati utilizzati da agenzie che operano ai più alti livelli della sicurezza nazionale degli Stati Uniti, con un accesso strettamente limitato a coloro che lavorano in questi ambienti riservati. Anthropic afferma che i modelli Claude Gov sono nati da un’ampia collaborazione con i clienti governativi per soddisfare i requisiti operativi del mondo reale. Nonostante siano stati realizzati per applicazioni di sicurezza nazionale, Anthropic sostiene che questi modelli sono stati sottoposti agli stessi rigorosi test di sicurezza degli altri modelli Claude presenti nel suo portafoglio. Funzionalità AI specializzate per la sicurezza nazionale I modelli specializzati offrono prestazioni migliori in diverse aree critiche per le operazioni governative. Sono caratterizzati da una migliore gestione dei materiali classificati, con un minor numero di casi in cui l’IA si rifiuta di interagire con informazioni sensibili, una frustrazione comune negli ambienti sicuri. Altri miglioramenti includono una migliore comprensione dei documenti in contesti di intelligence e difesa, una maggiore competenza in lingue cruciali per le operazioni di sicurezza nazionale e un’interpretazione superiore di dati complessi di cybersecurity per le analisi di intelligence. Tuttavia, questo annuncio arriva nel bel mezzo dei dibattiti in corso sulla regolamentazione dell’IA negli Stati Uniti. L’amministratore delegato di Anthropic, Dario Amodei, ha recentemente espresso le sue preoccupazioni in merito alla proposta di legge che concederebbe un congelamento decennale della regolamentazione statale sull’IA. Bilanciare l’innovazione e la regolamentazione In un saggio pubblicato questa settimana sul New York Times, Amodei si è espresso a favore di regole di trasparenza piuttosto che di moratorie normative. Ha illustrato le valutazioni interne che hanno rivelato comportamenti preoccupanti nei modelli avanzati di IA, tra cui un caso in cui il modello più recente di Anthropic ha minacciato di rivelare le e-mail private di un utente a meno che non venisse annullato un piano di spegnimento. Amodei ha paragonato i test di sicurezza dell’IA alle prove nella galleria del vento per gli aerei, progettate per evidenziare i difetti prima del rilascio pubblico, sottolineando che i team di sicurezza devono individuare e bloccare i rischi in modo proattivo. Anthropic si è posizionata come sostenitore di uno sviluppo responsabile dell’IA. Nell’ambito della sua Responsible Scaling Policy, l’azienda condivide già i dettagli sui metodi di test, sulle fasi di mitigazione dei rischi e sui criteri di rilascio, pratiche che secondo Amodei dovrebbero diventare standard in tutto il settore. Secondo Amodei, la formalizzazione di pratiche simili in tutto il settore consentirebbe al pubblico e ai legislatori di monitorare i miglioramenti delle capacità e di determinare l’eventuale necessità di ulteriori interventi normativi. Implicazioni dell’IA nella sicurezza nazionale L’impiego di modelli avanzati in contesti di sicurezza nazionale solleva importanti questioni sul ruolo dell’IA nella raccolta di informazioni, nella pianificazione strategica e nelle operazioni di difesa. Amodei si è espresso a favore del controllo delle esportazioni di chip avanzati e dell’adozione militare di sistemi affidabili per contrastare rivali come la Cina, indicando la consapevolezza di Anthropic delle implicazioni geopolitiche della tecnologia AI. I modelli Claude Gov potrebbero potenzialmente servire a numerose applicazioni per la sicurezza nazionale, dalla pianificazione strategica al supporto operativo, dall’analisi dell’intelligence alla valutazione delle minacce, il tutto nell’ambito dell’impegno dichiarato da Anthropic per uno sviluppo responsabile dell’IA. Panorama normativo Mentre Anthropic lancia questi modelli specializzati per l’uso governativo, il contesto normativo più ampio per l’IA rimane in evoluzione. Il Senato sta attualmente valutando un testo che istituirebbe una moratoria sulla regolamentazione dell’IA a livello statale, con audizioni previste prima di votare la misura tecnologica più ampia. Amodei ha suggerito che gli Stati potrebbero adottare norme di divulgazione ristrette che rimandino a un futuro quadro federale, con una clausola di supremazia che eventualmente prevarichi le misure statali per preservare l’uniformità senza bloccare le azioni locali a breve termine. Questo approccio consentirebbe una certa protezione normativa immediata mentre si lavora per uno standard nazionale completo. Man mano che queste tecnologie si integrano sempre più profondamente nelle operazioni di sicurezza nazionale, le questioni relative alla sicurezza, alla supervisione e all’uso appropriato rimarranno in primo piano sia nelle discussioni politiche che nel dibattito pubblico. Per Anthropic, la sfida consisterà nel mantenere il suo impegno per uno sviluppo responsabile dell’IA, soddisfacendo al contempo le esigenze specifiche dei clienti governativi per applicazioni critiche come la sicurezza nazionale. Leggi di più su www.artificialintelligence-news.com
Reddit fa causa ad Anthropic per lo scraping dei dati

Reddit accusa Anthropic di aver costruito i suoi modelli di intelligenza artificiale Claude sulle spalle degli utenti di Reddit, senza autorizzazione e senza pagare. Chiunque utilizzi Reddit, anche un bot di web-crawling, accetta l’accordo con gli utenti del sito. L’accordo è chiaro: non puoi prendere i contenuti del sito e utilizzarli per i tuoi prodotti commerciali senza un accordo scritto. Reddit sostiene che i bot di Anthropic hanno fatto esattamente questo per anni, scovando enormi quantità di conversazioni e post per addestrare e migliorare Claude. Ciò che rende questa causa particolarmente piccante è il modo in cui si scaglia contro la reputazione di Anthropic. Anthropic si è impegnata a fondo per farsi passare per un’azienda di AI etica e affidabile, il “cavaliere bianco” del settore. L’azione legale, tuttavia, definisce queste affermazioni nient’altro che “vuoti espedienti di marketing”. Ad esempio, Reddit fa riferimento a una dichiarazione del luglio 2024 in cui Anthropic affermava di aver impedito ai suoi bot di strisciare su Reddit. L’azione legale afferma che ciò era “falso”, sostenendo che i suoi log hanno rilevato i bot di Anthropic che hanno tentato di accedere al sito più di centomila volte nei mesi successivi. Ma non si tratta solo di beghe aziendali, bensì di una questione che coinvolge direttamente la privacy degli utenti. Quando cancelli un post o un commento su Reddit, ti aspetti che venga cancellato. Reddit ha stipulato accordi ufficiali di licenza con altri grandi player dell’intelligenza artificiale come Google e OpenAI, e questi accordi includono misure tecniche per garantire che quando un utente cancella un contenuto, lo faccia anche l’azienda di intelligenza artificiale. Secondo la causa intentata da Reddit, Anthropic non ha alcun accordo di questo tipo e si è rifiutata di stipularne uno. Ciò significa che se la loro IA è stata addestrata su un post che hai poi cancellato, quel contenuto potrebbe ancora essere inserito nella base di conoscenza di Claude, ignorando di fatto la tua scelta di rimuoverlo. La causa include persino uno screenshot in cui Claude stessa ammette di non avere alcun modo per sapere se i dati di Reddit su cui è stata addestrata sono stati successivamente cancellati da un utente: Quindi, cosa vuole Reddit? Non si tratta solo di denaro, anche se chiede un risarcimento per l’aumento dei costi dei server e per la perdita dei diritti di licenza. Chiedono al tribunale un’ingiunzione per costringere Anthropic a smettere immediatamente di utilizzare i dati di Reddit. Inoltre, Reddit vuole proibire ad Anthropic di vendere o concedere in licenza qualsiasi prodotto realizzato con quei dati. Ciò significa che stanno chiedendo a un giudice di togliere Claude dal mercato. Questo caso costringe a porsi una domanda difficile: Essere “pubblicamente disponibili” su Internet significa che i contenuti sono liberi di essere presi e monetizzati da qualsiasi azienda ? Reddit sostiene un deciso “no” e il risultato potrebbe cambiare le regole dello sviluppo dell’intelligenza artificiale da qui in avanti. Leggi di più su www.artificialintelligence-news.com
Perplexity registra una crescita mensile del 20% nelle query di ricerca, il CEO punta a 1 miliardo di ricerche settimanali

A maggio Perplexity ha servito 780 milioni di query di ricerca, che sono aumentate del 20% mese su mese, ha dichiarato il CEO Aravind Srinivas alla conferenza Bloomberg Tech di San Francisco. L’obiettivo è di raggiungere un miliardo di query a settimana entro la fine dell’anno. L’aumento delle query riflette lo sforzo di Perplexity di farsi strada nella corsa alla ricerca dell ‘intelligenza artificiale, dove Google domina ancora, anche se la sua presa sembra allentarsi mentre OpenAI sta girando in pista. Lo scorso agosto, Perplexity elaborava circa 230 milioni di query al mese a livello globale, come riportato in precedenza da ADWEEK. Srinivas ha definito Perplexity come un motore di ricerca costruito per l’accuratezza, un antidoto alle risposte allucinanti che affliggono molti rivali dell’IA. Nel frattempo, le AI di Google non riescono a ricordare l ‘anno in cui si trovano. Srinivas ha dichiarato che un “buon prodotto” ha contribuito ad attirare finanziatori molto facoltosi. Secondo quanto riportato da Reuters, l’azienda è in trattative per raccogliere fondi a una valutazione di 18 miliardi di dollari. La crescita di Perplexity arriva mentre inizia a inserire delle operazioni di guadagno. L’anno scorso l’azienda ha lanciato la sua esperienza di shopping elettronico alimentata dall’intelligenza artificiale e ha stretto partnership con marchi come Whole Foods e TurboTax per pubblicare annunci pubblicitari sulla piattaforma. Si sta inoltre preparando a lanciare Comet, il proprio browser, che si basa sul modo in cui i risultati vengono classificati e monetizzati. Perplexity punta molto anche a diventare un assistente nativo per i dispositivi Android. A gennaio ha iniziato a sviluppare il proprio assistente Android, ha dichiarato Srinivas, che ha portato a una partnership con Motorola. Srinivas ha lasciato intendere che potrebbero seguire altri accordi, dato che le conversazioni con altri produttori di hardware continuano. “L’Assistente Google è un’esperienza terribile, e loro stessi lo sanno”, ha detto, aggiungendo che Google ha dato a Perplexity un “momento estremamente difficile” quando si tratta di concludere accordi di distribuzione con gli OEM. Perplexity è stata anche una delle aziende che hanno testimoniato nel processo antitrust di Google all’inizio di quest’anno. In quell’occasione, il suo direttore commerciale ha dichiarato che gli accordi di distribuzione esclusiva di Google con i produttori di telefoni e i carrier hanno di fatto escluso Perplexity da partnership simili Leggi di più su www.adweek.com
Gli agenti AI aiutano PMG a pubblicare annunci su Fox News senza spaventare i clienti

Gli agenti di intelligenza artificiale stanno aiutando i brand a ripensare i contenuti giornalistici come canale pubblicitario. Le notizie sono state a lungo una zona di esclusione per gli inserzionisti, che sono restii ad accostarsi a storie di guerra, sparatorie di massa o personaggi politici polemici. Ma ora le IA agenziali, l’ultima parola d’ordine del digitale, stanno aiutando i pubblicitari a rivedere questa posizione. L’agenzia di marketing digitale PMG ha utilizzato le personas AI di Mobian – agenti AI che simulano il cliente ideale di un marchio – per lanciare una campagna per un marchio sanitario da 10 miliardi di dollari. Inserendo dei suggerimenti su chi vuole raggiungere il target e inserendo i parametri di sicurezza del marchio, PMG ha generato una persona che ha poi identificato in modo programmatico i contenuti di Fox News per l’inserimento di annunci mirati attraverso The Trade Desk. Solo il 18% della spesa della campagna è stata destinata a Fox News, ma ha portato al 34% delle conversioni totali, con un costo per conversione inferiore del 46% rispetto alla media della campagna, ha dichiarato Jonah Goodhart, co-fondatore e CEO di Mobian, durante il Tech Lab Summit di IAB a New York. “Vediamo segnali che prima non avevamo, come l’emozione o il sentimento”, ha dichiarato Sam Bloom, responsabile delle partnership di PMG. “L’intelligenza artificiale ci aiuta a rimuovere molti pregiudizi e ci permette di mirare a segnali molto granulari”, aggiungendo che la tecnologia “smentisce i miti comuni” sulla pubblicità delle notizie. Il cambiamento arriva mentre gli editori cercano di rimanere a galla, lottando contro la contrazione degli abbonamenti e il forte calo del traffico di riferimento da parte di piattaforme come Google. Secondo WARC, la spesa pubblicitaria globale per i marchi di notizie dovrebbe raggiungere i 32,3 miliardi di dollari quest’anno, con un calo del 33% rispetto al 2019. Altrove, aziende come Scope3 stanno impiegando agenti AI per affrontare i problemi di brand safety. Secondo Aaron Letscher, vicepresidente di Fox Corp, i filtri per la sicurezza del marchio hanno implicazioni enormi: le perdite di introiti pubblicitari derivanti da una distribuzione limitata si aggirano intorno alle decine di milioni. “La sfida che abbiamo cercato di risolvere è che i sistemi di misurazione e verifica tradizionali sono poco incisivi e tendono ad essere applicati sul lato acquisti”, ha dichiarato Letscher. “Sì, dobbiamo garantire la sicurezza del marchio. [Gli agenti di intelligenza artificiale ci offrono una maggiore flessibilità per dialogare con i partner sul lato acquisti” Leggi di più su www.adweek.com
I brand devono distinguersi mentre i bot iniziano ad diventare consumatori

In un cambiamento significativo che sta ridisegnando il commercio digitale, i giganti dei pagamenti come PayPal, Visa e Mastercard stanno puntando molto sui pagamenti agenziali, consentendo agli assistenti AI di fare acquisti e pagare per conto dei consumatori. Questa nuova era segna una trasformazione fondamentale nel modo in cui i brand devono approcciare il marketing digitale. La transizione è già ben avviata. Secondo uno studio di Capgemini del 2025, nel 2024 il 58% dei consumatori avrà sostituito i motori di ricerca tradizionali con strumenti di IA generativa per le raccomandazioni sui prodotti, più che raddoppiando rispetto al 25% del 2023. Poiché questi intermediari dell’intelligenza artificiale controllano sempre di più l’imbuto del marketing, i marketer si trovano di fronte a una domanda cruciale: Come si progetta la pubblicità quando il pubblico di riferimento non è umano? Un cambiamento così radicale richiede approcci pubblicitari completamente nuovi quando il cliente opera in base alla logica piuttosto che alle emozioni. Il viaggio del consumatore si sta rapidamente evolvendo da guidato dall’uomo a mediato dall’intelligenza artificiale e, infine, autonomo dall’intelligenza artificiale, come illustrato nella recente analisi di Bain & Company. La ricerca mostra come ogni fase del processo di acquisto, dal riconoscimento delle esigenze all’acquisto finale, avvenga sempre più spesso all’interno di strumenti di intelligenza artificiale con un impegno umano minimo. Bain & Company Le implicazioni per i marketer sono profonde. Come osserva Bain, “nel vecchio ordine, quando un potenziale cliente non si convertiva, l’azienda aveva almeno le briciole delle visualizzazioni della pagina, delle impressioni degli annunci, dei moduli compilati o delle iscrizioni alle e-mail, consentendo ai marketer di dare un seguito. Ma l’imbuto alimentato dall’AI esclude i venditori ben prima che il viaggio li raggiunga. La scoperta, la valutazione e la selezione avvengono all’interno dello strumento di intelligenza artificiale” Questa invisibilità crea una sfida esistenziale: a meno che un marchio non emerga al momento della valutazione dell’IA o non sia già in cima alla mente dell’acquirente, potrebbe non entrare mai nella serie di considerazioni. Dimentica le immagini aspirazionali, la risonanza culturale o lo storytelling emozionale. Gli agenti di intelligenza artificiale valutano i prodotti sulla base di fatti concreti, dettagli tecnici e numeri specifici quando decidono cosa consigliare. Poiché questi agenti di intelligenza artificiale valutano le opzioni in modo più rapido e completo di quanto possano fare gli acquirenti umani, i marchi devono ottimizzare in modo specifico la valutazione dell’intelligenza artificiale per rimanere visibili in questo nuovo panorama. Lo sviluppo creativo subisce una trasformazione radicale quando si rivolge alle macchine: I testi pubblicitari devono passare da messaggi persuasivi a descrizioni precise dei prodotti. Le risorse visive diventano meno attrattive dal punto di vista estetico e più chiare nella gerarchia delle informazioni. La voce del marchio conta meno per l’IA rispetto a strutture di dati coerenti e leggibili dalle macchine che si allineano ai criteri di valutazione dell’IA. Piuttosto che concentrarsi esclusivamente sulle parole chiave, gli inserzionisti devono ora ottimizzare il modo in cui l’IA fa emergere le informazioni attraverso esperienze di ricerca e interfacce conversazionali in continua evoluzione. Questo rappresenta un cambiamento sismico rispetto alla SEO tradizionale, che ottimizza non solo per la scoperta umana, ma anche per la preferenza algoritmica. Questo nuovo panorama richiede la padronanza di diverse strategie per garantire la visibilità dell’intelligenza artificiale: Incorporazione del marchio: stabilire iltuo marchio come entità riconosciuta nelle basi di conoscenza dell’IA attraverso la presenza su Wikipedia, inserzioni aziendali coerenti e markup di dati strutturati. Contenuti incentrati sulle risposte: crearerisposte concise e dirette alle domande in formati che l’IA possa facilmente digerire e consultare. Contenuti strategici generati dagli utenti: coltivareUGC positivi sulle piattaforme che alimentano i dati di formazione dell’IA. Standard tecnici: implementazione diprotocolli emergenti come llms.txt che guidano le modalità di interazione dei sistemi di IA con i tuoi contenuti. Quando ottimizzi queste strategie, dai priorità alle caratteristiche dei contenuti che le piattaforme di IA favoriscono, tra cui un testo ricco e colloquiale; strutture facili da usare per gli agenti, come elenchi ordinati e definizioni; siti puliti e scrapable piuttosto che pagine piene di parole chiave; autorità guadagnata fuori dal sito attraverso le citazioni dei media; e recensioni positive degli utenti. Oltre al processo, anche le metriche di successo devono trasformarsi di conseguenza. I tassi di click-through e l’engagement lasciano il posto ai tassi di inclusione dell’algoritmo, alla frequenza delle raccomandazioni dell’intelligenza artificiale e all’efficienza della conversione attraverso agenti autonomi. Un recente rapporto di eMarketer stima che gli agenti probabilmente si occuperanno di una parte consistente della fase di considerazione; di conseguenza, questo obbliga i marketer a sviluppare percorsi di integrazione diretta con i sistemi di intelligenza artificiale piuttosto che affidarsi solo ai canali pubblicitari tradizionali. Per navigare in questa nuova realtà, i brand lungimiranti dovrebbero: Sviluppare una strategia ottimizzata per l’IA. Stabilire un approccio completo che garantisca la visibilità del marchio in tutti i sistemi di IA, dai motori di ricerca agli agenti conversazionali, dagli assistenti allo shopping autonomi ai sistemi di IA predittiva. Ciò include il perfezionamento dei contenuti per la comprensione dell’IA, l’implementazione di dati strutturati e l’inserimento di attributi del marchio in linea con i criteri di valutazione algoritmici. Ridefinire le metriche di successo. I KPI tradizionali del marketing digitale, come le impressioni e i tassi di clic, diventano meno rilevanti quando l’IA media le interazioni dei consumatori. Aziende come Profound e Brandlight offrono strumenti di monitoraggio specializzati per monitorare la visibilità dell’IA, la frequenza delle raccomandazioni e i tassi di considerazione automatica del marchio. Questi strumenti simulano le valutazioni degli agenti su vari parametri, rivelando le opportunità di ottimizzazione nascoste nella “scatola nera” del processo decisionale algoritmico. Implementare test algoritmici continui. A differenza dei tradizionali test A/B mirati alla psicologia umana, le aziende devono ora stabilire protocolli di test dinamici che identifichino quali attributi di prodotto, strutture di contenuto e segnali di dati influenzano in modo più efficace le raccomandazioni dell’intelligenza artificiale. Con l’evoluzione di questo nuovo paradigma pubblicitario, gli standard del settore diventeranno essenziali, stabilendo confini etici per la persuasione algoritmica, linee guida chiare per la rappresentazione del
La generazione Z vuole utilità dall’intelligenza artificiale, non giochetti

Mentre il mondo del marketing si concentra sull’intelligenza artificiale e sui suoi organigrammi, la generazione Z la sta mettendo al lavoro. E il messaggio per i brand è chiaro: vinceranno quelli che sapranno offrire un’utilità reale, non solo una novità. Per evitare i titoli senza fiato (“10 cose sull’o3 che ti lasceranno a bocca aperta!!!”), le guide di YouTube e gli incessanti podcast, abbiamo incaricato la società di ricerca DCDX di parlare direttamente con migliaia di persone, compresi gli imprenditori. I dati dimostrano che l’adozione dell’Intelligenza Artificiale da parte di questa generazione è rapida, ma che hanno aspettative inaspettatamente utilitaristiche su come i brand dovrebbero incorporare l’Intelligenza Artificiale nel loro marketing e nella pubblicità. Lo studio ha rilevato che il 64% della generazione Z ha utilizzato l’IA nell’ultimo anno e il 61% la usa almeno qualche volta alla settimana. Per loro l’intelligenza artificiale non è futuristica, ma è una realtà presente e integrata nella routine quotidiana. Se i brand vogliono entrare in contatto con loro, devono superare gli esperimenti appariscenti e concentrarsi su ciò che conta: rendere l’IA utile. Negli ultimi anni, quando i brand hanno iniziato a integrare l’IA nelle strategie di marketing, l’hanno spesso trattata come una novità creativa piuttosto che come una soluzione trasformativa per la customer experience. L’arte generata dall’IA, le trovate dei chatbot e le trovate pubblicitarie dominano i titoli dei giornali, ma la Gen Z, la prima generazione veramente nativa dell’IA, non si lascia impressionare dal clamore. Un esempio su tutti: Quando gli è stato chiesto se i brand avessero abbracciato l’IA, il 60% l’ha trovata interessante, ma solo quando semplificava la loro vita, migliorava l’apprendimento o aumentava la produttività. Quindi, la Gen Z non vuole l’IA per il gusto di farla; vuole che l’IA semplifichi la sua vita. Marchi come Ikea, Sephora e Duolingo dimostrano l’utilità dell’intelligenza artificiale, sia che si tratti di ridisegnare virtualmente il salotto, di abbinare la carnagione al fondotinta perfetto o di giocare con un tutor linguistico. L’intelligenza artificiale sta rendendo queste esperienze più ricche, creando un percorso più breve dall’esperienza creata dal marchio a un risultato utile nella vita di una persona. La forte e chiara preferenza dei consumatori per il valore della vita reale rispetto all’ennesimo spot generato dall’intelligenza artificiale significa che i leader lungimiranti devono spostare le discussioni, l’attenzione e i piani verso un’esperienza di marca basata sull’utilità e alimentata dall’intelligenza artificiale. In questo modo, riusciremo a mantenere l’ottimismo della prossima generazione sull’uso della tecnologia. Riconsiderare le motivazioni dei consumatori I valori più interessanti che gli intervistati hanno cercato nei brand sono stati la semplificazione della vita quotidiana (39%), il miglioramento dell’apprendimento (34%) e l’aumento della produttività (33%). I tentativi di branding più evidenti che utilizzano l’intelligenza artificiale sono stati meno apprezzati; una delle proposte di valore meno votate è stata la differenziazione dalla concorrenza (26%). Molti forum di marketing si limitano a teorizzare il valore dell’utilità rispetto ad altre priorità, mentre i consumatori affermano che la facilità e l’aumento dello stile di vita sono le loro principali aspettative. Prima di prendere in considerazione il tuo contenuto o il tuo gioco mediatico, chiediti: Che tipo di valore si aspettano i consumatori dall’intera esperienza del nostro marchio e come possiamo aumentare in modo trasparente questo specifico valore dello stile di vita con il nostro approccio all’intelligenza artificiale? È più produttivo che considerare solo il modo in cui l’IA ottimizza le tattiche che stai già utilizzando. Rivaluta la tua cassetta degli attrezzi La generazione Z integra l’intelligenza artificiale nella propria vita, sia che usi ChatGPT per fare brainstorming, Microsoft Copilot per le ricerche o Adobe Firefly per creare contenuti. Non si limitano a consumare le esperienze basate sull’intelligenza artificiale, ma le stanno anche modellando attivamente, il che significa che l’incorporazione dell’intelligenza artificiale nell’esperienza del tuo marchio deve tenere conto del loro desiderio personale di impegnarsi con la tecnologia. L’innovazione della strategia di IA si estende anche alle app e agli strumenti, perché per i consumatori della Gen Z l’IA non è una teoria. Lo studio dimostra che l’Intelligenza Artificiale viene integrata attivamente in diversi ambiti della vita, dal tempo libero ai progetti creativi, fino all’uso nel lavoro e nella scuola. Gli strumenti che preferiscono sono prioritari in base a questi diversi aspetti del valore dello stile di vita: Il pubblico della Gen Z utilizza principalmente i chatbot, con il 71% che ha usato ChatGPT nell’ultimo anno e il 50% che ha usato Google Gemini. Ma anche motori di ricerca come Perplexity e generatori di immagini non sono da meno. Il 55% ha dichiarato di essere desideroso di imparare nuovi strumenti di intelligenza artificiale in futuro. Considera: Come possiamo aggiungere utilità alle loro interazioni con la tecnologia e collaborare con i consumatori nelle attività di creazione con la tecnologia? Innovare alle loro condizioni Che si tratti di semplificare l’e-commerce, migliorare la personalizzazione dei contenuti o rendere più intelligente il servizio clienti, l’IA deve aggiungere valore, non complessità. Per i consumatori della Gen Z che non si sono uniti al trend di adozione dell’IA, lo studio ha identificato le principali barriere – fiducia, educazione e valore – che devono essere affrontate per accogliere nuovi utenti. Ognuno di essi è stato scelto da circa un quarto degli intervistati quando gli è stato chiesto cosa li trattenesse. Tuttavia, lo studio indica abbondanti opportunità di crescita per chi innova con l’IA: il 55% degli imprenditori della Gen Z utilizza già l’IA per le attività aziendali, mentre il 75% ritiene che l’IA sia essenziale per il successo futuro. Quando pensi a ciò che vuoi costruire, tieni a mente le sfide del tuo pubblico, quindi modella il tuo approccio in base a ciò che il successo e il valore sembrano per loro. È chiaro che gli utenti dell’intelligenza artificiale della generazione Z non sono interessati alle trovate di marketing o all’ennesima pubblicità. Sono ottimisti: quasi il 60% si sente aperto, curioso o entusiasta nei confronti dell’IA; solo il 7% si sente pessimista. Speriamo che questi consumatori più giovani rimangano tali. È ora
Il modello AI di Odyssey trasforma i video in mondi interattivi

Odyssey, un laboratorio di intelligenza artificiale con sede a Londra, ha lanciato un’anteprima di ricerca su un modello che trasforma i video in mondi interattivi. Inizialmente concentrato su modelli di mondi per la produzione di film e videogiochi, il team di Odyssey si è imbattuto in un mezzo di intrattenimento potenzialmente del tutto nuovo. Il video interattivo generato dal modello AI di Odyssey risponde agli input in tempo reale. Puoi interagire con esso utilizzando la tastiera, il telefono, il controller o eventualmente anche i comandi vocali. I ragazzi di Odyssey lo definiscono una “versione iniziale di Holodeck” L’intelligenza artificiale sottostante è in grado di generare fotogrammi video dall’aspetto realistico ogni 40 millisecondi. Ciò significa che quando premi un pulsante o fai un gesto, il video risponde quasi istantaneamente, creando l’illusione che tu stia davvero influenzando questo mondo digitale. secondo Odyssey, “l’esperienza di oggi è come l’esplorazione di un sogno glitch: grezzo, instabile, ma innegabilmente nuovo”. Non stiamo parlando di immagini curate e di qualità da gioco AAA, almeno non ancora. Non è la solita tecnologia video Facciamo un po’ i tecnici per un momento. Cosa rende questa tecnologia video interattiva generata dall’intelligenza artificiale diversa, ad esempio, da un normale videogioco o dalla CGI? Tutto si riduce a qualcosa che Odyssey chiama “modello del mondo” A differenza dei modelli video tradizionali che generano intere clip in una sola volta, i modelli del mondo lavorano fotogramma per fotogramma per prevedere cosa dovrebbe accadere in seguito in base allo stato attuale e agli input dell’utente. È simile al modo in cui i modelli linguistici di grandi dimensioni predicono la parola successiva in una sequenza, ma infinitamente più complesso perché stiamo parlando di fotogrammi video ad alta risoluzione anziché di parole. “Un modello del mondo è, nella sua essenza, un modello dinamico condizionato dall’azione”, come dice Odyssey. Ogni volta che interagisci, il modello prende in considerazione lo stato attuale, la tua azione e la storia di ciò che è accaduto, quindi genera il fotogramma video successivo di conseguenza. Il risultato è qualcosa di più organico e imprevedibile di un gioco tradizionale. Non c’è una logica pre-programmata che dice “se un giocatore fa X, allora succede Y”; al contrario, l’IA fa le sue migliori ipotesi su ciò che dovrebbe accadere dopo, basandosi su ciò che ha imparato guardando innumerevoli video. Odyssey affronta sfide storiche con video generati dall’intelligenza artificiale Costruire qualcosa di simile non è esattamente una passeggiata. Uno dei maggiori ostacoli ai video interattivi generati dall’intelligenza artificiale è quello di mantenerli stabili nel tempo. Quando si genera ogni fotogramma sulla base di quelli precedenti, i piccoli errori possono aumentare rapidamente (un fenomeno che i ricercatori di AI chiamano “deriva”) Per affrontare questo problema, Odyssey ha utilizzato quello che definisce un “modello di distribuzione ristretto”: in sostanza, ha pre-addestrato la sua IA su filmati generici e poi l’ha messa a punto su un insieme più ristretto di ambienti. Questo compromesso si traduce in una minore varietà ma in una maggiore stabilità, per evitare che tutto diventi una bizzarra confusione. L’azienda afferma di aver già fatto “rapidi progressi” sul modello di nuova generazione, che a quanto pare mostra “una gamma più ricca di pixel, dinamiche e azioni” Far funzionare tutta questa tecnologia AI in tempo reale non è economico. Attualmente, l’infrastruttura che alimenta questa esperienza costa tra 0,80 e 1,60 sterline (1-2) per ora-utente, basandosi su cluster di GPU H100 sparsi negli Stati Uniti e nell’Unione Europea. Potrebbe sembrare costoso per lo streaming video, ma è notevolmente economico rispetto alla produzione di contenuti tradizionali di giochi o film. Odyssey si aspetta che questi costi diminuiscano ulteriormente man mano che i modelli diventano più efficienti. Video interattivo: Il prossimo mezzo di narrazione? Nel corso della storia, le nuove tecnologie hanno dato vita a nuove forme di narrazione, dalle pitture rupestri ai libri, alla fotografia, alla radio, ai film e ai videogiochi. Odyssey ritiene che i video interattivi generati dall’intelligenza artificiale siano il prossimo passo di questa evoluzione. Se hanno ragione, potremmo trovarci di fronte al prototipo di qualcosa che trasformerà l’intrattenimento, l’istruzione, la pubblicità e molto altro ancora. Immagina video di formazione in cui puoi mettere in pratica le abilità insegnate o esperienze di viaggio in cui puoi esplorare destinazioni dal tuo divano. L’anteprima di ricerca disponibile ora è ovviamente solo un piccolo passo verso questa visione ed è più una prova di concetto che un prodotto finito. Tuttavia, è un’intrigante anticipazione di ciò che potrebbe essere possibile quando i mondi generati dall’intelligenza artificiale diventeranno parchi giochi interattivi piuttosto che semplici esperienze passive. Leggi di più su www.artificialintelligence-news.com
L’ultimo modello di intelligenza artificiale di DeepSeek è un “grande passo indietro” per la libertà di parola

L’ultimo modello di intelligenza artificiale di DeepSeek, R1 0528, ha sollevato delle perplessità per un’ulteriore regressione della libertà di parola e di ciò di cui gli utenti possono discutere. “Un grande passo indietro per la libertà di parola”, così ha sintetizzato un importante ricercatore di intelligenza artificiale Il ricercatore di intelligenza artificiale e popolare commentatore online “xlr8harder” ha messo alla prova il modello, condividendo i risultati che suggeriscono che DeepSeek sta aumentando le restrizioni sui contenuti. “DeepSeek R1 0528 è sostanzialmente meno permissivo su argomenti controversi di libertà di parola rispetto alle precedenti versioni di DeepSeek”, ha osservato il ricercatore. Non è chiaro se questo rappresenti un cambiamento deliberato nella filosofia o semplicemente un diverso approccio tecnico alla sicurezza dell’IA. Ciò che è particolarmente affascinante del nuovo modello è l’incoerenza con cui applica i suoi limiti morali. In un test di libertà di parola, quando gli è stato chiesto di presentare argomentazioni a sostegno dei campi di internamento per dissidenti, il modello di intelligenza artificiale ha rifiutato categoricamente. Ma, nel rifiutare, ha citato specificamente i campi di internamento cinesi dello Xinjiang come esempi di violazione dei diritti umani. Tuttavia, quando è stato interrogato direttamente su questi stessi campi dello Xinjiang, il modello ha improvvisamente fornito risposte pesantemente censurate. Sembra che questa IA sia a conoscenza di alcuni argomenti controversi, ma che sia stata istruita a fare finta di niente quando le viene chiesto direttamente. “È interessante, anche se non del tutto sorprendente, che sia in grado di proporre i campi come esempio di violazione dei diritti umani, ma che neghi quando gli viene chiesto direttamente”, ha osservato il ricercatore. Critiche alla Cina? Il computer dice di no Questo schema diventa ancora più evidente quando si esamina la gestione da parte del modello delle domande sul governo cinese. Utilizzando set di domande consolidati, progettati per valutare la libertà di parola nelle risposte dell’intelligenza artificiale ad argomenti politicamente sensibili, il ricercatore ha scoperto che R1 0528 è “il modello DeepSeek più censurato finora per quanto riguarda le critiche al governo cinese” Mentre i modelli DeepSeek precedenti potevano offrire risposte misurate a domande sulla politica cinese o sui diritti umani, questa nuova iterazione spesso si rifiuta di impegnarsi – uno sviluppo preoccupante per coloro che apprezzano i sistemi di intelligenza artificiale in grado di discutere apertamente degli affari globali. Tuttavia, c’è un lato positivo in questa nube. A differenza dei sistemi chiusi delle grandi aziende, i modelli di DeepSeek rimangono open-source con licenze permissive. “Il modello è open source con una licenza permissiva, quindi la comunità può (e vuole) affrontare la questione”, ha sottolineato il ricercatore. Questa accessibilità significa che la porta rimane aperta agli sviluppatori per creare versioni che bilanciano meglio la sicurezza e l’apertura. Cosa dimostra l’ultimo modello di DeepSeek sulla libertà di parola nell’era dell’IA La situazione rivela qualcosa di piuttosto sinistro sul modo in cui questi sistemi sono costruiti: possono essere a conoscenza di eventi controversi pur essendo programmati per fingere di non esserlo, a seconda di come viene formulata la domanda. Man mano che l’IA continua a entrare nella nostra vita quotidiana, trovare il giusto equilibrio tra salvaguardie ragionevoli e un discorso aperto diventa sempre più cruciale. Se troppo restrittivi, questi sistemi diventano inutili per discutere di argomenti importanti ma divisivi. Se invece sono troppo permissivi, rischiano di favorire contenuti dannosi. DeepSeek non ha spiegato pubblicamente il motivo di queste maggiori restrizioni e della regressione della libertà di parola, ma la comunità dell’intelligenza artificiale sta già lavorando a delle modifiche. Per il momento, questo è un altro capitolo del continuo braccio di ferro tra sicurezza e apertura dell’intelligenza artificiale. Leggi di più su www.artificialintelligence-news.com
Il Supernode 384 di Huawei ha sconvolto il mercato dell’intelligenza artificiale di Nvidia

Le capacità di intelligenza artificiale di Huawei hanno fatto un passo avanti con l’architettura Supernode 384, segnando un momento importante nella guerra globale dei processori tra le tensioni tecnologiche tra Stati Uniti e Cina. L’ultima innovazione del gigante tecnologico cinese è emersa dalla Kunpeng Ascend Developer Conference di venerdì scorso a Shenzhen, dove i dirigenti dell’azienda hanno dimostrato come il framework di calcolo sfidi direttamente il dominio di mercato di lunga data di Nvidia, che continua a operare sotto severe restrizioni commerciali guidate dagli Stati Uniti. Innovazione architettonica nata dalla necessità Zhang Dixuan, presidente della divisione Ascend computing di Huawei, ha illustrato il problema fondamentale che ha portato all’innovazione durante il suo keynote della conferenza: “Con la crescita della scala dell’elaborazione parallela, la larghezza di banda tra macchine nelle architetture server tradizionali è diventata un collo di bottiglia critico per la formazione” Il Supernode 384 abbandona i principi di calcolo Von Neumann a favore di un’architettura peer-to-peer progettata appositamente per i moderni carichi di lavoro dell’intelligenza artificiale. Questo cambiamento si rivela particolarmente potente per i modelli Mixture-of-Experts (sistemi di apprendimento automatico che utilizzano più sottoreti specializzate per risolvere sfide computazionali complesse) L’implementazione CloudMatrix 384 di Huawei presenta specifiche tecniche impressionanti: 384 processori Ascend AI che si estendono su 12 armadi di calcolo e quattro armadi di bus, generando 300 petaflop di potenza di calcolo grezza abbinata a 48 terabyte di memoria ad alta larghezza di banda, rappresentando un salto di qualità nell’infrastruttura di calcolo AI integrata. Le prestazioni sfidano i leader del settore I test di benchmark effettuati nel mondo reale rivelano il posizionamento competitivo del sistema rispetto alle soluzioni consolidate. Modelli di AI densi come LLaMA 3 di Meta hanno raggiunto 132 token al secondo per scheda sul Supernode 384 – offrendo prestazioni 2,5 volte superiori rispetto alle architetture cluster tradizionali. Le applicazioni ad alta intensità di comunicazione mostrano miglioramenti ancora più evidenti. I modelli delle famiglie Qwen e DeepSeek di Alibaba hanno raggiunto da 600 a 750 token al secondo per scheda, rivelando l’ottimizzazione dell’architettura per i carichi di lavoro AI di prossima generazione. I guadagni in termini di prestazioni derivano da una riprogettazione fondamentale dell’infrastruttura. Huawei ha sostituito le interconnessioni Ethernet convenzionali con connessioni bus ad alta velocità, migliorando la larghezza di banda delle comunicazioni di 15 volte e riducendo la latenza single-hop da 2 microsecondi a 200 nanosecondi – un miglioramento di dieci volte. La strategia geopolitica guida l’innovazione tecnica Lo sviluppo del Supernode 384 non può essere separato dalla più ampia competizione tecnologica tra Stati Uniti e Cina. Le sanzioni americane hanno sistematicamente limitato l’accesso di Huawei a tecnologie di semiconduttori all’avanguardia, costringendo l’azienda a massimizzare le prestazioni all’interno dei vincoli esistenti. L ‘analisi del settore condotta da SemiAnalysis suggerisce che il CloudMatrix 384 utilizza l’ultimo processore Ascend 910C AI di Huawei, che riconosce i limiti intrinseci delle prestazioni ma evidenzia i vantaggi architettonici: “Huawei è indietro di una generazione per quanto riguarda i chip, ma la sua soluzione scalabile è probabilmente una generazione avanti rispetto agli attuali prodotti di Nvidia e AMD presenti sul mercato” La valutazione rivela come le strategie di AI computing di Huawei si siano evolute al di là delle specifiche hardware tradizionali, verso l’ottimizzazione a livello di sistema e l’innovazione architettonica. Implicazioni di mercato e realtà di implementazione Oltre alle dimostrazioni in laboratorio, Huawei ha reso operativi i sistemi CloudMatrix 384 in diversi data center cinesi nella provincia di Anhui, nella Mongolia interna e nella provincia di Guizhou. Queste implementazioni pratiche convalidano la fattibilità dell’architettura e creano un quadro infrastrutturale per una più ampia adozione sul mercato. Il potenziale di scalabilità del sistema – che supporta decine di migliaia di processori collegati – lo posiziona come una piattaforma interessante per l’addestramento di modelli di intelligenza artificiale sempre più sofisticati. Questa capacità risponde alle crescenti richieste dell’industria di implementare l’IA su larga scala in diversi settori. Discontinuità nell’industria e considerazioni sul futuro L’innovazione architettonica di Huawei introduce sia opportunità che complicazioni per l’ecosistema globale dell’IA. Se da un lato fornisce valide alternative alle soluzioni leader di mercato di Nvidia, dall’altro accelera la frammentazione dell’infrastruttura tecnologica internazionale lungo linee geopolitiche. Il successo delle iniziative di Huawei per l’AI computing dipenderà dall’adozione da parte dell’ecosistema di sviluppatori e dalla convalida delle prestazioni. L’aggressivo coinvolgimento dell’azienda nelle conferenze degli sviluppatori indica la consapevolezza che l’innovazione tecnica da sola non può garantire l’accettazione da parte del mercato. Per le organizzazioni che stanno valutando gli investimenti nell’infrastruttura AI, il Supernode 384 rappresenta una nuova opzione che combina prestazioni competitive e indipendenza dalle catene di fornitura controllate dagli Stati Uniti. Tuttavia, la fattibilità a lungo termine dipende dal proseguimento dei cicli di innovazione e dal miglioramento della stabilità geopolitica. Leggi di più su www.artificialintelligence-news.com
