La Gen AI non fa alcuna differenza economica nel 95% dei casi, se non sai come usarla

I titoli delle aziende statunitensi che si occupano di tecnologia AI sono scesi di valore alla chiusura delle contrattazioni di ieri, con l’indice NASDAQ Composite in calo dell’1,4%. Tra i titoli che hanno perso valore ci sono Palantir, in calo del 9,4% e Arm Holdings in calo del 5%. Secondo il Financial Times [paywall], martedì si è registrato il più grande calo di un giorno nel mercato dall’inizio di agosto. Alcuni trader attribuiscono il calo a un rapporto pubblicato [PDF] da una società di AI, NANDA, che ha rilevato l’alto tasso di fallimento di molti progetti di AI generativa nelle organizzazioni commerciali. Il progetto NANDA è nato presso il Media Lab del Massachusetts Institute of Technology e si descrive come un’organizzazione che sta costruendo una “rete agenziale” Il documento, dopo la pubblicazione, è stato messo dietro un muro di indagine, ma è disponibile per il download da questo sito. Gli autori della ricerca affermano che solo il 5% dei progetti pilota di intelligenza artificiale raggiunge la produzione e produce effettivamente un valore monetario misurabile, mentre la stragrande maggioranza dei progetti ha un impatto minimo sulle metriche di profitto e perdita. La ricerca intrapresa da NANDA comprende il contenuto di 52 interviste strutturate a responsabili decisionali aziendali, l’analisi da parte dei ricercatori di 300 iniziative e annunci pubblici sull’IA e un questionario di indagine compilato da 153 leader aziendali. L’indagine ha misurato il ritorno sull’investimento nei sei mesi successivi all’uscita dei progetti di IA dallo stato di pilota. Mentre molte organizzazioni implementano l’IA nelle funzioni aziendali di front-office o rivolte ai clienti, i progetti di successo tendono a trovarsi nei flussi di lavoro di back-office, si legge nel documento. È nelle attività banali del back-office che si registrano i risparmi, in gran parte dovuti a una minore necessità di agenzie di terze parti e BPO. L’indagine ha rilevato che i progetti di IA hanno avuto un impatto limitato sui livelli complessivi del personale interno. Sebbene il 90% del personale abbia dichiarato di aver tratto benefici personali dall’utilizzo di IA disponibili pubblicamente, in genere sotto forma di modelli linguistici di grandi dimensioni come ChatGPT, questi vantaggi soggettivi non si traducono a livello istituzionale. Circa il 40% delle aziende intervistate paga un abbonamento ai LLM. Molti dei titolari dei progetti falliti hanno citato la mancanza di consapevolezza contestuale dei modelli di IA generativa, ovvero la capacità di adattarsi alle circostanze, di cambiare nel tempo e di ricordare le richieste precedenti. NANDA afferma che la creazione di una partnership con un’organizzazione in grado di fornire un sistema di questo tipo e di garantire che si adatti alle circostanze specifiche di un’organizzazione è l’elemento critico per il successo. Il documento evidenzia diverse citazioni “derivate dalle interviste” che includono il 60%-70% di accordo con le affermazioni: “Il sistema di intelligenza artificiale non impara dai nostri feedback” e “È necessario un contesto troppo manuale ogni volta” Il settore più influenzato positivamente dall’intelligenza artificiale è quello dei media e delle telecomunicazioni, seguito dai servizi professionali, dalla sanità e dalla farmaceutica, dal settore dei beni di consumo e della vendita al dettaglio e dai servizi finanziari. Secondo il documento, il tasso di lancio di progetti di IA generativa nel settore dell’energia e dei materiali è attualmente trascurabile. In termini di unità aziendali, il settore vendite e marketing è quello in cui si concentra la maggior parte dei progetti, mentre il settore finanziario e degli approvvigionamenti è il meno gettonato come luogo in cui avviare progetti di IA. L’area di un’organizzazione tipica in cui l’IA generativa viene impiegata maggiormente è quella delle vendite e del marketing, mentre la finanza e gli approvvigionamenti sono i luoghi meno popolari. Inoltre, i compiti complessi sono quelli che meno ci si aspetta vengano portati a termine dall’IA; i manager assegnerebbero progetti come la gestione dei clienti a un’IA solo nel 10% dei casi, mentre compiti come la sintesi di un report o la scrittura di un’e-mail verrebbero affidati a un umano nel 70% dei casi. Il linguaggio del rapporto pubblicato e la sua mancanza di rigore accademico suggeriscono che la sua provenienza e il suo scopo sono più simili al marketing che alla discussione intellettuale e tecnologica. Gli autori del documento invitano a stringere partnership strategiche con un fornitore competente per aumentare le possibilità di successo dei progetti di IA generativa, una partnership di cui NANDA, per pura coincidenza, è in grado di costituire una metà. Nelle conclusioni del documento si legge che esistono “opportunità senza precedenti per i fornitori in grado di fornire sistemi di IA profondamente integrati e capaci di apprendere”. I titoli del rapporto NANDA sono una lettura preoccupante per i decisori incaricati di implementare l’IA generativa, ma i messaggi di fondo del documento sono indeboliti dalle intenzioni alla base della sua pubblicazione. I prezzi delle azioni di questa settimana potrebbero essere stati influenzati da sondaggi di parte di autori con evidenti interessi in gioco, ma sembra più probabile che la pubblicazione di NANDA rifletta semplicemente le preoccupazioni dei negozianti sull’efficacia pratica dell’IA generativa come strumento di business. (Fonte immagine: “Arthur Daley” di Tim Dennell con licenza CC BY-NC-ND 2.0) Leggi di più su www.artificialintelligence-news.com
La mascotte generata dall’intelligenza artificiale di Fiverr è costruita per essere il “sacco da boxe di Internet”

Chiamala tradizione o abitudine, ma la cultura pop ha una lunga tradizione di amore o odio per i personaggi pubblicitari. Da Flo di Progressive all’uomo di Verizon fino all’uomo più interessante del mondo di Dos Equis, decenni di mascotte sono cresciute e cadute per mano del pubblico. L’ultima campagna di Fiverr mette un personaggio generato dall’intelligenza artificiale al centro di una nuova dinamica di amore-odio per il marchio. Il mercato dei freelance presenta Garry, che si ritrova involontariamente in varie calamità a causa del suo scetticismo nei confronti dell’IA. Creato con piattaforme video di AI generativa, tra cui Veo3 e Runway di Google, lo spot di 90 secondi ritrae Garry in scenari slapstick come un uccello che fa la cacca sulla sua auto, la moglie che lo lascia per un uomo vestito da hot dog e un uomo incastrato fino alla vita nel cemento. Altre scene fanno riferimento a recenti momenti virali come i meme misogini che affliggono le partite della WNBA e la sfida con i tacchi a spillo di Nicki Minaj su TikTok. “Sfrutteremo Garry come una sorta di sacco da boxe per internet”, ha dichiarato Matti Yahav, Chief Marketing Officer (CMO) di Fiverr, ad ADWEEK. Oltre all’annuncio del protagonista, il marchio invita le persone a inviare idee per le scene in cui Garry potrebbe apparire, offrendo di generarne una nuova per ogni 5.000 commenti che il video riceve su ogni piattaforma. Ad esempio, dopo la reunion di Love Island USA del 25 agosto, Garry sarà protagonista di una vignetta a tema villa. L’obiettivo del marchio è quello di mostrare gli strumenti dell’AI in tempo reale e di entrare nelle conversazioni culturali. “Volevamo trasmettere in questo video un’energia ad alta velocità e mostrare molte scene per creare la sensazione che sia incredibile ciò che abbiamo creato con l’IA”, ha detto Yahav. Una sfida alle agenzie Realizzata dal team creativo interno di Fiverr e da due registi freelance, Noam Sharon e Tal Rosenthal, la campagna prende di mira le agenzie di marketing tradizionali per promuovere la piattaforma di Fiverr come luogo in cui trovare talenti emergenti in grado di utilizzare l’intelligenza artificiale. Sharon e Rosenthal sono anche le menti creative dietro la recente pubblicità virale generata dall’intelligenza artificiale per Liquid Death. Fiverr non ha trovato Sharon e Rosenthal sulla sua piattaforma, ma il team si è poi iscritto, ha detto Yahav. L’utilizzo dell’intelligenza artificiale ha fatto risparmiare a Fiverr, secondo Yahav, che ha dichiarato che l’azienda ha speso circa il 10% del suo tipico budget di produzione per questo tipo di campagna. ” In genere avrei dovuto unire le forze con un’agenzia e una casa di produzione e investire centinaia di migliaia di dollari”, ha detto Yahav. “Come grande cliente sarei in grado di farlo rivolgendomi alle grandi agenzie, ma la maggior parte [delle piccole e medie imprese] ovviamente non ha la possibilità di farlo”
DeepSeek: La startup cinese che sfida la Silicon Valley

Il lancio della startup cinese DeepSeek ha provocato sconvolgimenti nel mercato e scosse nella Silicon Valley, mettendo in discussione alcuni dei presupposti fondamentali del funzionamento e della scalabilità delle aziende di intelligenza artificiale. In meno di un paio d’anni, la nuova azienda con sede a Pechino ha realizzato ciò che molti ritenevano impossibile: creare modelli di intelligenza artificiale in grado di competere con i giganti del settore, spendendo solo una frazione del budget dei concorrenti per insegnare ai modelli e dedurre le risposte. L’impatto al momento del lancio pubblico è stato immediato e misurabile. Secondo il South China Morning Post, i principali titoli tecnologici, tra cui Nvidia, Microsoft e Meta, hanno registrato cali significativi mentre gli investitori erano alle prese con le implicazioni dell’esistenza di DeepSeek. L’applicazione gratuita di assistente AI della startup per iOS e Android, lanciata il 10 gennaio, ha rapidamente scalato la vetta dell’App Store statunitense di Apple, scalzando ChatGPT di OpenAI e segnando una prima storica per un prodotto AI cinese nel mercato americano. L’aspetto particolarmente significativo è l’approccio tecnologico di DeepSeek. The Algorithmic Bridge riporta che l’azienda ha implementato diverse soluzioni innovative, tra cui la Multi-head Latent Attention (MLA) per ridurre i colli di bottiglia della memoria e la Group Relative Policy Optimisation (GRPO) per ottimizzare l’apprendimento per rinforzo. Questi progressi consentono a DeepSeek di ottenere risultati paragonabili o superiori a quelli dei concorrenti statunitensi utilizzando un numero di risorse significativamente inferiore. L’efficienza delle risorse dell’azienda è sorprendente: DeepSeek opera con meno di 100.000 GPU H100, mentre Meta impiegherà 1,3 milioni di GPU entro la fine del 2025. L’efficienza va oltre l’hardware. The Algorithmic Bridge suggerisce che l’approccio di DeepSeek rappresenta un miglioramento di dieci volte nell’utilizzo delle risorse se si considerano fattori come il tempo di sviluppo e i costi dell’infrastruttura. Tuttavia, la rapida ascesa nella coscienza degli utenti occidentali non è stata priva di difficoltà. Il South China Morning Post ha riportato che l’improvvisa popolarità di DeepSeek ha comportato un notevole stress infrastrutturale, con conseguenti crash dei server e problemi di cybersicurezza che hanno costretto a limitare temporaneamente le registrazioni. I problemi di crescita evidenziano le sfide del mondo reale legate alla scalabilità dei servizi di intelligenza artificiale, indipendentemente dall’efficienza dell’architettura. L’impegno dell’azienda per lo sviluppo open-source e la trasparenza della ricerca contrasta nettamente con gli approcci riservati delle principali aziende tecnologiche statunitensi. Per molti osservatori del settore, l’IA aperta e ospitata localmente potrebbe essere il modello di distribuzione preferito. L’azienda si è guadagnata le lodi di figure di spicco dell’industria tecnologica, tra cui il venture capitalist Marc Andreessen, che ha descritto gli sviluppi di DeepSeek come “una delle scoperte più sorprendenti e impressionanti” Le implicazioni politiche di questi eventi sono significative. Il Presidente degli Stati Uniti Donald Trump ha definito la nascita di DeepSeek come un “campanello d’allarme” per l’industria americana, riflettendo le preoccupazioni più ampie sulla concorrenza tecnologica tra Stati Uniti e Cina. Egli continua a combattere la concorrenza cinese nel campo della tecnologia, imponendo tariffe restrittive che hanno colpito ogni angolo del mondo. Tuttavia, la situazione trascende la semplice rivalità nazionale e rappresenta una sfida fondamentale per il pensiero consolidato sullo sviluppo dell’IA. In prospettiva, rimangono diverse domande chiave. L’approccio efficiente di DeepSeek è in grado di soddisfare la crescente domanda? Gli operatori già affermati hanno adattato le loro strategie per rispondere in modo efficace? L’azienda cinese ha dimostrato che l’efficienza algoritmica e la collaborazione aperta possono sostituire la potenza di calcolo grezza e la segretezza come motori principali del progresso dell’IA. L’interruzione del mercato dell’IA potrebbe in ultima analisi giovare all’intero settore, costringendo a rivalutare le pratiche consolidate e portando potenzialmente a metodi di sviluppo dell’IA più efficienti e accessibili. Sebbene i risultati ottenuti da DeepSeek siano notevoli da quando è diventata di dominio pubblico, è importante notare che le principali aziende tecnologiche statunitensi hanno rilasciato i propri progressi e che la volatilità del mercato nel settore tecnologico rimane elevata. Ciò che è chiaro è che DeepSeek ha introdotto una valida alternativa all’approccio ad alta intensità di capitale che ha dominato lo sviluppo dell’IA. Resta da vedere se questa diventerà il nuovo standard del settore o semplicemente una delle tante strategie di successo, ma l’impatto dell’azienda sul settore è già significativo. Foto di Markus Spiske) Leggi di più su www.artificialintelligence-news.com
Google sta usando silenziosamente Gemini AI per eliminare le frodi pubblicitarie e il traffico non valido

Nell’ultimo anno e mezzo, i ricercatori di Google hanno sperimentato metodi per combattere il traffico non valido – l’attività pubblicitaria che non è generata da un vero essere umano interessato, ma da bot, click accidentali o operazioni di click fraud – utilizzando strumenti di machine learning e AI, ha dichiarato l’azienda ad ADWEEK. Gli sforzi compiuti, ha dichiarato Google, hanno portato a una sostanziale riduzione del traffico non valido, o IVT, dalla fine del 2023. La divisione dell’azienda che si occupa della qualità del traffico pubblicitario sta lavorando con gli esperti di Google Research e Google DeepMind per implementare modelli linguistici multimodali di grandi dimensioni progettati per navigare nei siti web e nelle app mobili in modo da imitare il comportamento degli utenti umani, ha dichiarato l’azienda. La tecnologia è in grado di comprendere le funzioni di un’app o di un sito web, di interagire con gli strumenti di navigazione, di osservare gli annunci, di scattare screenshot e di identificare gli annunci ingannevoli o di disturbo esaminando le istruzioni di rendering e identificando quando un pulsante pubblicitario dovrebbe essere visibile e invece non lo è. In combinazione con gli strumenti di apprendimento automatico e con l’elaborazione e l’analisi tradizionale dei dati di backend, il sistema Gemini è in grado di segnalare i clic accidentali, gli annunci nascosti che sono difficili o impossibili da vedere per gli utenti ma che comunque registrano impressioni e gli annunci ingannevoli e fuori contesto che costringono gli utenti a interagire con essi contro la loro volontà. Dopo che gli strumenti di intelligenza artificiale di Google avranno identificato questi tipi di esperienze pubblicitarie, verranno sottoposti a una revisione umana per garantire un’applicazione accurata dei criteri, ha dichiarato l’azienda. Un programma pilota eseguito tra il dicembre 2023 e l’ottobre 2024 ha portato a una riduzione del 40% delle IVT mobili derivanti da quelli che Google chiama annunci “ingannevoli o di disturbo”, che possono includere una serie di annunci nascosti o pop-up inaspettati che violano le sue politiche di posizionamento. Sebbene il processo non sia ancora completamente automatizzato, Google sostiene che il programma pilota ha migliorato la velocità e l’accuratezza dell’applicazione. L’ecosistema degli annunci digitali ha un serio problema di IVT. Nel primo trimestre del 2025, il tasso di traffico IVT globale sul web è stato del 18% e sulle app mobili del 31%, secondo una ricerca condotta da Pixalate che ha valutato oltre 100 miliardi di impressioni programmatiche a livello globale. Attenuare l’IVT può aiutare a proteggere gli inserzionisti, gli editori e gli utenti, ha dichiarato ad ADWEEK Per Bjorke, direttore del product management di Google per la qualità del traffico pubblicitario. “Se tu [come inserzionista] spendi 100.000 dollari e 10.000 dollari vanno a finire nel traffico non valido, sono 10.000 dollari sprecati che avresti potuto spendere per acquisire effettivamente utenti”, ha detto Bjorke. “È un problema anche per i buoni editori, perché ogni dollaro pagato ai cattivi attori è un dollaro che sarebbe dovuto andare a un buon editore. Mette a rischio l’intero ecosistema pubblicitario” Anche gli utenti finali possono essere colpiti negativamente dall’IVT, ha detto, indicando un reclamo ricevuto da Google in merito al tentativo di un utente di comporre il 911 che è stato interrotto da un annuncio pop-up. Ha inoltre sottolineato che alcune frodi pubblicitarie comportano l’installazione di malware sui dispositivi degli utenti, creando ulteriori rischi per gli utenti comuni. Quest’anno Google ha già combattuto almeno due grandi operazioni di botnet su applicazioni Android. Il mese scorso, il gigante tecnologico ha eliminato 352 app associate a uno schema di frode pubblicitaria che, al suo apice, generava 1,5 miliardi di richieste di offerte giornaliere. A febbraio, l’azienda ha eliminato dal Play Store quasi 200 app coinvolte in un’altra operazione di frode pubblicitaria. A luglio, inoltre, il gigante tecnologico ha annunciato che sta facendo causa a un gruppo di hacker con sede in Cina per una terza operazione di frode che ha infettato più di 10 milioni di dispositivi Android con un malware. Google è fiduciosa che i suoi investimenti nell’intelligenza artificiale continueranno a dimostrarsi efficaci nel mitigare il traffico non valido e le frodi pubblicitarie. “Si tratta sempre di un gioco di tipo avversario, di tipo ‘tit for tat’”, ha detto Bjorke. “Noi facciamo progressi. I cattivi attori cambiano il loro comportamento. Noi facciamo altri progressi. Loro stanno cambiando il loro comportamento” Ma gli strumenti di intelligenza artificiale possono rispondere più rapidamente a questi progressi e catturare più rapidamente i malintenzionati, ha detto. “Non è garantito che sia infallibile per chiunque lo aggiri, ma rispetto all’analisi dei dati è più robusto in questo tipo di casi d’uso” La scorsa settimana, il team di sicurezza degli annunci di Google ha pubblicato un post sul blog in cui affermava di aver ottenuto una riduzione di 10.000 volte della quantità di dati di addestramento dell’intelligenza artificiale necessari per eliminare gli annunci che violano i criteri, suggerendo che le sue tecniche stanno diventando più efficienti. Leggi di più su www.adweek.com
NVIDIA punta a risolvere i problemi dell’intelligenza artificiale con molti linguaggi

Sebbene l’intelligenza artificiale possa sembrare onnipresente, essa opera principalmente in una minima parte delle 7.000 lingue del mondo, lasciando indietro un’enorme porzione della popolazione globale. NVIDIA mira a risolvere questo evidente punto debole, in particolare in Europa. L’azienda ha appena rilasciato una nuova e potente serie di strumenti open-source per dare agli sviluppatori la possibilità di creare un’intelligenza artificiale vocale di alta qualità per 25 lingue europee diverse. Questo include le lingue principali, ma soprattutto offre un’ancora di salvezza a quelle spesso trascurate dalle grandi aziende, come il croato, l’estone e il maltese. L’obiettivo è quello di permettere agli sviluppatori di creare il tipo di strumenti vocali che molti di noi danno per scontati, dai chatbot multilingue che ti capiscono davvero ai bot del servizio clienti e ai servizi di traduzione che funzionano in un batter d’occhio. Il fulcro di questa iniziativa è Granary, un’enorme biblioteca del parlato umano. Contiene circa un milione di ore di audio, tutte curate per aiutare l’intelligenza artificiale a imparare le sfumature del riconoscimento vocale e della traduzione. Per sfruttare questi dati vocali, NVIDIA fornisce anche due nuovi modelli di intelligenza artificiale progettati per le attività linguistiche: Canary-1b-v2, un modello di grandi dimensioni costruito per garantire un’elevata precisione nei lavori di trascrizione e traduzione complessi. Parakeet-tdt-0.6b-v3, progettato per applicazioni in tempo reale in cui la velocità è fondamentale. Se vuoi approfondire la scienza che sta alla base, il documento su Granary sarà presentato alla conferenza Interspeech che si terrà nei Paesi Bassi questo mese. Per gli sviluppatori desiderosi di sporcarsi le mani, il set di dati ed entrambi i modelli sono già disponibili su Hugging Face. La vera magia, tuttavia, sta nel modo in cui questi dati sono stati creati. Sappiamo tutti che l’addestramento dell’intelligenza artificiale richiede grandi quantità di dati, ma ottenerli è di solito un processo lento, costoso e francamente noioso di annotazione umana. Per ovviare a questo problema, il team speech AI di NVIDIA, in collaborazione con i ricercatori della Carnegie Mellon University e della Fondazione Bruno Kessler, ha creato una pipeline automatizzata. Utilizzando il proprio toolkit NeMo, sono riusciti a prendere l’audio grezzo e non etichettato e a trasformarlo in dati strutturati di alta qualità da cui l’intelligenza artificiale può imparare. Non si tratta solo di un risultato tecnico, ma di un enorme passo avanti per l’inclusività digitale. Significa che uno sviluppatore di Riga o Zagabria può finalmente costruire strumenti di intelligenza artificiale alimentati dalla voce che comprendono correttamente le loro lingue locali. E possono farlo in modo più efficiente. Il team di ricerca ha scoperto che i dati di Granary sono così efficaci che per raggiungere un livello di accuratezza prefissato ne serve circa la metà rispetto ad altri set di dati popolari. I due nuovi modelli dimostrano questa potenza. Canary è una vera e propria bestia, in grado di offrire una qualità di traduzione e trascrizione in grado di competere con modelli tre volte più grandi, ma con una velocità fino a dieci volte superiore. Parakeet, invece, è in grado di analizzare la registrazione di una riunione di 24 minuti in un colpo solo, riuscendo a capire automaticamente la lingua parlata. Entrambi i modelli sono abbastanza intelligenti da gestire la punteggiatura, la capitalizzazione e da fornire timestamp a livello di parola, come richiesto per la creazione di applicazioni di livello professionale. Mettendo questi potenti strumenti e le metodologie che li supportano nelle mani della comunità globale degli sviluppatori, NVIDIA non si limita a rilasciare un prodotto. Sta dando il via a una nuova ondata di innovazione, sperando di creare un mondo in cui l’intelligenza artificiale parli la tua lingua, indipendentemente dalla tua provenienza. (Foto di Aedrian Salazar) Leggi di più su www.artificialintelligence-news.com
Anthropic illustra la sua strategia di sicurezza AI

Anthropic ha dettagliato la sua strategia di sicurezza per cercare di mantenere il suo popolare modello di AI, Claude, utile evitando di perpetuare i danni. Al centro di questo sforzo c’è il team Safeguards di Anthropic, che non è il solito gruppo di assistenza tecnica, ma un mix di esperti di policy, data scientist, ingegneri e analisti delle minacce che sanno come pensano i cattivi attori. Tuttavia, l’approccio di Anthropic alla sicurezza non è un singolo muro, ma piuttosto un castello con più livelli di difesa. Tutto inizia con la creazione delle regole giuste e termina con la caccia alle nuove minacce in libertà. La prima è la Politica d’uso, che in pratica è il regolamento per l’utilizzo di Claude. Fornisce indicazioni chiare su questioni importanti come l’integrità delle elezioni e la sicurezza dei bambini, ma anche sull’uso responsabile di Claude in settori sensibili come la finanza o la sanità. Per definire queste regole, il team utilizza un quadro di riferimento unificato per il danno. Questo li aiuta a riflettere sui potenziali impatti negativi, dai danni fisici e psicologici a quelli economici e sociali. Non si tratta di un sistema di classificazione formale, ma di un modo strutturato per valutare i rischi quando si prendono le decisioni. Per i Test di Vulnerabilità delle Politiche, inoltre, si rivolgono a esperti esterni. Questi specialisti in settori come il terrorismo e la sicurezza dei bambini cercano di “rompere” Claude con domande difficili per capire quali sono i punti deboli. Lo abbiamo visto in azione durante le elezioni americane del 2024. Dopo aver collaborato con l’Istituto per il Dialogo Strategico, Anthropic si è resa conto che Claude avrebbe potuto fornire vecchie informazioni di voto. Per questo ha aggiunto un banner che indirizzava gli utenti a TurboVote, una fonte affidabile di informazioni elettorali aggiornate e non di parte. Insegnare a Claude a distinguere il bene dal male Il team di Anthropic Safeguards lavora a stretto contatto con gli sviluppatori che addestrano Claude per garantire la sicurezza fin dall’inizio. Questo significa decidere quali sono le cose che Claude deve o non deve fare e incorporare questi valori nel modello stesso. Inoltre, collaborano con specialisti per ottenere il giusto risultato. Ad esempio, grazie alla collaborazione con ThroughLine, un’associazione di supporto alle crisi, hanno insegnato a Claude come gestire con cura le conversazioni delicate sulla salute mentale e l’autolesionismo, invece di rifiutarsi di parlare. Questo attento addestramento è il motivo per cui Claude rifiuta le richieste di aiuto per attività illegali, la scrittura di codice maligno o la creazione di truffe. Prima che ogni nuova versione di Claude diventi operativa, viene sottoposta a tre tipi di valutazione. Valutazioni di sicurezza: Questi test verificano se Claude rispetta le regole, anche nelle conversazioni più lunghe e complesse. Valutazioni del rischio: Per le aree ad alto rischio, come le minacce informatiche o i rischi biologici, il team esegue test specializzati, spesso con l’aiuto di partner governativi e industriali. Valutazioni dei pregiudizi: Si tratta di una questione di equità. Verificano se Claude fornisce risposte affidabili e accurate per tutti, verificando se ci sono pregiudizi politici o risposte distorte in base a fattori quali il sesso o la razza. Questi test intensivi aiutano il team a capire se la formazione ha funzionato e a capire se è necessario creare ulteriori protezioni prima del lancio. (Credit: Anthropic) La strategia di sicurezza dell’AI di Anthropic che non si addormenta mai Una volta che Claude è in giro per il mondo, un mix di sistemi automatici e revisori umani tiene d’occhio i problemi. Lo strumento principale è costituito da una serie di modelli specializzati di Claude chiamati “classificatori” che vengono addestrati per individuare in tempo reale specifiche violazioni della politica nel momento in cui si verificano. Se un classificatore individua un problema, può attivare diverse azioni. Ad esempio, potrebbe evitare che la risposta di Claude generi qualcosa di dannoso, come lo spam. Per i recidivi, il team potrebbe emettere avvisi o addirittura chiudere l’account. Il team guarda anche al quadro generale. Utilizza strumenti che rispettano la privacy per individuare le tendenze di utilizzo di Claude e impiega tecniche come la sintesi gerarchica per individuare abusi su larga scala, come le campagne di influenza coordinate. Sono costantemente alla ricerca di nuove minacce, scavando tra i dati e monitorando i forum in cui i malintenzionati potrebbero frequentarsi. Tuttavia, Anthropic sa che garantire la sicurezza dell’IA non è un lavoro che può fare da sola. Sta collaborando attivamente con i ricercatori, i politici e il pubblico per costruire le migliori protezioni possibili. (Immagine principale di Nick Fewings) Leggi di più su www.artificialintelligence-news.com
Perplexity, valutata 18 miliardi di dollari, fa un’offerta da 34,5 miliardi di dollari per Google Chrome

La startup di intelligenza artificiale Perplexity ha offerto martedì 34,5 miliardi di dollari per acquistare il browser Chrome di Google, posizionandosi in modo da sfidare il dominio del gigante tecnologico nella ricerca sul web. L’offerta è quasi il doppio della valutazione di Perplexity, pari a 18 miliardi di dollari. L’azienda ha dichiarato al Wall Street Journal di essersi assicurata il sostegno di diversi investitori e di grandi società di venture capital per sostenere interamente la transazione. Le stime del valore aziendale di Chrome variano, con cifre recenti che vanno dai 20 ai 50 miliardi di dollari. Con 4 miliardi di utenti, l’acquisizione di Chrome darebbe a un’unica azienda il controllo di quasi il 67% della navigazione internet globale. Tuttavia, l’acquisto di Chrome comporta diverse complicazioni. L’offerta arriva pochi giorni prima che il giudice Amit Mehta si pronunci sul futuro di Google, costringendo potenzialmente il gigante tecnologico a scorporare il suo prezioso browser nel quadro di una controversia antitrust in corso. L’anno scorso è stato accertato che Google detiene il monopolio nel mercato della ricerca. Perplexity ha segnalato per la prima volta il suo interesse per l’acquisto di Chrome ad aprile, dicendo al tribunale che preferirebbe che Google mantenesse il browser open-source piuttosto che vederlo acquisito da un’azienda come OpenAI, che ha anch’essa espresso interesse. In una lettera all’amministratore delegato Sundar Pichai, Perplexity ha riferito che il suo piano di acquisizione avrebbe preservato e supportato la tecnologia open-source di Chrome, Chromium, insieme ad altri browser, e mantenuto Google come motore di ricerca predefinito, consentendo agli utenti di cambiare tramite le impostazioni. Nel frattempo, Pichai – che ha testimoniato in tribunale all’inizio di quest’anno – ha dichiarato che costringere Google a vendere Chrome o a condividere i suoi dati con i rivali potrebbe danneggiare l’azienda, limitare gli investimenti in nuove tecnologie e creare rischi per la sicurezza. Leggi di più su www.adweek.com
Senza regole, l’intelligenza artificiale rischia una “crisi di fiducia

Il mondo sta correndo verso la diffusione dell’IA, ma una voce di spicco dell’etica tecnologica avverte che dare la priorità alla velocità rispetto alla sicurezza rischia di provocare una “crisi di fiducia” Suvianna Grecu, fondatrice della AI for Change Foundation, sostiene che senza una governance forte e immediata, ci stiamo avviando verso “l’automazione del danno su scala” Parlando dell’integrazione dell’IA nei settori critici, Grecu ritiene che il pericolo etico più pressante non sia la tecnologia in sé, ma la mancanza di struttura che ne circonda l’implementazione. I potenti sistemi stanno prendendo sempre più spesso decisioni che cambiano la vita, dalle domande di lavoro ai punteggi di credito, dall’assistenza sanitaria alla giustizia penale, spesso senza che vengano effettuati sufficienti test per verificare la presenza di pregiudizi o che venga preso in considerazione l’impatto a lungo termine sulla società. Per molte organizzazioni, l’etica dell’IA rimane un documento di principi elevati piuttosto che una realtà operativa quotidiana. Grecu insiste sul fatto che l’autentica responsabilità inizia solo quando qualcuno viene reso veramente responsabile dei risultati. Il divario tra le intenzioni e l’attuazione è il vero rischio. La fondazione di Grecu sostiene il passaggio da idee astratte ad azioni concrete. Ciò comporta l’inserimento di considerazioni etiche direttamente nei flussi di lavoro dello sviluppo attraverso strumenti pratici come le checklist di progettazione, le valutazioni obbligatorie dei rischi prima dell’implementazione e i comitati di revisione interfunzionali che riuniscono i team legali, tecnici e politici. Secondo Grecu, la chiave è stabilire una chiara responsabilità in ogni fase, creando processi trasparenti e ripetibili proprio come si farebbe per qualsiasi altra funzione aziendale principale. Questo approccio pratico cerca di far progredire l’IA etica, trasformandola da un dibattito filosofico in una serie di compiti quotidiani gestibili. Collaborare per creare fiducia nell’IA e mitigare i rischi Per quanto riguarda l’applicazione, Grecu è chiaro che la responsabilità non può ricadere solo sul governo o sull’industria. “Non si tratta di uno o dell’altro, ma di entrambi”, afferma Grecu, sostenendo la necessità di un modello collaborativo. In questa collaborazione, i governi devono stabilire i confini legali e gli standard minimi, soprattutto quando sono in gioco i diritti umani fondamentali. La regolamentazione fornisce la base essenziale. Tuttavia, l’industria possiede l’agilità e il talento tecnico per innovare al di là della semplice conformità. Le aziende sono nella posizione migliore per creare strumenti di controllo avanzati, sperimentare nuove salvaguardie e spingersi oltre i limiti che la tecnologia responsabile può raggiungere. Lasciare la governance interamente alle autorità di regolamentazione rischia di soffocare proprio l’innovazione di cui abbiamo bisogno, mentre lasciarla alle sole aziende invita all’abuso. “La collaborazione è l’unica strada sostenibile”, afferma Grecu. Promuovere un futuro orientato al valore Guardando oltre le sfide immediate, Grecu si preoccupa di rischi più sottili e a lungo termine che non ricevono sufficiente attenzione: la manipolazione emotiva e l’urgente necessità di una tecnologia orientata al valore. Man mano che i sistemi di intelligenza artificiale diventano più abili nel persuadere e influenzare le emozioni umane, Grecu avverte che non siamo preparati alle implicazioni che ciò comporta per l’autonomia personale. Un principio fondamentale del suo lavoro è l’idea che la tecnologia non sia neutrale. “L’intelligenza artificiale non sarà guidata dai valori, a meno che non li inseriamo intenzionalmente”, avverte l’autrice. È un’idea comunemente errata che l’IA rifletta semplicemente il mondo così com’è. In realtà, riflette i dati che le forniamo, gli obiettivi che le assegniamo e i risultati che premiamo. Senza un intervento deliberato, l’IA si ottimizzerà invariabilmente in base a parametri come l’efficienza, la scala e il profitto, non in base a ideali astratti come la giustizia, la dignità o la democrazia, e questo avrà naturalmente un impatto sulla fiducia della società. Per questo motivo è necessario uno sforzo consapevole e proattivo per decidere quali valori vogliamo che la nostra tecnologia promuova. Per l’Europa, questo rappresenta un’opportunità cruciale. “Se vogliamo che l’IA sia al servizio degli esseri umani (e non solo dei mercati), dobbiamo proteggere e incorporare valori europei come i diritti umani, la trasparenza, la sostenibilità, l’inclusione e l’equità a tutti i livelli: politica, progettazione e implementazione”, spiega Grecu. Non si tratta di fermare il progresso. Come conclude la Grecu, si tratta di prendere il controllo della narrazione e di “plasmarla attivamente prima che sia lei a plasmare noi” Attraverso il lavoro della sua fondazione – tra cui workshop pubblici e durante l’imminente AI & Big Data Expo Europe, dove Grecu presiede il secondo giorno dell’evento – sta costruendo una coalizione per guidare l’evoluzione dell’IA e aumentare la fiducia mantenendo l’umanità al centro. (Foto di Cash Macanaya) Leggi di più su www.artificialintelligence-news.com
Le scienze umane sono fondamentali per il futuro dell’IA

Un team di esperti ha lanciato una nuova iniziativa chiamata “Doing AI Differently” (Fare l’intelligenza artificiale in modo diverso), che richiede un approccio incentrato sull’uomo per lo sviluppo futuro. Per anni abbiamo trattato i risultati dell’IA come se fossero i risultati di un enorme problema matematico. Ma i ricercatori dell’Alan Turing Institute, dell’Università di Edimburgo, dell’AHRC-UKRI e della Lloyd’s Register Foundation che stanno dietro a questo progetto sostengono che questo è il modo sbagliato di vedere le cose. Ciò che l’intelligenza artificiale sta creando sono fondamentalmente artefatti culturali. Sono più simili a un romanzo o a un dipinto che a un foglio di calcolo. Il problema è che l’IA sta creando questa “cultura” senza comprenderne nulla. È come una persona che ha memorizzato un dizionario ma non ha idea di come tenere una vera conversazione. Ecco perché l’IA spesso fallisce quando “le sfumature e il contesto contano di più”, afferma il professor Drew Hemment, Theme Lead for Interpretive Technologies for Sustainability presso l’Alan Turing Institute. Il sistema non ha la “profondità interpretativa” necessaria per capire cosa si sta dicendo. Tuttavia, la maggior parte delle IA del mondo è costruita sulla base di una manciata di progetti simili. Il rapporto lo chiama “problema dell’omogeneizzazione” e lo sviluppo futuro dell’IA deve superarlo. Immagina se tutti i panettieri del mondo usassero la stessa identica ricetta. Si otterrebbero molte torte identiche e francamente noiose. Con l’IA, questo significa che gli stessi punti deboli, gli stessi pregiudizi e le stesse limitazioni vengono copiati e incollati in migliaia di strumenti che utilizziamo ogni giorno. Lo abbiamo visto accadere con i social media. Sono stati lanciati con obiettivi semplici e ora ne stiamo vivendo le conseguenze sociali indesiderate. Il team di “Doing AI Differently” sta lanciando un allarme per assicurarsi che non commettiamo lo stesso errore con l’intelligenza artificiale. Il team ha un piano per costruire un nuovo tipo di IA, che chiama IA interpretativa. Si tratta di progettare fin dall’inizio sistemi che funzionino come le persone: con ambiguità, punti di vista multipli e una profonda comprensione del contesto. La visione è quella di creare tecnologie interpretative in grado di offrire molteplici prospettive valide invece di una sola risposta rigida. Significa anche esplorare architetture di intelligenza artificiale alternative per rompere gli schemi attuali. La cosa più importante è che il futuro non prevede che l’IA ci sostituisca, bensì la creazione di ensemble umano-AI in cui lavoriamo insieme, combinando la nostra creatività con la potenza di elaborazione dell’IA per risolvere sfide enormi. Questo ha il potenziale di toccare le nostre vite in modi molto concreti. Nell’assistenza sanitaria, ad esempio, la tua esperienza con un medico è una storia, non solo un elenco di sintomi. Un’intelligenza artificiale interpretativa potrebbe aiutare a catturare questa storia completa, migliorando la tua assistenza e la tua fiducia nel sistema. Per quanto riguarda l’azione per il clima, potrebbe aiutare a colmare il divario tra i dati climatici globali e le realtà culturali e politiche uniche di una comunità locale, creando soluzioni che funzionino davvero sul campo. È in fase di lancio un nuovo bando di finanziamento internazionale per riunire ricercatori del Regno Unito e del Canada in questa missione. Ma siamo a un bivio. “Siamo in un momento cruciale per l’IA”, avverte il professor Hemment. “Abbiamo una finestra che si sta restringendo per costruire capacità interpretative da zero”. Per partner come la Lloyd’s Register Foundation, tutto si riduce a una cosa: la sicurezza. “In qualità di ente di beneficenza per la sicurezza globale, la nostra priorità è garantire che i futuri sistemi di intelligenza artificiale, qualunque forma assumano, siano utilizzati in modo sicuro e affidabile”, afferma il Direttore delle Tecnologie, Jan Przydatek. Non si tratta solo di costruire una tecnologia migliore. Si tratta di creare un’intelligenza artificiale che possa aiutarci a risolvere le nostre sfide più importanti e, nel contempo, ad amplificare le parti migliori della nostra umanità. (Foto di Ben Sweet) Leggi di più su www.artificialintelligence-news.com
Come R/GA ha usato l’intelligenza artificiale per realizzare un annuncio “impossibile”

All’inizio di quest’anno, R/GA ha ricevuto un compito arduo: creare un annuncio che sarebbe stato impossibile realizzare senza l’intelligenza artificiale generativa (AI). La sfida è arrivata da Google, che voleva mostrare le capacità del suo modello di video generativo, Veo. Per aumentare la pressione, il gigante tecnologico ha dato a R/GA solo quattro settimane per realizzare lo spot. “È stato un po’ terrificante”, ha dichiarato Nicholas Pringle, Chief Creative Officer EMEA di R/GA. Il risultato, presentato a giugno, è stato “From the Mountains to the City”, uno spot sperimentale creato con Veo e con il marchio di moda di lusso Moncler. Il cortometraggio ha scatenato una conversazione sui social media e ai Cannes Lions di quest’anno, dove Google lo ha mostrato a un gruppo di leader creativi. Sebbene la piattaforma avesse dei limiti, Pringle ha dichiarato che ha costretto il suo team a sviluppare un nuovo modo di lavorare e ha dimostrato quanto l’intelligenza artificiale sia avanzata in poco tempo. ADWEEK ha parlato con R/GA di come l’utilizzo dello strumento generativo abbia cambiato il processo creativo. Abbracciare la casualità Il cinema è un processo tipicamente lineare: dalla scrittura di una sceneggiatura e la creazione di uno storyboard alle riprese, al montaggio e alla post-produzione. “Non si vuole mai tornare indietro di un passo, perché è proibitivo dal punto di vista dei costi”, ha detto Pringle. Ma con l’IA il processo è diventato molto più fluido, ha osservato. Rimanere flessibili è stato essenziale, perché quando i creativi hanno richiesto Veo per ogni scena, non sempre ha prodotto ciò che avevano immaginato. Può essere “frustrante” quando non si riesce a generare una scena specifica, ha osservato Pringle. Ad esempio, Veo non è riuscito a renderizzare una scena in cui un uomo chiudeva una tenda. Ma in altre occasioni ha definito lo strumento “straordinario”, in quanto ha prodotto risultati inaspettati che si sono integrati nella narrazione, come le sculture di ghiaccio che compaiono nello spot finale. “In questo senso, l’IA diventa come un creatore, perché a volte la casualità della tecnologia ti presenta qualcosa che non avevi previsto”, ha detto Pringle. La realizzazione di filmati con l’intelligenza artificiale consente una “regia in tempo reale”, ha affermato Sadie Thoma, direttore del marketing di Google Ads. “Apre le porte alla creatività, perché non devi girare esattamente quello che c’è nello storyboard” Ma questa casualità e fluidità può essere una sfida per un cliente come Moncler, che ha standard elevati in quanto marchio di lusso, ha detto Pringle, aggiungendo che Moncler era comunque entusiasta di sperimentare la tecnologia. La creazione con Veo ha cambiato anche il processo di approvazione del cliente, perché “stai esprimendo la tua idea attraverso una scena che si muove e vive, quindi non c’è un momento di ‘ta-da’”, ha spiegato. “Devi avere una visione chiara” Creare un nuovo flusso di lavoro e affrontare le limitazioni L’adozione dell’intelligenza artificiale per questo progetto ha spinto R/GA a sviluppare un nuovo sistema interno di collaborazione. L’agenzia ha realizzato un’app chiamata Shot Flow, costruita con l’assistente AI di Google, Gemini, che è servita come “uno spazio di lavoro condiviso in cui potevamo decostruire ogni elemento di una scena”, ha detto Pringle. Poiché i membri del team hanno richiesto le loro versioni di Veo da uffici diversi, Shopflow ha aiutato a semplificare la collaborazione globale e a fornire risultati più coerenti, ha aggiunto. Nonostante questi rapidi progressi, gli strumenti di intelligenza artificiale presentano ancora notevoli limiti per i creativi. Pringle ha indicato la coerenza dei caratteri come la sfida più grande. Ha notato che nello spot Moncler di R/GA i personaggi cambiano sottilmente aspetto da una scena all’altra. Persistono anche difetti visivi come la cerniera distorta della tenda. I giganti della tecnologia come Google devono ancora risolvere completamente questi problemi. I problemi legali rappresentano un altro ostacolo. “C’è una grande limitazione nel quadro legale dell’utilizzo dell’IA a fini commerciali”, ha detto Pringle, sottolineando che i marchi e le agenzie stanno ancora imparando a evitare i rischi legati al copyright. Macchine umane Veo può aver accelerato il processo creativo di R/GA, ma non può sostituire la creatività umana, ha detto Pringle. Mentre il video è stato generato dall’AI, non lo è stata la colonna sonora, composta dal musicista Tom Gallo. Inoltre, la sceneggiatura, i suggerimenti e la direzione visiva sono opera di creativi che hanno apportato al progetto il loro gusto, la loro esperienza e il loro istinto narrativo. “La combinazione di tutti questi elementi ha fatto sì che sembrasse la visione di persone, non solo di una macchina”, ha detto Pringle. “C’è uno strumento che ci permette di creare, ma richiede ingegno umano, gusto, suggerimenti tattici e la comprensione di come sfruttare la tecnologia” Ai creativi che esitano a esplorare l’IA, Pringle ha consigliato di: “Entra in contatto con questi strumenti e inizia a giocarci, anche se in modo casuale. Prova a creare la tua prima cosa” Leggi di più su www.adweek.com
