ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

La mascotte generata dall’intelligenza artificiale di Fiverr è costruita per essere il “sacco da boxe di Internet”

La mascotte generata dall'intelligenza artificiale di Fiverr è costruita per essere il "sacco da boxe di Internet"

Chiamala tradizione o abitudine, ma la cultura pop ha una lunga tradizione di amore o odio per i personaggi pubblicitari. Da Flo di Progressive all’uomo di Verizon fino all’uomo più interessante del mondo di Dos Equis, decenni di mascotte sono cresciute e cadute per mano del pubblico. L’ultima campagna di Fiverr mette un personaggio generato dall’intelligenza artificiale al centro di una nuova dinamica di amore-odio per il marchio. Il mercato dei freelance presenta Garry, che si ritrova involontariamente in varie calamità a causa del suo scetticismo nei confronti dell’IA. Creato con piattaforme video di AI generativa, tra cui Veo3 e Runway di Google, lo spot di 90 secondi ritrae Garry in scenari slapstick come un uccello che fa la cacca sulla sua auto, la moglie che lo lascia per un uomo vestito da hot dog e un uomo incastrato fino alla vita nel cemento. Altre scene fanno riferimento a recenti momenti virali come i meme misogini che affliggono le partite della WNBA e la sfida con i tacchi a spillo di Nicki Minaj su TikTok. “Sfrutteremo Garry come una sorta di sacco da boxe per internet”, ha dichiarato Matti Yahav, Chief Marketing Officer (CMO) di Fiverr, ad ADWEEK. Oltre all’annuncio del protagonista, il marchio invita le persone a inviare idee per le scene in cui Garry potrebbe apparire, offrendo di generarne una nuova per ogni 5.000 commenti che il video riceve su ogni piattaforma. Ad esempio, dopo la reunion di Love Island USA del 25 agosto, Garry sarà protagonista di una vignetta a tema villa. L’obiettivo del marchio è quello di mostrare gli strumenti dell’AI in tempo reale e di entrare nelle conversazioni culturali. “Volevamo trasmettere in questo video un’energia ad alta velocità e mostrare molte scene per creare la sensazione che sia incredibile ciò che abbiamo creato con l’IA”, ha detto Yahav. Una sfida alle agenzie Realizzata dal team creativo interno di Fiverr e da due registi freelance, Noam Sharon e Tal Rosenthal, la campagna prende di mira le agenzie di marketing tradizionali per promuovere la piattaforma di Fiverr come luogo in cui trovare talenti emergenti in grado di utilizzare l’intelligenza artificiale. Sharon e Rosenthal sono anche le menti creative dietro la recente pubblicità virale generata dall’intelligenza artificiale per Liquid Death. Fiverr non ha trovato Sharon e Rosenthal sulla sua piattaforma, ma il team si è poi iscritto, ha detto Yahav. L’utilizzo dell’intelligenza artificiale ha fatto risparmiare a Fiverr, secondo Yahav, che ha dichiarato che l’azienda ha speso circa il 10% del suo tipico budget di produzione per questo tipo di campagna. ” In genere avrei dovuto unire le forze con un’agenzia e una casa di produzione e investire centinaia di migliaia di dollari”, ha detto Yahav. “Come grande cliente sarei in grado di farlo rivolgendomi alle grandi agenzie, ma la maggior parte [delle piccole e medie imprese] ovviamente non ha la possibilità di farlo”

DeepSeek: La startup cinese che sfida la Silicon Valley

DeepSeek: La startup cinese che sfida la Silicon Valley

Il lancio della startup cinese DeepSeek ha provocato sconvolgimenti nel mercato e scosse nella Silicon Valley, mettendo in discussione alcuni dei presupposti fondamentali del funzionamento e della scalabilità delle aziende di intelligenza artificiale. In meno di un paio d’anni, la nuova azienda con sede a Pechino ha realizzato ciò che molti ritenevano impossibile: creare modelli di intelligenza artificiale in grado di competere con i giganti del settore, spendendo solo una frazione del budget dei concorrenti per insegnare ai modelli e dedurre le risposte. L’impatto al momento del lancio pubblico è stato immediato e misurabile. Secondo il South China Morning Post, i principali titoli tecnologici, tra cui Nvidia, Microsoft e Meta, hanno registrato cali significativi mentre gli investitori erano alle prese con le implicazioni dell’esistenza di DeepSeek. L’applicazione gratuita di assistente AI della startup per iOS e Android, lanciata il 10 gennaio, ha rapidamente scalato la vetta dell’App Store statunitense di Apple, scalzando ChatGPT di OpenAI e segnando una prima storica per un prodotto AI cinese nel mercato americano. L’aspetto particolarmente significativo è l’approccio tecnologico di DeepSeek. The Algorithmic Bridge riporta che l’azienda ha implementato diverse soluzioni innovative, tra cui la Multi-head Latent Attention (MLA) per ridurre i colli di bottiglia della memoria e la Group Relative Policy Optimisation (GRPO) per ottimizzare l’apprendimento per rinforzo. Questi progressi consentono a DeepSeek di ottenere risultati paragonabili o superiori a quelli dei concorrenti statunitensi utilizzando un numero di risorse significativamente inferiore. L’efficienza delle risorse dell’azienda è sorprendente: DeepSeek opera con meno di 100.000 GPU H100, mentre Meta impiegherà 1,3 milioni di GPU entro la fine del 2025. L’efficienza va oltre l’hardware. The Algorithmic Bridge suggerisce che l’approccio di DeepSeek rappresenta un miglioramento di dieci volte nell’utilizzo delle risorse se si considerano fattori come il tempo di sviluppo e i costi dell’infrastruttura. Tuttavia, la rapida ascesa nella coscienza degli utenti occidentali non è stata priva di difficoltà. Il South China Morning Post ha riportato che l’improvvisa popolarità di DeepSeek ha comportato un notevole stress infrastrutturale, con conseguenti crash dei server e problemi di cybersicurezza che hanno costretto a limitare temporaneamente le registrazioni. I problemi di crescita evidenziano le sfide del mondo reale legate alla scalabilità dei servizi di intelligenza artificiale, indipendentemente dall’efficienza dell’architettura. L’impegno dell’azienda per lo sviluppo open-source e la trasparenza della ricerca contrasta nettamente con gli approcci riservati delle principali aziende tecnologiche statunitensi. Per molti osservatori del settore, l’IA aperta e ospitata localmente potrebbe essere il modello di distribuzione preferito. L’azienda si è guadagnata le lodi di figure di spicco dell’industria tecnologica, tra cui il venture capitalist Marc Andreessen, che ha descritto gli sviluppi di DeepSeek come “una delle scoperte più sorprendenti e impressionanti” Le implicazioni politiche di questi eventi sono significative. Il Presidente degli Stati Uniti Donald Trump ha definito la nascita di DeepSeek come un “campanello d’allarme” per l’industria americana, riflettendo le preoccupazioni più ampie sulla concorrenza tecnologica tra Stati Uniti e Cina. Egli continua a combattere la concorrenza cinese nel campo della tecnologia, imponendo tariffe restrittive che hanno colpito ogni angolo del mondo. Tuttavia, la situazione trascende la semplice rivalità nazionale e rappresenta una sfida fondamentale per il pensiero consolidato sullo sviluppo dell’IA. In prospettiva, rimangono diverse domande chiave. L’approccio efficiente di DeepSeek è in grado di soddisfare la crescente domanda? Gli operatori già affermati hanno adattato le loro strategie per rispondere in modo efficace? L’azienda cinese ha dimostrato che l’efficienza algoritmica e la collaborazione aperta possono sostituire la potenza di calcolo grezza e la segretezza come motori principali del progresso dell’IA. L’interruzione del mercato dell’IA potrebbe in ultima analisi giovare all’intero settore, costringendo a rivalutare le pratiche consolidate e portando potenzialmente a metodi di sviluppo dell’IA più efficienti e accessibili. Sebbene i risultati ottenuti da DeepSeek siano notevoli da quando è diventata di dominio pubblico, è importante notare che le principali aziende tecnologiche statunitensi hanno rilasciato i propri progressi e che la volatilità del mercato nel settore tecnologico rimane elevata. Ciò che è chiaro è che DeepSeek ha introdotto una valida alternativa all’approccio ad alta intensità di capitale che ha dominato lo sviluppo dell’IA. Resta da vedere se questa diventerà il nuovo standard del settore o semplicemente una delle tante strategie di successo, ma l’impatto dell’azienda sul settore è già significativo. Foto di Markus Spiske)   Leggi di più su www.artificialintelligence-news.com

Google sta usando silenziosamente Gemini AI per eliminare le frodi pubblicitarie e il traffico non valido

Google sta usando silenziosamente Gemini AI per eliminare le frodi pubblicitarie e il traffico non valido

Nell’ultimo anno e mezzo, i ricercatori di Google hanno sperimentato metodi per combattere il traffico non valido – l’attività pubblicitaria che non è generata da un vero essere umano interessato, ma da bot, click accidentali o operazioni di click fraud – utilizzando strumenti di machine learning e AI, ha dichiarato l’azienda ad ADWEEK. Gli sforzi compiuti, ha dichiarato Google, hanno portato a una sostanziale riduzione del traffico non valido, o IVT, dalla fine del 2023. La divisione dell’azienda che si occupa della qualità del traffico pubblicitario sta lavorando con gli esperti di Google Research e Google DeepMind per implementare modelli linguistici multimodali di grandi dimensioni progettati per navigare nei siti web e nelle app mobili in modo da imitare il comportamento degli utenti umani, ha dichiarato l’azienda. La tecnologia è in grado di comprendere le funzioni di un’app o di un sito web, di interagire con gli strumenti di navigazione, di osservare gli annunci, di scattare screenshot e di identificare gli annunci ingannevoli o di disturbo esaminando le istruzioni di rendering e identificando quando un pulsante pubblicitario dovrebbe essere visibile e invece non lo è. In combinazione con gli strumenti di apprendimento automatico e con l’elaborazione e l’analisi tradizionale dei dati di backend, il sistema Gemini è in grado di segnalare i clic accidentali, gli annunci nascosti che sono difficili o impossibili da vedere per gli utenti ma che comunque registrano impressioni e gli annunci ingannevoli e fuori contesto che costringono gli utenti a interagire con essi contro la loro volontà. Dopo che gli strumenti di intelligenza artificiale di Google avranno identificato questi tipi di esperienze pubblicitarie, verranno sottoposti a una revisione umana per garantire un’applicazione accurata dei criteri, ha dichiarato l’azienda. Un programma pilota eseguito tra il dicembre 2023 e l’ottobre 2024 ha portato a una riduzione del 40% delle IVT mobili derivanti da quelli che Google chiama annunci “ingannevoli o di disturbo”, che possono includere una serie di annunci nascosti o pop-up inaspettati che violano le sue politiche di posizionamento. Sebbene il processo non sia ancora completamente automatizzato, Google sostiene che il programma pilota ha migliorato la velocità e l’accuratezza dell’applicazione. L’ecosistema degli annunci digitali ha un serio problema di IVT. Nel primo trimestre del 2025, il tasso di traffico IVT globale sul web è stato del 18% e sulle app mobili del 31%, secondo una ricerca condotta da Pixalate che ha valutato oltre 100 miliardi di impressioni programmatiche a livello globale. Attenuare l’IVT può aiutare a proteggere gli inserzionisti, gli editori e gli utenti, ha dichiarato ad ADWEEK Per Bjorke, direttore del product management di Google per la qualità del traffico pubblicitario. “Se tu [come inserzionista] spendi 100.000 dollari e 10.000 dollari vanno a finire nel traffico non valido, sono 10.000 dollari sprecati che avresti potuto spendere per acquisire effettivamente utenti”, ha detto Bjorke. “È un problema anche per i buoni editori, perché ogni dollaro pagato ai cattivi attori è un dollaro che sarebbe dovuto andare a un buon editore. Mette a rischio l’intero ecosistema pubblicitario” Anche gli utenti finali possono essere colpiti negativamente dall’IVT, ha detto, indicando un reclamo ricevuto da Google in merito al tentativo di un utente di comporre il 911 che è stato interrotto da un annuncio pop-up. Ha inoltre sottolineato che alcune frodi pubblicitarie comportano l’installazione di malware sui dispositivi degli utenti, creando ulteriori rischi per gli utenti comuni. Quest’anno Google ha già combattuto almeno due grandi operazioni di botnet su applicazioni Android. Il mese scorso, il gigante tecnologico ha eliminato 352 app associate a uno schema di frode pubblicitaria che, al suo apice, generava 1,5 miliardi di richieste di offerte giornaliere. A febbraio, l’azienda ha eliminato dal Play Store quasi 200 app coinvolte in un’altra operazione di frode pubblicitaria. A luglio, inoltre, il gigante tecnologico ha annunciato che sta facendo causa a un gruppo di hacker con sede in Cina per una terza operazione di frode che ha infettato più di 10 milioni di dispositivi Android con un malware. Google è fiduciosa che i suoi investimenti nell’intelligenza artificiale continueranno a dimostrarsi efficaci nel mitigare il traffico non valido e le frodi pubblicitarie. “Si tratta sempre di un gioco di tipo avversario, di tipo ‘tit for tat’”, ha detto Bjorke. “Noi facciamo progressi. I cattivi attori cambiano il loro comportamento. Noi facciamo altri progressi. Loro stanno cambiando il loro comportamento” Ma gli strumenti di intelligenza artificiale possono rispondere più rapidamente a questi progressi e catturare più rapidamente i malintenzionati, ha detto. “Non è garantito che sia infallibile per chiunque lo aggiri, ma rispetto all’analisi dei dati è più robusto in questo tipo di casi d’uso” La scorsa settimana, il team di sicurezza degli annunci di Google ha pubblicato un post sul blog in cui affermava di aver ottenuto una riduzione di 10.000 volte della quantità di dati di addestramento dell’intelligenza artificiale necessari per eliminare gli annunci che violano i criteri, suggerendo che le sue tecniche stanno diventando più efficienti. Leggi di più su www.adweek.com

NVIDIA punta a risolvere i problemi dell’intelligenza artificiale con molti linguaggi

NVIDIA punta a risolvere i problemi dell'intelligenza artificiale con molti linguaggi

Sebbene l’intelligenza artificiale possa sembrare onnipresente, essa opera principalmente in una minima parte delle 7.000 lingue del mondo, lasciando indietro un’enorme porzione della popolazione globale. NVIDIA mira a risolvere questo evidente punto debole, in particolare in Europa. L’azienda ha appena rilasciato una nuova e potente serie di strumenti open-source per dare agli sviluppatori la possibilità di creare un’intelligenza artificiale vocale di alta qualità per 25 lingue europee diverse. Questo include le lingue principali, ma soprattutto offre un’ancora di salvezza a quelle spesso trascurate dalle grandi aziende, come il croato, l’estone e il maltese. L’obiettivo è quello di permettere agli sviluppatori di creare il tipo di strumenti vocali che molti di noi danno per scontati, dai chatbot multilingue che ti capiscono davvero ai bot del servizio clienti e ai servizi di traduzione che funzionano in un batter d’occhio. Il fulcro di questa iniziativa è Granary, un’enorme biblioteca del parlato umano. Contiene circa un milione di ore di audio, tutte curate per aiutare l’intelligenza artificiale a imparare le sfumature del riconoscimento vocale e della traduzione. Per sfruttare questi dati vocali, NVIDIA fornisce anche due nuovi modelli di intelligenza artificiale progettati per le attività linguistiche: Canary-1b-v2, un modello di grandi dimensioni costruito per garantire un’elevata precisione nei lavori di trascrizione e traduzione complessi. Parakeet-tdt-0.6b-v3, progettato per applicazioni in tempo reale in cui la velocità è fondamentale. Se vuoi approfondire la scienza che sta alla base, il documento su Granary sarà presentato alla conferenza Interspeech che si terrà nei Paesi Bassi questo mese. Per gli sviluppatori desiderosi di sporcarsi le mani, il set di dati ed entrambi i modelli sono già disponibili su Hugging Face. La vera magia, tuttavia, sta nel modo in cui questi dati sono stati creati. Sappiamo tutti che l’addestramento dell’intelligenza artificiale richiede grandi quantità di dati, ma ottenerli è di solito un processo lento, costoso e francamente noioso di annotazione umana. Per ovviare a questo problema, il team speech AI di NVIDIA, in collaborazione con i ricercatori della Carnegie Mellon University e della Fondazione Bruno Kessler, ha creato una pipeline automatizzata. Utilizzando il proprio toolkit NeMo, sono riusciti a prendere l’audio grezzo e non etichettato e a trasformarlo in dati strutturati di alta qualità da cui l’intelligenza artificiale può imparare. Non si tratta solo di un risultato tecnico, ma di un enorme passo avanti per l’inclusività digitale. Significa che uno sviluppatore di Riga o Zagabria può finalmente costruire strumenti di intelligenza artificiale alimentati dalla voce che comprendono correttamente le loro lingue locali. E possono farlo in modo più efficiente. Il team di ricerca ha scoperto che i dati di Granary sono così efficaci che per raggiungere un livello di accuratezza prefissato ne serve circa la metà rispetto ad altri set di dati popolari. I due nuovi modelli dimostrano questa potenza. Canary è una vera e propria bestia, in grado di offrire una qualità di traduzione e trascrizione in grado di competere con modelli tre volte più grandi, ma con una velocità fino a dieci volte superiore. Parakeet, invece, è in grado di analizzare la registrazione di una riunione di 24 minuti in un colpo solo, riuscendo a capire automaticamente la lingua parlata. Entrambi i modelli sono abbastanza intelligenti da gestire la punteggiatura, la capitalizzazione e da fornire timestamp a livello di parola, come richiesto per la creazione di applicazioni di livello professionale. Mettendo questi potenti strumenti e le metodologie che li supportano nelle mani della comunità globale degli sviluppatori, NVIDIA non si limita a rilasciare un prodotto. Sta dando il via a una nuova ondata di innovazione, sperando di creare un mondo in cui l’intelligenza artificiale parli la tua lingua, indipendentemente dalla tua provenienza. (Foto di Aedrian Salazar)   Leggi di più su www.artificialintelligence-news.com

Anthropic illustra la sua strategia di sicurezza AI

Anthropic illustra la sua strategia di sicurezza AI

Anthropic ha dettagliato la sua strategia di sicurezza per cercare di mantenere il suo popolare modello di AI, Claude, utile evitando di perpetuare i danni. Al centro di questo sforzo c’è il team Safeguards di Anthropic, che non è il solito gruppo di assistenza tecnica, ma un mix di esperti di policy, data scientist, ingegneri e analisti delle minacce che sanno come pensano i cattivi attori. Tuttavia, l’approccio di Anthropic alla sicurezza non è un singolo muro, ma piuttosto un castello con più livelli di difesa. Tutto inizia con la creazione delle regole giuste e termina con la caccia alle nuove minacce in libertà. La prima è la Politica d’uso, che in pratica è il regolamento per l’utilizzo di Claude. Fornisce indicazioni chiare su questioni importanti come l’integrità delle elezioni e la sicurezza dei bambini, ma anche sull’uso responsabile di Claude in settori sensibili come la finanza o la sanità. Per definire queste regole, il team utilizza un quadro di riferimento unificato per il danno. Questo li aiuta a riflettere sui potenziali impatti negativi, dai danni fisici e psicologici a quelli economici e sociali. Non si tratta di un sistema di classificazione formale, ma di un modo strutturato per valutare i rischi quando si prendono le decisioni. Per i Test di Vulnerabilità delle Politiche, inoltre, si rivolgono a esperti esterni. Questi specialisti in settori come il terrorismo e la sicurezza dei bambini cercano di “rompere” Claude con domande difficili per capire quali sono i punti deboli. Lo abbiamo visto in azione durante le elezioni americane del 2024. Dopo aver collaborato con l’Istituto per il Dialogo Strategico, Anthropic si è resa conto che Claude avrebbe potuto fornire vecchie informazioni di voto. Per questo ha aggiunto un banner che indirizzava gli utenti a TurboVote, una fonte affidabile di informazioni elettorali aggiornate e non di parte. Insegnare a Claude a distinguere il bene dal male Il team di Anthropic Safeguards lavora a stretto contatto con gli sviluppatori che addestrano Claude per garantire la sicurezza fin dall’inizio. Questo significa decidere quali sono le cose che Claude deve o non deve fare e incorporare questi valori nel modello stesso. Inoltre, collaborano con specialisti per ottenere il giusto risultato. Ad esempio, grazie alla collaborazione con ThroughLine, un’associazione di supporto alle crisi, hanno insegnato a Claude come gestire con cura le conversazioni delicate sulla salute mentale e l’autolesionismo, invece di rifiutarsi di parlare. Questo attento addestramento è il motivo per cui Claude rifiuta le richieste di aiuto per attività illegali, la scrittura di codice maligno o la creazione di truffe. Prima che ogni nuova versione di Claude diventi operativa, viene sottoposta a tre tipi di valutazione. Valutazioni di sicurezza: Questi test verificano se Claude rispetta le regole, anche nelle conversazioni più lunghe e complesse. Valutazioni del rischio: Per le aree ad alto rischio, come le minacce informatiche o i rischi biologici, il team esegue test specializzati, spesso con l’aiuto di partner governativi e industriali. Valutazioni dei pregiudizi: Si tratta di una questione di equità. Verificano se Claude fornisce risposte affidabili e accurate per tutti, verificando se ci sono pregiudizi politici o risposte distorte in base a fattori quali il sesso o la razza. Questi test intensivi aiutano il team a capire se la formazione ha funzionato e a capire se è necessario creare ulteriori protezioni prima del lancio. (Credit: Anthropic) La strategia di sicurezza dell’AI di Anthropic che non si addormenta mai Una volta che Claude è in giro per il mondo, un mix di sistemi automatici e revisori umani tiene d’occhio i problemi. Lo strumento principale è costituito da una serie di modelli specializzati di Claude chiamati “classificatori” che vengono addestrati per individuare in tempo reale specifiche violazioni della politica nel momento in cui si verificano. Se un classificatore individua un problema, può attivare diverse azioni. Ad esempio, potrebbe evitare che la risposta di Claude generi qualcosa di dannoso, come lo spam. Per i recidivi, il team potrebbe emettere avvisi o addirittura chiudere l’account. Il team guarda anche al quadro generale. Utilizza strumenti che rispettano la privacy per individuare le tendenze di utilizzo di Claude e impiega tecniche come la sintesi gerarchica per individuare abusi su larga scala, come le campagne di influenza coordinate. Sono costantemente alla ricerca di nuove minacce, scavando tra i dati e monitorando i forum in cui i malintenzionati potrebbero frequentarsi. Tuttavia, Anthropic sa che garantire la sicurezza dell’IA non è un lavoro che può fare da sola. Sta collaborando attivamente con i ricercatori, i politici e il pubblico per costruire le migliori protezioni possibili. (Immagine principale di Nick Fewings) Leggi di più su www.artificialintelligence-news.com

Perplexity, valutata 18 miliardi di dollari, fa un’offerta da 34,5 miliardi di dollari per Google Chrome

Perplexity, valutata 18 miliardi di dollari, fa un'offerta da 34,5 miliardi di dollari per Google Chrome

La startup di intelligenza artificiale Perplexity ha offerto martedì 34,5 miliardi di dollari per acquistare il browser Chrome di Google, posizionandosi in modo da sfidare il dominio del gigante tecnologico nella ricerca sul web. L’offerta è quasi il doppio della valutazione di Perplexity, pari a 18 miliardi di dollari. L’azienda ha dichiarato al Wall Street Journal di essersi assicurata il sostegno di diversi investitori e di grandi società di venture capital per sostenere interamente la transazione. Le stime del valore aziendale di Chrome variano, con cifre recenti che vanno dai 20 ai 50 miliardi di dollari. Con 4 miliardi di utenti, l’acquisizione di Chrome darebbe a un’unica azienda il controllo di quasi il 67% della navigazione internet globale. Tuttavia, l’acquisto di Chrome comporta diverse complicazioni. L’offerta arriva pochi giorni prima che il giudice Amit Mehta si pronunci sul futuro di Google, costringendo potenzialmente il gigante tecnologico a scorporare il suo prezioso browser nel quadro di una controversia antitrust in corso. L’anno scorso è stato accertato che Google detiene il monopolio nel mercato della ricerca. Perplexity ha segnalato per la prima volta il suo interesse per l’acquisto di Chrome ad aprile, dicendo al tribunale che preferirebbe che Google mantenesse il browser open-source piuttosto che vederlo acquisito da un’azienda come OpenAI, che ha anch’essa espresso interesse. In una lettera all’amministratore delegato Sundar Pichai, Perplexity ha riferito che il suo piano di acquisizione avrebbe preservato e supportato la tecnologia open-source di Chrome, Chromium, insieme ad altri browser, e mantenuto Google come motore di ricerca predefinito, consentendo agli utenti di cambiare tramite le impostazioni. Nel frattempo, Pichai – che ha testimoniato in tribunale all’inizio di quest’anno – ha dichiarato che costringere Google a vendere Chrome o a condividere i suoi dati con i rivali potrebbe danneggiare l’azienda, limitare gli investimenti in nuove tecnologie e creare rischi per la sicurezza. Leggi di più su www.adweek.com

Senza regole, l’intelligenza artificiale rischia una “crisi di fiducia

Senza regole, l'intelligenza artificiale rischia una "crisi di fiducia

Il mondo sta correndo verso la diffusione dell’IA, ma una voce di spicco dell’etica tecnologica avverte che dare la priorità alla velocità rispetto alla sicurezza rischia di provocare una “crisi di fiducia” Suvianna Grecu, fondatrice della AI for Change Foundation, sostiene che senza una governance forte e immediata, ci stiamo avviando verso “l’automazione del danno su scala” Parlando dell’integrazione dell’IA nei settori critici, Grecu ritiene che il pericolo etico più pressante non sia la tecnologia in sé, ma la mancanza di struttura che ne circonda l’implementazione. I potenti sistemi stanno prendendo sempre più spesso decisioni che cambiano la vita, dalle domande di lavoro ai punteggi di credito, dall’assistenza sanitaria alla giustizia penale, spesso senza che vengano effettuati sufficienti test per verificare la presenza di pregiudizi o che venga preso in considerazione l’impatto a lungo termine sulla società. Per molte organizzazioni, l’etica dell’IA rimane un documento di principi elevati piuttosto che una realtà operativa quotidiana. Grecu insiste sul fatto che l’autentica responsabilità inizia solo quando qualcuno viene reso veramente responsabile dei risultati. Il divario tra le intenzioni e l’attuazione è il vero rischio. La fondazione di Grecu sostiene il passaggio da idee astratte ad azioni concrete. Ciò comporta l’inserimento di considerazioni etiche direttamente nei flussi di lavoro dello sviluppo attraverso strumenti pratici come le checklist di progettazione, le valutazioni obbligatorie dei rischi prima dell’implementazione e i comitati di revisione interfunzionali che riuniscono i team legali, tecnici e politici. Secondo Grecu, la chiave è stabilire una chiara responsabilità in ogni fase, creando processi trasparenti e ripetibili proprio come si farebbe per qualsiasi altra funzione aziendale principale. Questo approccio pratico cerca di far progredire l’IA etica, trasformandola da un dibattito filosofico in una serie di compiti quotidiani gestibili. Collaborare per creare fiducia nell’IA e mitigare i rischi Per quanto riguarda l’applicazione, Grecu è chiaro che la responsabilità non può ricadere solo sul governo o sull’industria. “Non si tratta di uno o dell’altro, ma di entrambi”, afferma Grecu, sostenendo la necessità di un modello collaborativo. In questa collaborazione, i governi devono stabilire i confini legali e gli standard minimi, soprattutto quando sono in gioco i diritti umani fondamentali. La regolamentazione fornisce la base essenziale. Tuttavia, l’industria possiede l’agilità e il talento tecnico per innovare al di là della semplice conformità. Le aziende sono nella posizione migliore per creare strumenti di controllo avanzati, sperimentare nuove salvaguardie e spingersi oltre i limiti che la tecnologia responsabile può raggiungere. Lasciare la governance interamente alle autorità di regolamentazione rischia di soffocare proprio l’innovazione di cui abbiamo bisogno, mentre lasciarla alle sole aziende invita all’abuso. “La collaborazione è l’unica strada sostenibile”, afferma Grecu. Promuovere un futuro orientato al valore Guardando oltre le sfide immediate, Grecu si preoccupa di rischi più sottili e a lungo termine che non ricevono sufficiente attenzione: la manipolazione emotiva e l’urgente necessità di una tecnologia orientata al valore. Man mano che i sistemi di intelligenza artificiale diventano più abili nel persuadere e influenzare le emozioni umane, Grecu avverte che non siamo preparati alle implicazioni che ciò comporta per l’autonomia personale. Un principio fondamentale del suo lavoro è l’idea che la tecnologia non sia neutrale. “L’intelligenza artificiale non sarà guidata dai valori, a meno che non li inseriamo intenzionalmente”, avverte l’autrice. È un’idea comunemente errata che l’IA rifletta semplicemente il mondo così com’è. In realtà, riflette i dati che le forniamo, gli obiettivi che le assegniamo e i risultati che premiamo. Senza un intervento deliberato, l’IA si ottimizzerà invariabilmente in base a parametri come l’efficienza, la scala e il profitto, non in base a ideali astratti come la giustizia, la dignità o la democrazia, e questo avrà naturalmente un impatto sulla fiducia della società. Per questo motivo è necessario uno sforzo consapevole e proattivo per decidere quali valori vogliamo che la nostra tecnologia promuova. Per l’Europa, questo rappresenta un’opportunità cruciale. “Se vogliamo che l’IA sia al servizio degli esseri umani (e non solo dei mercati), dobbiamo proteggere e incorporare valori europei come i diritti umani, la trasparenza, la sostenibilità, l’inclusione e l’equità a tutti i livelli: politica, progettazione e implementazione”, spiega Grecu. Non si tratta di fermare il progresso. Come conclude la Grecu, si tratta di prendere il controllo della narrazione e di “plasmarla attivamente prima che sia lei a plasmare noi” Attraverso il lavoro della sua fondazione – tra cui workshop pubblici e durante l’imminente AI & Big Data Expo Europe, dove Grecu presiede il secondo giorno dell’evento – sta costruendo una coalizione per guidare l’evoluzione dell’IA e aumentare la fiducia mantenendo l’umanità al centro. (Foto di Cash Macanaya)   Leggi di più su www.artificialintelligence-news.com

Le scienze umane sono fondamentali per il futuro dell’IA

Le scienze umane sono fondamentali per il futuro dell'IA

Un team di esperti ha lanciato una nuova iniziativa chiamata “Doing AI Differently” (Fare l’intelligenza artificiale in modo diverso), che richiede un approccio incentrato sull’uomo per lo sviluppo futuro. Per anni abbiamo trattato i risultati dell’IA come se fossero i risultati di un enorme problema matematico. Ma i ricercatori dell’Alan Turing Institute, dell’Università di Edimburgo, dell’AHRC-UKRI e della Lloyd’s Register Foundation che stanno dietro a questo progetto sostengono che questo è il modo sbagliato di vedere le cose. Ciò che l’intelligenza artificiale sta creando sono fondamentalmente artefatti culturali. Sono più simili a un romanzo o a un dipinto che a un foglio di calcolo. Il problema è che l’IA sta creando questa “cultura” senza comprenderne nulla. È come una persona che ha memorizzato un dizionario ma non ha idea di come tenere una vera conversazione. Ecco perché l’IA spesso fallisce quando “le sfumature e il contesto contano di più”, afferma il professor Drew Hemment, Theme Lead for Interpretive Technologies for Sustainability presso l’Alan Turing Institute. Il sistema non ha la “profondità interpretativa” necessaria per capire cosa si sta dicendo. Tuttavia, la maggior parte delle IA del mondo è costruita sulla base di una manciata di progetti simili. Il rapporto lo chiama “problema dell’omogeneizzazione” e lo sviluppo futuro dell’IA deve superarlo. Immagina se tutti i panettieri del mondo usassero la stessa identica ricetta. Si otterrebbero molte torte identiche e francamente noiose. Con l’IA, questo significa che gli stessi punti deboli, gli stessi pregiudizi e le stesse limitazioni vengono copiati e incollati in migliaia di strumenti che utilizziamo ogni giorno. Lo abbiamo visto accadere con i social media. Sono stati lanciati con obiettivi semplici e ora ne stiamo vivendo le conseguenze sociali indesiderate. Il team di “Doing AI Differently” sta lanciando un allarme per assicurarsi che non commettiamo lo stesso errore con l’intelligenza artificiale. Il team ha un piano per costruire un nuovo tipo di IA, che chiama IA interpretativa. Si tratta di progettare fin dall’inizio sistemi che funzionino come le persone: con ambiguità, punti di vista multipli e una profonda comprensione del contesto. La visione è quella di creare tecnologie interpretative in grado di offrire molteplici prospettive valide invece di una sola risposta rigida. Significa anche esplorare architetture di intelligenza artificiale alternative per rompere gli schemi attuali. La cosa più importante è che il futuro non prevede che l’IA ci sostituisca, bensì la creazione di ensemble umano-AI in cui lavoriamo insieme, combinando la nostra creatività con la potenza di elaborazione dell’IA per risolvere sfide enormi. Questo ha il potenziale di toccare le nostre vite in modi molto concreti. Nell’assistenza sanitaria, ad esempio, la tua esperienza con un medico è una storia, non solo un elenco di sintomi. Un’intelligenza artificiale interpretativa potrebbe aiutare a catturare questa storia completa, migliorando la tua assistenza e la tua fiducia nel sistema. Per quanto riguarda l’azione per il clima, potrebbe aiutare a colmare il divario tra i dati climatici globali e le realtà culturali e politiche uniche di una comunità locale, creando soluzioni che funzionino davvero sul campo. È in fase di lancio un nuovo bando di finanziamento internazionale per riunire ricercatori del Regno Unito e del Canada in questa missione. Ma siamo a un bivio. “Siamo in un momento cruciale per l’IA”, avverte il professor Hemment. “Abbiamo una finestra che si sta restringendo per costruire capacità interpretative da zero”. Per partner come la Lloyd’s Register Foundation, tutto si riduce a una cosa: la sicurezza. “In qualità di ente di beneficenza per la sicurezza globale, la nostra priorità è garantire che i futuri sistemi di intelligenza artificiale, qualunque forma assumano, siano utilizzati in modo sicuro e affidabile”, afferma il Direttore delle Tecnologie, Jan Przydatek. Non si tratta solo di costruire una tecnologia migliore. Si tratta di creare un’intelligenza artificiale che possa aiutarci a risolvere le nostre sfide più importanti e, nel contempo, ad amplificare le parti migliori della nostra umanità. (Foto di Ben Sweet) Leggi di più su www.artificialintelligence-news.com

Come R/GA ha usato l’intelligenza artificiale per realizzare un annuncio “impossibile”

Come R/GA ha usato l'intelligenza artificiale per realizzare un annuncio "impossibile"

All’inizio di quest’anno, R/GA ha ricevuto un compito arduo: creare un annuncio che sarebbe stato impossibile realizzare senza l’intelligenza artificiale generativa (AI). La sfida è arrivata da Google, che voleva mostrare le capacità del suo modello di video generativo, Veo. Per aumentare la pressione, il gigante tecnologico ha dato a R/GA solo quattro settimane per realizzare lo spot. “È stato un po’ terrificante”, ha dichiarato Nicholas Pringle, Chief Creative Officer EMEA di R/GA. Il risultato, presentato a giugno, è stato “From the Mountains to the City”, uno spot sperimentale creato con Veo e con il marchio di moda di lusso Moncler. Il cortometraggio ha scatenato una conversazione sui social media e ai Cannes Lions di quest’anno, dove Google lo ha mostrato a un gruppo di leader creativi. Sebbene la piattaforma avesse dei limiti, Pringle ha dichiarato che ha costretto il suo team a sviluppare un nuovo modo di lavorare e ha dimostrato quanto l’intelligenza artificiale sia avanzata in poco tempo. ADWEEK ha parlato con R/GA di come l’utilizzo dello strumento generativo abbia cambiato il processo creativo. Abbracciare la casualità Il cinema è un processo tipicamente lineare: dalla scrittura di una sceneggiatura e la creazione di uno storyboard alle riprese, al montaggio e alla post-produzione. “Non si vuole mai tornare indietro di un passo, perché è proibitivo dal punto di vista dei costi”, ha detto Pringle. Ma con l’IA il processo è diventato molto più fluido, ha osservato. Rimanere flessibili è stato essenziale, perché quando i creativi hanno richiesto Veo per ogni scena, non sempre ha prodotto ciò che avevano immaginato. Può essere “frustrante” quando non si riesce a generare una scena specifica, ha osservato Pringle. Ad esempio, Veo non è riuscito a renderizzare una scena in cui un uomo chiudeva una tenda. Ma in altre occasioni ha definito lo strumento “straordinario”, in quanto ha prodotto risultati inaspettati che si sono integrati nella narrazione, come le sculture di ghiaccio che compaiono nello spot finale. “In questo senso, l’IA diventa come un creatore, perché a volte la casualità della tecnologia ti presenta qualcosa che non avevi previsto”, ha detto Pringle. La realizzazione di filmati con l’intelligenza artificiale consente una “regia in tempo reale”, ha affermato Sadie Thoma, direttore del marketing di Google Ads. “Apre le porte alla creatività, perché non devi girare esattamente quello che c’è nello storyboard” Ma questa casualità e fluidità può essere una sfida per un cliente come Moncler, che ha standard elevati in quanto marchio di lusso, ha detto Pringle, aggiungendo che Moncler era comunque entusiasta di sperimentare la tecnologia. La creazione con Veo ha cambiato anche il processo di approvazione del cliente, perché “stai esprimendo la tua idea attraverso una scena che si muove e vive, quindi non c’è un momento di ‘ta-da’”, ha spiegato. “Devi avere una visione chiara” Creare un nuovo flusso di lavoro e affrontare le limitazioni L’adozione dell’intelligenza artificiale per questo progetto ha spinto R/GA a sviluppare un nuovo sistema interno di collaborazione. L’agenzia ha realizzato un’app chiamata Shot Flow, costruita con l’assistente AI di Google, Gemini, che è servita come “uno spazio di lavoro condiviso in cui potevamo decostruire ogni elemento di una scena”, ha detto Pringle. Poiché i membri del team hanno richiesto le loro versioni di Veo da uffici diversi, Shopflow ha aiutato a semplificare la collaborazione globale e a fornire risultati più coerenti, ha aggiunto. Nonostante questi rapidi progressi, gli strumenti di intelligenza artificiale presentano ancora notevoli limiti per i creativi. Pringle ha indicato la coerenza dei caratteri come la sfida più grande. Ha notato che nello spot Moncler di R/GA i personaggi cambiano sottilmente aspetto da una scena all’altra. Persistono anche difetti visivi come la cerniera distorta della tenda. I giganti della tecnologia come Google devono ancora risolvere completamente questi problemi. I problemi legali rappresentano un altro ostacolo. “C’è una grande limitazione nel quadro legale dell’utilizzo dell’IA a fini commerciali”, ha detto Pringle, sottolineando che i marchi e le agenzie stanno ancora imparando a evitare i rischi legati al copyright. Macchine umane Veo può aver accelerato il processo creativo di R/GA, ma non può sostituire la creatività umana, ha detto Pringle. Mentre il video è stato generato dall’AI, non lo è stata la colonna sonora, composta dal musicista Tom Gallo. Inoltre, la sceneggiatura, i suggerimenti e la direzione visiva sono opera di creativi che hanno apportato al progetto il loro gusto, la loro esperienza e il loro istinto narrativo. “La combinazione di tutti questi elementi ha fatto sì che sembrasse la visione di persone, non solo di una macchina”, ha detto Pringle. “C’è uno strumento che ci permette di creare, ma richiede ingegno umano, gusto, suggerimenti tattici e la comprensione di come sfruttare la tecnologia” Ai creativi che esitano a esplorare l’IA, Pringle ha consigliato di: “Entra in contatto con questi strumenti e inizia a giocarci, anche se in modo casuale. Prova a creare la tua prima cosa” Leggi di più su www.adweek.com

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

L’AI sembra il nuovo modo di far parte del mondo del marketing come proprietario di un’agenzia, giusto? Potresti essere uno sviluppatore, collaborare con un’agenzia, occuparti da solo della parte commerciale o essere un marketer. In ogni caso, c’è una strada da percorrere, ma solo se capisci quali sono le reali esigenze dei clienti. Questo blog spiega chiaramente: il modello di business che le agenzie di AI intelligenti stanno utilizzando, gli strumenti che funzionano e le strategie di prezzo che convincono i clienti a dire sì. Se hai intenzione di avviare un’agenzia di automazione AI, inizia da qui. Cosa c’è dentro Perché avviare un’agenzia di automazione AI nel 2025? Molti professionisti si stanno ponendo la stessa domanda in questo momento: È ancora abbastanza presto (e abbastanza intelligente) per avviare un’agenzia di automazione AI? La risposta breve è sì, e i motivi sono più pratici che di facciata. È ovvio che l’intelligenza artificiale non è più riservata ai piloti sperimentali o alle grandi aziende tecnologiche. Entro il 2025, si prevede che il mercato globale dell’intelligenza artificiale raggiungerà i 747,91 miliardi di dollari, con una parte significativa di questa crescita guidata dal supporto dell’intelligenza artificiale per la generazione di lead, l’assistenza ai clienti e l’automazione dei processi aziendali in vari settori. I dati relativi alle prestazioni confermano questo dato. Le aziende che integrano l’IA nella loro pubblicità riportano un miglioramento del 40% nei risultati delle campagne. Quando le aziende vedono questo tipo di efficienza, non tornano indietro: cercano partner che le aiutino a scalare. L’impatto dell’automazione non si limita al marketing. Secondo il McKinsey Global Institute, l’automazione potrebbe aumentare la produttività globale dello 0,8-1,4% all’anno. Si tratta senza dubbio di un guadagno significativo in un periodo di rallentamento della crescita del lavoro. Ciò che rende questo aspetto particolarmente interessante nel 2025 è l’accessibilità. Non è più necessario avere una profonda competenza ingegneristica per iniziare. Framework open-source come LangChain e AutoGen di Microsoft ti permettono di creare agenti personalizzati che gestiscono tutto, dagli aggiornamenti del CRM alle risposte automatiche; l’ideale per le startup, gli operatori in proprio o le agenzie in crescita che vogliono offrire soluzioni più sofisticate. Una buona notizia? Questi strumenti sono accessibili e utilizzabili. E i casi d’uso più importanti (generazione di lead, assistenza clienti ed esecuzione di campagne) sono proprio quelli in cui la maggior parte delle aziende ha bisogno di aiuto. Guida passo-passo: Come avviare un’agenzia di automazione AI Come abbiamo già detto, avviare un’agenzia di automazione AI significa offrire soluzioni “reali” ai problemi che le aziende affrontano quotidianamente, soprattutto in aree come la lead generation, l’assistenza clienti e le operazioni di vendita. Qui di seguito troverai una guida chiara e fattibile che ti spiegherà passo dopo passo come avviare un’agenzia di automazione AI. 1. Decidi la tua capacità tecnica: Sviluppatore, partner o nessuno La prima decisione importante è se tu o qualcuno del tuo team sia in grado di creare l’automazione. Ci sono tre punti di ingresso: Sei uno sviluppatore e puoi costruire i sistemi da solo. Collabori con uno sviluppatore per creare flussi di lavoro personalizzati. Esternalizzare lo sviluppo, il che potrebbe limitare la tua competitività se non puoi offrire soluzioni di automazione su misura. Non c’è bisogno di dirlo: se non hai dimestichezza con la codifica e non hai un partner tecnico, non sarai in grado di offrire soluzioni personalizzate o di creare sistemi pacchettizzati. E, ovviamente, questo può rendere la tua agenzia molto meno competitiva. (Questo aspetto è importante anche per l’avvio di un’agenzia di AI) Quindi, in questo caso, inizia a risolvere semplici compiti ripetitivi utilizzando Zapier, Make (Integromat) o integrazioni GPT precostituite prima di passare a soluzioni personalizzate basate su Python o LangChain. 2. Scegli una nicchia specifica per problemi reali Piuttosto che offrire “AI per tutti”, le agenzie di AI più forti iniziano risolvendo un problema specifico per un settore. Se hai già lavorato in un settore, sfrutta questa conoscenza interna per identificare i punti di attrito che l’IA può automatizzare. Nel suo video su YouTube, il noto marketer Bo Sar consiglia di diventare quello che lui chiama “un insider”, spiegando: Se hai lavorato in un settore e sai dove si trovano le inefficienze, è più facile comunicare la tua soluzione e venderla ai colleghi del settore. Quindi, prima di avviare un’agenzia di questo tipo, è bene fare un brainstorming dei colli di bottiglia operativi in diversi settori e convalidare questi problemi attraverso forum o interviste. Nel farlo, valuta le nicchie in base a: Volume di attività ripetibili, Affidamento esistente sugli strumenti digitali, Disponibilità a esternalizzare o a spendere per l’automazione. 3. Personalizza la tua offerta per risolvere un solo punto dolente Come per il punto 2, ti suggeriamo di evitare di proporre vantaggi generici per l’automazione. Al contrario, crea la tua offerta di servizi intorno a un singolo punto dolente per un singolo ICP (profilo di cliente ideale). Ad esempio, automatizzare le email di onboarding dei clienti per le aziende SaaS o semplificare la qualificazione dei lead per gli studi legali. Prima di creare qualcosa, assicurati che il problema esista e sia importante. Utilizza LinkedIn, Reddit o le ricerche a freddo per parlare con gli operatori della nicchia che hai scelto. Fai domande dirette: Quali processi ti fanno perdere tempo ogni giorno? Utilizzi qualche strumento di automazione? Quanto varrebbe una soluzione per la tua azienda? Questo è anche il momento in cui inizi a formulare le tue prime offerte. Più contesto fornisci nella tua offerta, maggiori sono le possibilità di risposta. Questo approccio non solo rende le email a freddo più pertinenti, ma accorcia anche il ciclo di vendita. 4. Costruisci una soluzione minima fattibile (MVS) Ora, risolvi un solo compito end-to-end utilizzando gli strumenti disponibili. Ad esempio: Automatizza le email di risposta ai lead per gli agenti immobiliari utilizzando GPT e Zapier. Crea un’integrazione con Google Sheets OpenAI Slack per riassumere gli aggiornamenti del CRM per i team di vendita. Non è necessaria una suite completa, ma solo un’automazione funzionale che dimostri che puoi risolvere un problema. A questo