ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Desiderosi di abbracciare l’intelligenza artificiale, i marketer sono alle prese con il “come”

Desiderosi di abbracciare l'intelligenza artificiale, i marketer sono alle prese con il "come"

La maggior parte delle aziende di marketing e pubblicità è seriamente intenzionata ad adottare l’intelligenza artificiale, ma c’è un problema: molte non sono sicure di come procedere. Un recente sondaggio condotto tra i lettori di ADWEEK mostra che la barriera più grande per le aziende che cercano di incorporare l’intelligenza artificiale nelle loro attività quotidiane è la mancanza di competenze e di know-how. Anche le questioni legali e i problemi di budget rappresentano degli ostacoli. Nonostante questi ostacoli, oltre l’80% dei marketer e degli inserzionisti è molto o abbastanza fiducioso nella capacità della propria azienda di rendere l’IA parte delle normali operazioni. Per quanto riguarda i responsabili del piano di implementazione dell’IA all’interno dell’organizzazione, il 23% degli intervistati ha risposto che il responsabile è il reparto marketing. Un altro 19% ha indicato il reparto IT, mentre il 13% ha indicato come responsabile il team operativo. Per il 25% degli intervistati, invece, non c’era nessun reparto a guidare la strategia globale di IA della loro organizzazione. Circa 250 lettori di ADWEEK hanno partecipato al sondaggio online, che si è svolto dal 21 al 27 luglio. Più di due terzi degli intervistati hanno dichiarato di lavorare per un marchio o un’agenzia pubblicitaria. Più di ogni altra cosa, i marketer e gli inserzionisti hanno mostrato il timore di diventare irrilevanti o di essere messi da parte se non riuscissero a imparare a incorporare i nuovi strumenti di IA nel loro lavoro. Anche i licenziamenti del personale, la privacy dei dati e i problemi legati a pregiudizi ed etica sono in cima alla lista dei timori e delle preoccupazioni che i dipendenti nutrono per il fatto che l’IA diventi parte integrante della loro giornata lavorativa. Per quanto riguarda l’aiuto ai lavoratori per familiarizzare con l’IA, la maggior parte delle aziende non sembra farne una priorità. La maggior parte dei marketer e degli inserzionisti ha dichiarato che la propria azienda sta fornendo ai dipendenti una quantità minima o moderata di formazione e risorse sull’IA. Oltre il 20% ha dichiarato che la propria azienda non offre alcuna formazione sull’IA. Leggi di più su www.adweek.com

La Gen AI non fa alcuna differenza economica nel 95% dei casi, se non sai come usarla

La Gen AI non fa alcuna differenza economica nel 95% dei casi, se non sai come usarla

I titoli delle aziende statunitensi che si occupano di tecnologia AI sono scesi di valore alla chiusura delle contrattazioni di ieri, con l’indice NASDAQ Composite in calo dell’1,4%. Tra i titoli che hanno perso valore ci sono Palantir, in calo del 9,4% e Arm Holdings in calo del 5%. Secondo il Financial Times [paywall], martedì si è registrato il più grande calo di un giorno nel mercato dall’inizio di agosto. Alcuni trader attribuiscono il calo a un rapporto pubblicato [PDF] da una società di AI, NANDA, che ha rilevato l’alto tasso di fallimento di molti progetti di AI generativa nelle organizzazioni commerciali. Il progetto NANDA è nato presso il Media Lab del Massachusetts Institute of Technology e si descrive come un’organizzazione che sta costruendo una “rete agenziale” Il documento, dopo la pubblicazione, è stato messo dietro un muro di indagine, ma è disponibile per il download da questo sito. Gli autori della ricerca affermano che solo il 5% dei progetti pilota di intelligenza artificiale raggiunge la produzione e produce effettivamente un valore monetario misurabile, mentre la stragrande maggioranza dei progetti ha un impatto minimo sulle metriche di profitto e perdita. La ricerca intrapresa da NANDA comprende il contenuto di 52 interviste strutturate a responsabili decisionali aziendali, l’analisi da parte dei ricercatori di 300 iniziative e annunci pubblici sull’IA e un questionario di indagine compilato da 153 leader aziendali. L’indagine ha misurato il ritorno sull’investimento nei sei mesi successivi all’uscita dei progetti di IA dallo stato di pilota. Mentre molte organizzazioni implementano l’IA nelle funzioni aziendali di front-office o rivolte ai clienti, i progetti di successo tendono a trovarsi nei flussi di lavoro di back-office, si legge nel documento. È nelle attività banali del back-office che si registrano i risparmi, in gran parte dovuti a una minore necessità di agenzie di terze parti e BPO. L’indagine ha rilevato che i progetti di IA hanno avuto un impatto limitato sui livelli complessivi del personale interno. Sebbene il 90% del personale abbia dichiarato di aver tratto benefici personali dall’utilizzo di IA disponibili pubblicamente, in genere sotto forma di modelli linguistici di grandi dimensioni come ChatGPT, questi vantaggi soggettivi non si traducono a livello istituzionale. Circa il 40% delle aziende intervistate paga un abbonamento ai LLM. Molti dei titolari dei progetti falliti hanno citato la mancanza di consapevolezza contestuale dei modelli di IA generativa, ovvero la capacità di adattarsi alle circostanze, di cambiare nel tempo e di ricordare le richieste precedenti. NANDA afferma che la creazione di una partnership con un’organizzazione in grado di fornire un sistema di questo tipo e di garantire che si adatti alle circostanze specifiche di un’organizzazione è l’elemento critico per il successo. Il documento evidenzia diverse citazioni “derivate dalle interviste” che includono il 60%-70% di accordo con le affermazioni: “Il sistema di intelligenza artificiale non impara dai nostri feedback” e “È necessario un contesto troppo manuale ogni volta” Il settore più influenzato positivamente dall’intelligenza artificiale è quello dei media e delle telecomunicazioni, seguito dai servizi professionali, dalla sanità e dalla farmaceutica, dal settore dei beni di consumo e della vendita al dettaglio e dai servizi finanziari. Secondo il documento, il tasso di lancio di progetti di IA generativa nel settore dell’energia e dei materiali è attualmente trascurabile. In termini di unità aziendali, il settore vendite e marketing è quello in cui si concentra la maggior parte dei progetti, mentre il settore finanziario e degli approvvigionamenti è il meno gettonato come luogo in cui avviare progetti di IA. L’area di un’organizzazione tipica in cui l’IA generativa viene impiegata maggiormente è quella delle vendite e del marketing, mentre la finanza e gli approvvigionamenti sono i luoghi meno popolari. Inoltre, i compiti complessi sono quelli che meno ci si aspetta vengano portati a termine dall’IA; i manager assegnerebbero progetti come la gestione dei clienti a un’IA solo nel 10% dei casi, mentre compiti come la sintesi di un report o la scrittura di un’e-mail verrebbero affidati a un umano nel 70% dei casi. Il linguaggio del rapporto pubblicato e la sua mancanza di rigore accademico suggeriscono che la sua provenienza e il suo scopo sono più simili al marketing che alla discussione intellettuale e tecnologica. Gli autori del documento invitano a stringere partnership strategiche con un fornitore competente per aumentare le possibilità di successo dei progetti di IA generativa, una partnership di cui NANDA, per pura coincidenza, è in grado di costituire una metà. Nelle conclusioni del documento si legge che esistono “opportunità senza precedenti per i fornitori in grado di fornire sistemi di IA profondamente integrati e capaci di apprendere”. I titoli del rapporto NANDA sono una lettura preoccupante per i decisori incaricati di implementare l’IA generativa, ma i messaggi di fondo del documento sono indeboliti dalle intenzioni alla base della sua pubblicazione. I prezzi delle azioni di questa settimana potrebbero essere stati influenzati da sondaggi di parte di autori con evidenti interessi in gioco, ma sembra più probabile che la pubblicazione di NANDA rifletta semplicemente le preoccupazioni dei negozianti sull’efficacia pratica dell’IA generativa come strumento di business. (Fonte immagine: “Arthur Daley” di Tim Dennell con licenza CC BY-NC-ND 2.0) Leggi di più su www.artificialintelligence-news.com

La mascotte generata dall’intelligenza artificiale di Fiverr è costruita per essere il “sacco da boxe di Internet”

La mascotte generata dall'intelligenza artificiale di Fiverr è costruita per essere il "sacco da boxe di Internet"

Chiamala tradizione o abitudine, ma la cultura pop ha una lunga tradizione di amore o odio per i personaggi pubblicitari. Da Flo di Progressive all’uomo di Verizon fino all’uomo più interessante del mondo di Dos Equis, decenni di mascotte sono cresciute e cadute per mano del pubblico. L’ultima campagna di Fiverr mette un personaggio generato dall’intelligenza artificiale al centro di una nuova dinamica di amore-odio per il marchio. Il mercato dei freelance presenta Garry, che si ritrova involontariamente in varie calamità a causa del suo scetticismo nei confronti dell’IA. Creato con piattaforme video di AI generativa, tra cui Veo3 e Runway di Google, lo spot di 90 secondi ritrae Garry in scenari slapstick come un uccello che fa la cacca sulla sua auto, la moglie che lo lascia per un uomo vestito da hot dog e un uomo incastrato fino alla vita nel cemento. Altre scene fanno riferimento a recenti momenti virali come i meme misogini che affliggono le partite della WNBA e la sfida con i tacchi a spillo di Nicki Minaj su TikTok. “Sfrutteremo Garry come una sorta di sacco da boxe per internet”, ha dichiarato Matti Yahav, Chief Marketing Officer (CMO) di Fiverr, ad ADWEEK. Oltre all’annuncio del protagonista, il marchio invita le persone a inviare idee per le scene in cui Garry potrebbe apparire, offrendo di generarne una nuova per ogni 5.000 commenti che il video riceve su ogni piattaforma. Ad esempio, dopo la reunion di Love Island USA del 25 agosto, Garry sarà protagonista di una vignetta a tema villa. L’obiettivo del marchio è quello di mostrare gli strumenti dell’AI in tempo reale e di entrare nelle conversazioni culturali. “Volevamo trasmettere in questo video un’energia ad alta velocità e mostrare molte scene per creare la sensazione che sia incredibile ciò che abbiamo creato con l’IA”, ha detto Yahav. Una sfida alle agenzie Realizzata dal team creativo interno di Fiverr e da due registi freelance, Noam Sharon e Tal Rosenthal, la campagna prende di mira le agenzie di marketing tradizionali per promuovere la piattaforma di Fiverr come luogo in cui trovare talenti emergenti in grado di utilizzare l’intelligenza artificiale. Sharon e Rosenthal sono anche le menti creative dietro la recente pubblicità virale generata dall’intelligenza artificiale per Liquid Death. Fiverr non ha trovato Sharon e Rosenthal sulla sua piattaforma, ma il team si è poi iscritto, ha detto Yahav. L’utilizzo dell’intelligenza artificiale ha fatto risparmiare a Fiverr, secondo Yahav, che ha dichiarato che l’azienda ha speso circa il 10% del suo tipico budget di produzione per questo tipo di campagna. ” In genere avrei dovuto unire le forze con un’agenzia e una casa di produzione e investire centinaia di migliaia di dollari”, ha detto Yahav. “Come grande cliente sarei in grado di farlo rivolgendomi alle grandi agenzie, ma la maggior parte [delle piccole e medie imprese] ovviamente non ha la possibilità di farlo”

DeepSeek: La startup cinese che sfida la Silicon Valley

DeepSeek: La startup cinese che sfida la Silicon Valley

Il lancio della startup cinese DeepSeek ha provocato sconvolgimenti nel mercato e scosse nella Silicon Valley, mettendo in discussione alcuni dei presupposti fondamentali del funzionamento e della scalabilità delle aziende di intelligenza artificiale. In meno di un paio d’anni, la nuova azienda con sede a Pechino ha realizzato ciò che molti ritenevano impossibile: creare modelli di intelligenza artificiale in grado di competere con i giganti del settore, spendendo solo una frazione del budget dei concorrenti per insegnare ai modelli e dedurre le risposte. L’impatto al momento del lancio pubblico è stato immediato e misurabile. Secondo il South China Morning Post, i principali titoli tecnologici, tra cui Nvidia, Microsoft e Meta, hanno registrato cali significativi mentre gli investitori erano alle prese con le implicazioni dell’esistenza di DeepSeek. L’applicazione gratuita di assistente AI della startup per iOS e Android, lanciata il 10 gennaio, ha rapidamente scalato la vetta dell’App Store statunitense di Apple, scalzando ChatGPT di OpenAI e segnando una prima storica per un prodotto AI cinese nel mercato americano. L’aspetto particolarmente significativo è l’approccio tecnologico di DeepSeek. The Algorithmic Bridge riporta che l’azienda ha implementato diverse soluzioni innovative, tra cui la Multi-head Latent Attention (MLA) per ridurre i colli di bottiglia della memoria e la Group Relative Policy Optimisation (GRPO) per ottimizzare l’apprendimento per rinforzo. Questi progressi consentono a DeepSeek di ottenere risultati paragonabili o superiori a quelli dei concorrenti statunitensi utilizzando un numero di risorse significativamente inferiore. L’efficienza delle risorse dell’azienda è sorprendente: DeepSeek opera con meno di 100.000 GPU H100, mentre Meta impiegherà 1,3 milioni di GPU entro la fine del 2025. L’efficienza va oltre l’hardware. The Algorithmic Bridge suggerisce che l’approccio di DeepSeek rappresenta un miglioramento di dieci volte nell’utilizzo delle risorse se si considerano fattori come il tempo di sviluppo e i costi dell’infrastruttura. Tuttavia, la rapida ascesa nella coscienza degli utenti occidentali non è stata priva di difficoltà. Il South China Morning Post ha riportato che l’improvvisa popolarità di DeepSeek ha comportato un notevole stress infrastrutturale, con conseguenti crash dei server e problemi di cybersicurezza che hanno costretto a limitare temporaneamente le registrazioni. I problemi di crescita evidenziano le sfide del mondo reale legate alla scalabilità dei servizi di intelligenza artificiale, indipendentemente dall’efficienza dell’architettura. L’impegno dell’azienda per lo sviluppo open-source e la trasparenza della ricerca contrasta nettamente con gli approcci riservati delle principali aziende tecnologiche statunitensi. Per molti osservatori del settore, l’IA aperta e ospitata localmente potrebbe essere il modello di distribuzione preferito. L’azienda si è guadagnata le lodi di figure di spicco dell’industria tecnologica, tra cui il venture capitalist Marc Andreessen, che ha descritto gli sviluppi di DeepSeek come “una delle scoperte più sorprendenti e impressionanti” Le implicazioni politiche di questi eventi sono significative. Il Presidente degli Stati Uniti Donald Trump ha definito la nascita di DeepSeek come un “campanello d’allarme” per l’industria americana, riflettendo le preoccupazioni più ampie sulla concorrenza tecnologica tra Stati Uniti e Cina. Egli continua a combattere la concorrenza cinese nel campo della tecnologia, imponendo tariffe restrittive che hanno colpito ogni angolo del mondo. Tuttavia, la situazione trascende la semplice rivalità nazionale e rappresenta una sfida fondamentale per il pensiero consolidato sullo sviluppo dell’IA. In prospettiva, rimangono diverse domande chiave. L’approccio efficiente di DeepSeek è in grado di soddisfare la crescente domanda? Gli operatori già affermati hanno adattato le loro strategie per rispondere in modo efficace? L’azienda cinese ha dimostrato che l’efficienza algoritmica e la collaborazione aperta possono sostituire la potenza di calcolo grezza e la segretezza come motori principali del progresso dell’IA. L’interruzione del mercato dell’IA potrebbe in ultima analisi giovare all’intero settore, costringendo a rivalutare le pratiche consolidate e portando potenzialmente a metodi di sviluppo dell’IA più efficienti e accessibili. Sebbene i risultati ottenuti da DeepSeek siano notevoli da quando è diventata di dominio pubblico, è importante notare che le principali aziende tecnologiche statunitensi hanno rilasciato i propri progressi e che la volatilità del mercato nel settore tecnologico rimane elevata. Ciò che è chiaro è che DeepSeek ha introdotto una valida alternativa all’approccio ad alta intensità di capitale che ha dominato lo sviluppo dell’IA. Resta da vedere se questa diventerà il nuovo standard del settore o semplicemente una delle tante strategie di successo, ma l’impatto dell’azienda sul settore è già significativo. Foto di Markus Spiske)   Leggi di più su www.artificialintelligence-news.com

NVIDIA punta a risolvere i problemi dell’intelligenza artificiale con molti linguaggi

NVIDIA punta a risolvere i problemi dell'intelligenza artificiale con molti linguaggi

Sebbene l’intelligenza artificiale possa sembrare onnipresente, essa opera principalmente in una minima parte delle 7.000 lingue del mondo, lasciando indietro un’enorme porzione della popolazione globale. NVIDIA mira a risolvere questo evidente punto debole, in particolare in Europa. L’azienda ha appena rilasciato una nuova e potente serie di strumenti open-source per dare agli sviluppatori la possibilità di creare un’intelligenza artificiale vocale di alta qualità per 25 lingue europee diverse. Questo include le lingue principali, ma soprattutto offre un’ancora di salvezza a quelle spesso trascurate dalle grandi aziende, come il croato, l’estone e il maltese. L’obiettivo è quello di permettere agli sviluppatori di creare il tipo di strumenti vocali che molti di noi danno per scontati, dai chatbot multilingue che ti capiscono davvero ai bot del servizio clienti e ai servizi di traduzione che funzionano in un batter d’occhio. Il fulcro di questa iniziativa è Granary, un’enorme biblioteca del parlato umano. Contiene circa un milione di ore di audio, tutte curate per aiutare l’intelligenza artificiale a imparare le sfumature del riconoscimento vocale e della traduzione. Per sfruttare questi dati vocali, NVIDIA fornisce anche due nuovi modelli di intelligenza artificiale progettati per le attività linguistiche: Canary-1b-v2, un modello di grandi dimensioni costruito per garantire un’elevata precisione nei lavori di trascrizione e traduzione complessi. Parakeet-tdt-0.6b-v3, progettato per applicazioni in tempo reale in cui la velocità è fondamentale. Se vuoi approfondire la scienza che sta alla base, il documento su Granary sarà presentato alla conferenza Interspeech che si terrà nei Paesi Bassi questo mese. Per gli sviluppatori desiderosi di sporcarsi le mani, il set di dati ed entrambi i modelli sono già disponibili su Hugging Face. La vera magia, tuttavia, sta nel modo in cui questi dati sono stati creati. Sappiamo tutti che l’addestramento dell’intelligenza artificiale richiede grandi quantità di dati, ma ottenerli è di solito un processo lento, costoso e francamente noioso di annotazione umana. Per ovviare a questo problema, il team speech AI di NVIDIA, in collaborazione con i ricercatori della Carnegie Mellon University e della Fondazione Bruno Kessler, ha creato una pipeline automatizzata. Utilizzando il proprio toolkit NeMo, sono riusciti a prendere l’audio grezzo e non etichettato e a trasformarlo in dati strutturati di alta qualità da cui l’intelligenza artificiale può imparare. Non si tratta solo di un risultato tecnico, ma di un enorme passo avanti per l’inclusività digitale. Significa che uno sviluppatore di Riga o Zagabria può finalmente costruire strumenti di intelligenza artificiale alimentati dalla voce che comprendono correttamente le loro lingue locali. E possono farlo in modo più efficiente. Il team di ricerca ha scoperto che i dati di Granary sono così efficaci che per raggiungere un livello di accuratezza prefissato ne serve circa la metà rispetto ad altri set di dati popolari. I due nuovi modelli dimostrano questa potenza. Canary è una vera e propria bestia, in grado di offrire una qualità di traduzione e trascrizione in grado di competere con modelli tre volte più grandi, ma con una velocità fino a dieci volte superiore. Parakeet, invece, è in grado di analizzare la registrazione di una riunione di 24 minuti in un colpo solo, riuscendo a capire automaticamente la lingua parlata. Entrambi i modelli sono abbastanza intelligenti da gestire la punteggiatura, la capitalizzazione e da fornire timestamp a livello di parola, come richiesto per la creazione di applicazioni di livello professionale. Mettendo questi potenti strumenti e le metodologie che li supportano nelle mani della comunità globale degli sviluppatori, NVIDIA non si limita a rilasciare un prodotto. Sta dando il via a una nuova ondata di innovazione, sperando di creare un mondo in cui l’intelligenza artificiale parli la tua lingua, indipendentemente dalla tua provenienza. (Foto di Aedrian Salazar)   Leggi di più su www.artificialintelligence-news.com

Anthropic illustra la sua strategia di sicurezza AI

Anthropic illustra la sua strategia di sicurezza AI

Anthropic ha dettagliato la sua strategia di sicurezza per cercare di mantenere il suo popolare modello di AI, Claude, utile evitando di perpetuare i danni. Al centro di questo sforzo c’è il team Safeguards di Anthropic, che non è il solito gruppo di assistenza tecnica, ma un mix di esperti di policy, data scientist, ingegneri e analisti delle minacce che sanno come pensano i cattivi attori. Tuttavia, l’approccio di Anthropic alla sicurezza non è un singolo muro, ma piuttosto un castello con più livelli di difesa. Tutto inizia con la creazione delle regole giuste e termina con la caccia alle nuove minacce in libertà. La prima è la Politica d’uso, che in pratica è il regolamento per l’utilizzo di Claude. Fornisce indicazioni chiare su questioni importanti come l’integrità delle elezioni e la sicurezza dei bambini, ma anche sull’uso responsabile di Claude in settori sensibili come la finanza o la sanità. Per definire queste regole, il team utilizza un quadro di riferimento unificato per il danno. Questo li aiuta a riflettere sui potenziali impatti negativi, dai danni fisici e psicologici a quelli economici e sociali. Non si tratta di un sistema di classificazione formale, ma di un modo strutturato per valutare i rischi quando si prendono le decisioni. Per i Test di Vulnerabilità delle Politiche, inoltre, si rivolgono a esperti esterni. Questi specialisti in settori come il terrorismo e la sicurezza dei bambini cercano di “rompere” Claude con domande difficili per capire quali sono i punti deboli. Lo abbiamo visto in azione durante le elezioni americane del 2024. Dopo aver collaborato con l’Istituto per il Dialogo Strategico, Anthropic si è resa conto che Claude avrebbe potuto fornire vecchie informazioni di voto. Per questo ha aggiunto un banner che indirizzava gli utenti a TurboVote, una fonte affidabile di informazioni elettorali aggiornate e non di parte. Insegnare a Claude a distinguere il bene dal male Il team di Anthropic Safeguards lavora a stretto contatto con gli sviluppatori che addestrano Claude per garantire la sicurezza fin dall’inizio. Questo significa decidere quali sono le cose che Claude deve o non deve fare e incorporare questi valori nel modello stesso. Inoltre, collaborano con specialisti per ottenere il giusto risultato. Ad esempio, grazie alla collaborazione con ThroughLine, un’associazione di supporto alle crisi, hanno insegnato a Claude come gestire con cura le conversazioni delicate sulla salute mentale e l’autolesionismo, invece di rifiutarsi di parlare. Questo attento addestramento è il motivo per cui Claude rifiuta le richieste di aiuto per attività illegali, la scrittura di codice maligno o la creazione di truffe. Prima che ogni nuova versione di Claude diventi operativa, viene sottoposta a tre tipi di valutazione. Valutazioni di sicurezza: Questi test verificano se Claude rispetta le regole, anche nelle conversazioni più lunghe e complesse. Valutazioni del rischio: Per le aree ad alto rischio, come le minacce informatiche o i rischi biologici, il team esegue test specializzati, spesso con l’aiuto di partner governativi e industriali. Valutazioni dei pregiudizi: Si tratta di una questione di equità. Verificano se Claude fornisce risposte affidabili e accurate per tutti, verificando se ci sono pregiudizi politici o risposte distorte in base a fattori quali il sesso o la razza. Questi test intensivi aiutano il team a capire se la formazione ha funzionato e a capire se è necessario creare ulteriori protezioni prima del lancio. (Credit: Anthropic) La strategia di sicurezza dell’AI di Anthropic che non si addormenta mai Una volta che Claude è in giro per il mondo, un mix di sistemi automatici e revisori umani tiene d’occhio i problemi. Lo strumento principale è costituito da una serie di modelli specializzati di Claude chiamati “classificatori” che vengono addestrati per individuare in tempo reale specifiche violazioni della politica nel momento in cui si verificano. Se un classificatore individua un problema, può attivare diverse azioni. Ad esempio, potrebbe evitare che la risposta di Claude generi qualcosa di dannoso, come lo spam. Per i recidivi, il team potrebbe emettere avvisi o addirittura chiudere l’account. Il team guarda anche al quadro generale. Utilizza strumenti che rispettano la privacy per individuare le tendenze di utilizzo di Claude e impiega tecniche come la sintesi gerarchica per individuare abusi su larga scala, come le campagne di influenza coordinate. Sono costantemente alla ricerca di nuove minacce, scavando tra i dati e monitorando i forum in cui i malintenzionati potrebbero frequentarsi. Tuttavia, Anthropic sa che garantire la sicurezza dell’IA non è un lavoro che può fare da sola. Sta collaborando attivamente con i ricercatori, i politici e il pubblico per costruire le migliori protezioni possibili. (Immagine principale di Nick Fewings) Leggi di più su www.artificialintelligence-news.com

Senza regole, l’intelligenza artificiale rischia una “crisi di fiducia

Senza regole, l'intelligenza artificiale rischia una "crisi di fiducia

Il mondo sta correndo verso la diffusione dell’IA, ma una voce di spicco dell’etica tecnologica avverte che dare la priorità alla velocità rispetto alla sicurezza rischia di provocare una “crisi di fiducia” Suvianna Grecu, fondatrice della AI for Change Foundation, sostiene che senza una governance forte e immediata, ci stiamo avviando verso “l’automazione del danno su scala” Parlando dell’integrazione dell’IA nei settori critici, Grecu ritiene che il pericolo etico più pressante non sia la tecnologia in sé, ma la mancanza di struttura che ne circonda l’implementazione. I potenti sistemi stanno prendendo sempre più spesso decisioni che cambiano la vita, dalle domande di lavoro ai punteggi di credito, dall’assistenza sanitaria alla giustizia penale, spesso senza che vengano effettuati sufficienti test per verificare la presenza di pregiudizi o che venga preso in considerazione l’impatto a lungo termine sulla società. Per molte organizzazioni, l’etica dell’IA rimane un documento di principi elevati piuttosto che una realtà operativa quotidiana. Grecu insiste sul fatto che l’autentica responsabilità inizia solo quando qualcuno viene reso veramente responsabile dei risultati. Il divario tra le intenzioni e l’attuazione è il vero rischio. La fondazione di Grecu sostiene il passaggio da idee astratte ad azioni concrete. Ciò comporta l’inserimento di considerazioni etiche direttamente nei flussi di lavoro dello sviluppo attraverso strumenti pratici come le checklist di progettazione, le valutazioni obbligatorie dei rischi prima dell’implementazione e i comitati di revisione interfunzionali che riuniscono i team legali, tecnici e politici. Secondo Grecu, la chiave è stabilire una chiara responsabilità in ogni fase, creando processi trasparenti e ripetibili proprio come si farebbe per qualsiasi altra funzione aziendale principale. Questo approccio pratico cerca di far progredire l’IA etica, trasformandola da un dibattito filosofico in una serie di compiti quotidiani gestibili. Collaborare per creare fiducia nell’IA e mitigare i rischi Per quanto riguarda l’applicazione, Grecu è chiaro che la responsabilità non può ricadere solo sul governo o sull’industria. “Non si tratta di uno o dell’altro, ma di entrambi”, afferma Grecu, sostenendo la necessità di un modello collaborativo. In questa collaborazione, i governi devono stabilire i confini legali e gli standard minimi, soprattutto quando sono in gioco i diritti umani fondamentali. La regolamentazione fornisce la base essenziale. Tuttavia, l’industria possiede l’agilità e il talento tecnico per innovare al di là della semplice conformità. Le aziende sono nella posizione migliore per creare strumenti di controllo avanzati, sperimentare nuove salvaguardie e spingersi oltre i limiti che la tecnologia responsabile può raggiungere. Lasciare la governance interamente alle autorità di regolamentazione rischia di soffocare proprio l’innovazione di cui abbiamo bisogno, mentre lasciarla alle sole aziende invita all’abuso. “La collaborazione è l’unica strada sostenibile”, afferma Grecu. Promuovere un futuro orientato al valore Guardando oltre le sfide immediate, Grecu si preoccupa di rischi più sottili e a lungo termine che non ricevono sufficiente attenzione: la manipolazione emotiva e l’urgente necessità di una tecnologia orientata al valore. Man mano che i sistemi di intelligenza artificiale diventano più abili nel persuadere e influenzare le emozioni umane, Grecu avverte che non siamo preparati alle implicazioni che ciò comporta per l’autonomia personale. Un principio fondamentale del suo lavoro è l’idea che la tecnologia non sia neutrale. “L’intelligenza artificiale non sarà guidata dai valori, a meno che non li inseriamo intenzionalmente”, avverte l’autrice. È un’idea comunemente errata che l’IA rifletta semplicemente il mondo così com’è. In realtà, riflette i dati che le forniamo, gli obiettivi che le assegniamo e i risultati che premiamo. Senza un intervento deliberato, l’IA si ottimizzerà invariabilmente in base a parametri come l’efficienza, la scala e il profitto, non in base a ideali astratti come la giustizia, la dignità o la democrazia, e questo avrà naturalmente un impatto sulla fiducia della società. Per questo motivo è necessario uno sforzo consapevole e proattivo per decidere quali valori vogliamo che la nostra tecnologia promuova. Per l’Europa, questo rappresenta un’opportunità cruciale. “Se vogliamo che l’IA sia al servizio degli esseri umani (e non solo dei mercati), dobbiamo proteggere e incorporare valori europei come i diritti umani, la trasparenza, la sostenibilità, l’inclusione e l’equità a tutti i livelli: politica, progettazione e implementazione”, spiega Grecu. Non si tratta di fermare il progresso. Come conclude la Grecu, si tratta di prendere il controllo della narrazione e di “plasmarla attivamente prima che sia lei a plasmare noi” Attraverso il lavoro della sua fondazione – tra cui workshop pubblici e durante l’imminente AI & Big Data Expo Europe, dove Grecu presiede il secondo giorno dell’evento – sta costruendo una coalizione per guidare l’evoluzione dell’IA e aumentare la fiducia mantenendo l’umanità al centro. (Foto di Cash Macanaya)   Leggi di più su www.artificialintelligence-news.com

Le scienze umane sono fondamentali per il futuro dell’IA

Le scienze umane sono fondamentali per il futuro dell'IA

Un team di esperti ha lanciato una nuova iniziativa chiamata “Doing AI Differently” (Fare l’intelligenza artificiale in modo diverso), che richiede un approccio incentrato sull’uomo per lo sviluppo futuro. Per anni abbiamo trattato i risultati dell’IA come se fossero i risultati di un enorme problema matematico. Ma i ricercatori dell’Alan Turing Institute, dell’Università di Edimburgo, dell’AHRC-UKRI e della Lloyd’s Register Foundation che stanno dietro a questo progetto sostengono che questo è il modo sbagliato di vedere le cose. Ciò che l’intelligenza artificiale sta creando sono fondamentalmente artefatti culturali. Sono più simili a un romanzo o a un dipinto che a un foglio di calcolo. Il problema è che l’IA sta creando questa “cultura” senza comprenderne nulla. È come una persona che ha memorizzato un dizionario ma non ha idea di come tenere una vera conversazione. Ecco perché l’IA spesso fallisce quando “le sfumature e il contesto contano di più”, afferma il professor Drew Hemment, Theme Lead for Interpretive Technologies for Sustainability presso l’Alan Turing Institute. Il sistema non ha la “profondità interpretativa” necessaria per capire cosa si sta dicendo. Tuttavia, la maggior parte delle IA del mondo è costruita sulla base di una manciata di progetti simili. Il rapporto lo chiama “problema dell’omogeneizzazione” e lo sviluppo futuro dell’IA deve superarlo. Immagina se tutti i panettieri del mondo usassero la stessa identica ricetta. Si otterrebbero molte torte identiche e francamente noiose. Con l’IA, questo significa che gli stessi punti deboli, gli stessi pregiudizi e le stesse limitazioni vengono copiati e incollati in migliaia di strumenti che utilizziamo ogni giorno. Lo abbiamo visto accadere con i social media. Sono stati lanciati con obiettivi semplici e ora ne stiamo vivendo le conseguenze sociali indesiderate. Il team di “Doing AI Differently” sta lanciando un allarme per assicurarsi che non commettiamo lo stesso errore con l’intelligenza artificiale. Il team ha un piano per costruire un nuovo tipo di IA, che chiama IA interpretativa. Si tratta di progettare fin dall’inizio sistemi che funzionino come le persone: con ambiguità, punti di vista multipli e una profonda comprensione del contesto. La visione è quella di creare tecnologie interpretative in grado di offrire molteplici prospettive valide invece di una sola risposta rigida. Significa anche esplorare architetture di intelligenza artificiale alternative per rompere gli schemi attuali. La cosa più importante è che il futuro non prevede che l’IA ci sostituisca, bensì la creazione di ensemble umano-AI in cui lavoriamo insieme, combinando la nostra creatività con la potenza di elaborazione dell’IA per risolvere sfide enormi. Questo ha il potenziale di toccare le nostre vite in modi molto concreti. Nell’assistenza sanitaria, ad esempio, la tua esperienza con un medico è una storia, non solo un elenco di sintomi. Un’intelligenza artificiale interpretativa potrebbe aiutare a catturare questa storia completa, migliorando la tua assistenza e la tua fiducia nel sistema. Per quanto riguarda l’azione per il clima, potrebbe aiutare a colmare il divario tra i dati climatici globali e le realtà culturali e politiche uniche di una comunità locale, creando soluzioni che funzionino davvero sul campo. È in fase di lancio un nuovo bando di finanziamento internazionale per riunire ricercatori del Regno Unito e del Canada in questa missione. Ma siamo a un bivio. “Siamo in un momento cruciale per l’IA”, avverte il professor Hemment. “Abbiamo una finestra che si sta restringendo per costruire capacità interpretative da zero”. Per partner come la Lloyd’s Register Foundation, tutto si riduce a una cosa: la sicurezza. “In qualità di ente di beneficenza per la sicurezza globale, la nostra priorità è garantire che i futuri sistemi di intelligenza artificiale, qualunque forma assumano, siano utilizzati in modo sicuro e affidabile”, afferma il Direttore delle Tecnologie, Jan Przydatek. Non si tratta solo di costruire una tecnologia migliore. Si tratta di creare un’intelligenza artificiale che possa aiutarci a risolvere le nostre sfide più importanti e, nel contempo, ad amplificare le parti migliori della nostra umanità. (Foto di Ben Sweet) Leggi di più su www.artificialintelligence-news.com

Come R/GA ha usato l’intelligenza artificiale per realizzare un annuncio “impossibile”

Come R/GA ha usato l'intelligenza artificiale per realizzare un annuncio "impossibile"

All’inizio di quest’anno, R/GA ha ricevuto un compito arduo: creare un annuncio che sarebbe stato impossibile realizzare senza l’intelligenza artificiale generativa (AI). La sfida è arrivata da Google, che voleva mostrare le capacità del suo modello di video generativo, Veo. Per aumentare la pressione, il gigante tecnologico ha dato a R/GA solo quattro settimane per realizzare lo spot. “È stato un po’ terrificante”, ha dichiarato Nicholas Pringle, Chief Creative Officer EMEA di R/GA. Il risultato, presentato a giugno, è stato “From the Mountains to the City”, uno spot sperimentale creato con Veo e con il marchio di moda di lusso Moncler. Il cortometraggio ha scatenato una conversazione sui social media e ai Cannes Lions di quest’anno, dove Google lo ha mostrato a un gruppo di leader creativi. Sebbene la piattaforma avesse dei limiti, Pringle ha dichiarato che ha costretto il suo team a sviluppare un nuovo modo di lavorare e ha dimostrato quanto l’intelligenza artificiale sia avanzata in poco tempo. ADWEEK ha parlato con R/GA di come l’utilizzo dello strumento generativo abbia cambiato il processo creativo. Abbracciare la casualità Il cinema è un processo tipicamente lineare: dalla scrittura di una sceneggiatura e la creazione di uno storyboard alle riprese, al montaggio e alla post-produzione. “Non si vuole mai tornare indietro di un passo, perché è proibitivo dal punto di vista dei costi”, ha detto Pringle. Ma con l’IA il processo è diventato molto più fluido, ha osservato. Rimanere flessibili è stato essenziale, perché quando i creativi hanno richiesto Veo per ogni scena, non sempre ha prodotto ciò che avevano immaginato. Può essere “frustrante” quando non si riesce a generare una scena specifica, ha osservato Pringle. Ad esempio, Veo non è riuscito a renderizzare una scena in cui un uomo chiudeva una tenda. Ma in altre occasioni ha definito lo strumento “straordinario”, in quanto ha prodotto risultati inaspettati che si sono integrati nella narrazione, come le sculture di ghiaccio che compaiono nello spot finale. “In questo senso, l’IA diventa come un creatore, perché a volte la casualità della tecnologia ti presenta qualcosa che non avevi previsto”, ha detto Pringle. La realizzazione di filmati con l’intelligenza artificiale consente una “regia in tempo reale”, ha affermato Sadie Thoma, direttore del marketing di Google Ads. “Apre le porte alla creatività, perché non devi girare esattamente quello che c’è nello storyboard” Ma questa casualità e fluidità può essere una sfida per un cliente come Moncler, che ha standard elevati in quanto marchio di lusso, ha detto Pringle, aggiungendo che Moncler era comunque entusiasta di sperimentare la tecnologia. La creazione con Veo ha cambiato anche il processo di approvazione del cliente, perché “stai esprimendo la tua idea attraverso una scena che si muove e vive, quindi non c’è un momento di ‘ta-da’”, ha spiegato. “Devi avere una visione chiara” Creare un nuovo flusso di lavoro e affrontare le limitazioni L’adozione dell’intelligenza artificiale per questo progetto ha spinto R/GA a sviluppare un nuovo sistema interno di collaborazione. L’agenzia ha realizzato un’app chiamata Shot Flow, costruita con l’assistente AI di Google, Gemini, che è servita come “uno spazio di lavoro condiviso in cui potevamo decostruire ogni elemento di una scena”, ha detto Pringle. Poiché i membri del team hanno richiesto le loro versioni di Veo da uffici diversi, Shopflow ha aiutato a semplificare la collaborazione globale e a fornire risultati più coerenti, ha aggiunto. Nonostante questi rapidi progressi, gli strumenti di intelligenza artificiale presentano ancora notevoli limiti per i creativi. Pringle ha indicato la coerenza dei caratteri come la sfida più grande. Ha notato che nello spot Moncler di R/GA i personaggi cambiano sottilmente aspetto da una scena all’altra. Persistono anche difetti visivi come la cerniera distorta della tenda. I giganti della tecnologia come Google devono ancora risolvere completamente questi problemi. I problemi legali rappresentano un altro ostacolo. “C’è una grande limitazione nel quadro legale dell’utilizzo dell’IA a fini commerciali”, ha detto Pringle, sottolineando che i marchi e le agenzie stanno ancora imparando a evitare i rischi legati al copyright. Macchine umane Veo può aver accelerato il processo creativo di R/GA, ma non può sostituire la creatività umana, ha detto Pringle. Mentre il video è stato generato dall’AI, non lo è stata la colonna sonora, composta dal musicista Tom Gallo. Inoltre, la sceneggiatura, i suggerimenti e la direzione visiva sono opera di creativi che hanno apportato al progetto il loro gusto, la loro esperienza e il loro istinto narrativo. “La combinazione di tutti questi elementi ha fatto sì che sembrasse la visione di persone, non solo di una macchina”, ha detto Pringle. “C’è uno strumento che ci permette di creare, ma richiede ingegno umano, gusto, suggerimenti tattici e la comprensione di come sfruttare la tecnologia” Ai creativi che esitano a esplorare l’IA, Pringle ha consigliato di: “Entra in contatto con questi strumenti e inizia a giocarci, anche se in modo casuale. Prova a creare la tua prima cosa” Leggi di più su www.adweek.com

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

L’AI sembra il nuovo modo di far parte del mondo del marketing come proprietario di un’agenzia, giusto? Potresti essere uno sviluppatore, collaborare con un’agenzia, occuparti da solo della parte commerciale o essere un marketer. In ogni caso, c’è una strada da percorrere, ma solo se capisci quali sono le reali esigenze dei clienti. Questo blog spiega chiaramente: il modello di business che le agenzie di AI intelligenti stanno utilizzando, gli strumenti che funzionano e le strategie di prezzo che convincono i clienti a dire sì. Se hai intenzione di avviare un’agenzia di automazione AI, inizia da qui. Cosa c’è dentro Perché avviare un’agenzia di automazione AI nel 2025? Molti professionisti si stanno ponendo la stessa domanda in questo momento: È ancora abbastanza presto (e abbastanza intelligente) per avviare un’agenzia di automazione AI? La risposta breve è sì, e i motivi sono più pratici che di facciata. È ovvio che l’intelligenza artificiale non è più riservata ai piloti sperimentali o alle grandi aziende tecnologiche. Entro il 2025, si prevede che il mercato globale dell’intelligenza artificiale raggiungerà i 747,91 miliardi di dollari, con una parte significativa di questa crescita guidata dal supporto dell’intelligenza artificiale per la generazione di lead, l’assistenza ai clienti e l’automazione dei processi aziendali in vari settori. I dati relativi alle prestazioni confermano questo dato. Le aziende che integrano l’IA nella loro pubblicità riportano un miglioramento del 40% nei risultati delle campagne. Quando le aziende vedono questo tipo di efficienza, non tornano indietro: cercano partner che le aiutino a scalare. L’impatto dell’automazione non si limita al marketing. Secondo il McKinsey Global Institute, l’automazione potrebbe aumentare la produttività globale dello 0,8-1,4% all’anno. Si tratta senza dubbio di un guadagno significativo in un periodo di rallentamento della crescita del lavoro. Ciò che rende questo aspetto particolarmente interessante nel 2025 è l’accessibilità. Non è più necessario avere una profonda competenza ingegneristica per iniziare. Framework open-source come LangChain e AutoGen di Microsoft ti permettono di creare agenti personalizzati che gestiscono tutto, dagli aggiornamenti del CRM alle risposte automatiche; l’ideale per le startup, gli operatori in proprio o le agenzie in crescita che vogliono offrire soluzioni più sofisticate. Una buona notizia? Questi strumenti sono accessibili e utilizzabili. E i casi d’uso più importanti (generazione di lead, assistenza clienti ed esecuzione di campagne) sono proprio quelli in cui la maggior parte delle aziende ha bisogno di aiuto. Guida passo-passo: Come avviare un’agenzia di automazione AI Come abbiamo già detto, avviare un’agenzia di automazione AI significa offrire soluzioni “reali” ai problemi che le aziende affrontano quotidianamente, soprattutto in aree come la lead generation, l’assistenza clienti e le operazioni di vendita. Qui di seguito troverai una guida chiara e fattibile che ti spiegherà passo dopo passo come avviare un’agenzia di automazione AI. 1. Decidi la tua capacità tecnica: Sviluppatore, partner o nessuno La prima decisione importante è se tu o qualcuno del tuo team sia in grado di creare l’automazione. Ci sono tre punti di ingresso: Sei uno sviluppatore e puoi costruire i sistemi da solo. Collabori con uno sviluppatore per creare flussi di lavoro personalizzati. Esternalizzare lo sviluppo, il che potrebbe limitare la tua competitività se non puoi offrire soluzioni di automazione su misura. Non c’è bisogno di dirlo: se non hai dimestichezza con la codifica e non hai un partner tecnico, non sarai in grado di offrire soluzioni personalizzate o di creare sistemi pacchettizzati. E, ovviamente, questo può rendere la tua agenzia molto meno competitiva. (Questo aspetto è importante anche per l’avvio di un’agenzia di AI) Quindi, in questo caso, inizia a risolvere semplici compiti ripetitivi utilizzando Zapier, Make (Integromat) o integrazioni GPT precostituite prima di passare a soluzioni personalizzate basate su Python o LangChain. 2. Scegli una nicchia specifica per problemi reali Piuttosto che offrire “AI per tutti”, le agenzie di AI più forti iniziano risolvendo un problema specifico per un settore. Se hai già lavorato in un settore, sfrutta questa conoscenza interna per identificare i punti di attrito che l’IA può automatizzare. Nel suo video su YouTube, il noto marketer Bo Sar consiglia di diventare quello che lui chiama “un insider”, spiegando: Se hai lavorato in un settore e sai dove si trovano le inefficienze, è più facile comunicare la tua soluzione e venderla ai colleghi del settore. Quindi, prima di avviare un’agenzia di questo tipo, è bene fare un brainstorming dei colli di bottiglia operativi in diversi settori e convalidare questi problemi attraverso forum o interviste. Nel farlo, valuta le nicchie in base a: Volume di attività ripetibili, Affidamento esistente sugli strumenti digitali, Disponibilità a esternalizzare o a spendere per l’automazione. 3. Personalizza la tua offerta per risolvere un solo punto dolente Come per il punto 2, ti suggeriamo di evitare di proporre vantaggi generici per l’automazione. Al contrario, crea la tua offerta di servizi intorno a un singolo punto dolente per un singolo ICP (profilo di cliente ideale). Ad esempio, automatizzare le email di onboarding dei clienti per le aziende SaaS o semplificare la qualificazione dei lead per gli studi legali. Prima di creare qualcosa, assicurati che il problema esista e sia importante. Utilizza LinkedIn, Reddit o le ricerche a freddo per parlare con gli operatori della nicchia che hai scelto. Fai domande dirette: Quali processi ti fanno perdere tempo ogni giorno? Utilizzi qualche strumento di automazione? Quanto varrebbe una soluzione per la tua azienda? Questo è anche il momento in cui inizi a formulare le tue prime offerte. Più contesto fornisci nella tua offerta, maggiori sono le possibilità di risposta. Questo approccio non solo rende le email a freddo più pertinenti, ma accorcia anche il ciclo di vendita. 4. Costruisci una soluzione minima fattibile (MVS) Ora, risolvi un solo compito end-to-end utilizzando gli strumenti disponibili. Ad esempio: Automatizza le email di risposta ai lead per gli agenti immobiliari utilizzando GPT e Zapier. Crea un’integrazione con Google Sheets OpenAI Slack per riassumere gli aggiornamenti del CRM per i team di vendita. Non è necessaria una suite completa, ma solo un’automazione funzionale che dimostri che puoi risolvere un problema. A questo