Il Presidente Biden emette il primo Memorandum di Sicurezza Nazionale sull’IA

Il Presidente Biden ha emesso il primo National Security Memorandum (NSM) degli Stati Uniti sull’IA, che affronta il modo in cui la nazione affronta questa tecnologia dal punto di vista della sicurezza. Il memorandum, che si basa sul precedente ordine esecutivo di Biden sull’IA, si fonda sulla premessa che gli sviluppi all’avanguardia dell’IA avranno un impatto sostanziale sulla sicurezza nazionale e sulla politica estera nell’immediato futuro. Secondo gli esperti di sicurezza, le implicazioni si fanno già sentire. “L’IA ha già delle implicazioni per la sicurezza nazionale, poiché sappiamo che sempre più aggressori utilizzano l’IA per creare attacchi più massicci e complessi, soprattutto sul fronte dell’ingegneria sociale e della disinformazione”, afferma Melissa Ruzzi, Direttore dell’IA di AppOmni. L’NSM si prefigge tre obiettivi principali: stabilire la leadership degli Stati Uniti nello sviluppo sicuro dell’IA, sfruttare le tecnologie dell’IA per la sicurezza nazionale e promuovere quadri di governance internazionali. “I nostri concorrenti vogliono mettere a repentaglio la leadership statunitense nel campo dell’IA e hanno fatto ricorso allo spionaggio economico e tecnologico per rubare la tecnologia statunitense”, si legge nel memorandum, elevando la protezione delle innovazioni americane nel campo dell’IA a una “priorità di primo livello per l’intelligence” Il documento designa formalmente l’AI Safety Institute come principale punto di contatto governativo per l’industria dell’IA. L’istituto sarà composto da esperti tecnici e manterrà strette collaborazioni con le agenzie di sicurezza nazionale, tra cui la comunità di intelligence, il Dipartimento della Difesa e il Dipartimento dell’Energia. “Le azioni elencate nella nota sono ottimi punti di partenza per avere un quadro completo dello status quo e ottenere informazioni sufficienti per prendere decisioni basate sui dati, invece di saltare alle conclusioni e prendere decisioni basate su ipotesi vaghe”, spiega Ruzzi. Tuttavia, Ruzzi avverte che “i dati che devono essere raccolti sulle azioni non sono banali e, anche con i dati, saranno necessarie ipotesi e compromessi per il processo decisionale finale. Prendere decisioni dopo la raccolta dei dati è la grande sfida” In un’importante mossa per democratizzare la ricerca sull’IA, il memorandum rafforza il sostegno al programma pilota National AI Research Resource. Questa iniziativa mira a estendere le capacità di ricerca sull’IA al di là delle grandi aziende tecnologiche, alle università, alle organizzazioni della società civile e alle piccole imprese. L’NSM introduce il Framework to Advance AI Governance and Risk Management in National Security (PDF), che stabilisce linee guida complete per l’implementazione dell’IA nelle applicazioni di sicurezza nazionale. Queste linee guida prevedono rigorose procedure di valutazione del rischio e salvaguardie contro le violazioni della privacy, i pregiudizi, la discriminazione e i diritti umani. Le considerazioni sulla sicurezza occupano un posto di rilievo nel documento e Ruzzi ne sottolinea l’importanza: “La sicurezza informatica dell’IA è fondamentale: sappiamo che se l’IA è configurata in modo errato, può comportare rischi simili alle configurazioni errate delle applicazioni SaaS che causano l’esposizione di dati riservati” Sul fronte internazionale, il memorandum si basa sui recenti risultati diplomatici, tra cui il Codice di Condotta Internazionale sull’IA del G7 e gli accordi raggiunti ai vertici sulla sicurezza dell’IA di Bletchley e Seoul. In particolare, 56 nazioni hanno approvato la Dichiarazione politica sull’uso militare dell’IA e dell’autonomia, guidata dagli Stati Uniti. L’amministrazione Biden si è anche assicurata una vittoria diplomatica con l’approvazione della prima risoluzione dell’Assemblea Generale delle Nazioni Unite sull’IA, che ha ottenuto un sostegno unanime, compresa la co-sponsorizzazione della Cina. Il memorandum sottolinea il ruolo critico della produzione di semiconduttori nello sviluppo dell’IA, collegandosi al precedente CHIPS Act di Biden. Il memorandum prevede azioni volte a migliorare la sicurezza e la diversità della catena di fornitura dei chip, garantendo la leadership americana nelle infrastrutture informatiche avanzate. Quest’ultima iniziativa fa parte della più ampia strategia dell’amministrazione Biden-Harris per un’innovazione responsabile nel settore dell’IA, rafforzando l’impegno dell’America a mantenere la leadership tecnologica e a sostenere i valori democratici e i diritti umani. Leggi di più su www.artificialintelligence-news.com
Alcuni brand hanno disattivato TikTok Smart dopo prestazioni incoerenti

Alcuni brand hanno riscontrato che TikTok Smart, lanciato a ottobre, ha fornito prestazioni incoerenti. Altri hanno lamentato la mancanza di dati chiari sulle entrate, al di là delle metriche di base della campagna come le impressioni, le conversioni e il ritorno sulla spesa pubblicitaria, rendendo difficile la convalida della sua efficacia. “Non siamo a un punto in cui stiamo assistendo a grandi spostamenti di fondi da un canale diverso”, ha dichiarato Jack Johnston, senior social innovation director di Tinuiti. “Molti brand si sono resi conto che [Smart ] non è il proiettile d’argento a cui destinare il 100% degli investimenti [nei media] ” Da quando le piattaforme hanno iniziato a offrire strumenti di media buying basati sull’intelligenza artificiale, come Google Performance Max o Meta Advantage, i brand sono stati ampiamente contenti di ottenere una visibilità totale sulla visualizzazione dei loro annunci per migliorare l ‘efficienza. Ma le lamentele su questi strumenti “imposta e dimentica”, come la mancanza di trasparenza, la qualità dell’inventario o la distribuzione degli annunci al pubblico esistente,iniziano a farsi sentire. Con un numero sempre maggiore di piattaforme che lanciano questi strumenti, gli acquirenti stanno procedendo con maggiore cautela. Ma Smart, che automatizza l’intero processo di acquisto di annunci, dallo sviluppo creativo al targeting e all’ottimizzazione, ha comunque portato a guadagni di efficienza per alcuni brand, soprattutto per quanto riguarda l’aumento del ROAS e il raggiungimento di nuovi pubblici. La maggior parte dei clienti dell’agenzia di marketing digitale WPromote sta testando Smart per rivolgersi a gruppi demografici che non erano stati raggiunti in precedenza. Secondo David Dweck, svp, paid media di WPromote, alcuni marchi, in particolare le aziende DTC, hanno registrato un aumento del ROAS di quasi il 10% rispetto alle campagne tradizionali sulla piattaforma. “Stiamo riscontrando un ROAS simile o superiore per i clienti del settore retail e raggiungiamo un pubblico più ampio che non eravamo in grado di indirizzare”, ha dichiarato Dweck. TikTok non ha risposto con una dichiarazione ufficiale in tempo per la pubblicazione, ma ha condiviso che Ray-Ban ha utilizzato gli Smart Catalog Ads di TikTok – un formato in cui i marchi memorizzano le informazioni sui prodotti e generano automaticamente annunci su di essi – per ridurre il costo per acquisizione del 50% e aumentare le conversioni del 47%, aumentando il ROAS complessivo del 42%. Anche Good Protein ha registrato un ROAS superiore del 28% e un aumento del 21% dei pagamenti completati con gli annunci Smart rispetto agli annunci normali. Prestazioni in calo In Tinuiti, più di 10 clienti stanno testando Smart per campagne che convertono il pubblico a visitare un sito web. Questa spesa pubblicitaria proviene da budget già assegnati a Tiktok. Tuttavia, per la maggior parte dei brand, Google cattura la quota maggiore di dollari pubblicitari, seguito da Meta.
Anthropic esorta a regolamentare l’IA per evitare catastrofi

Anthropic ha evidenziato i potenziali rischi dei sistemi di IA e chiede una regolamentazione ben strutturata per evitare potenziali catastrofi. L’organizzazione sostiene che una regolamentazione mirata è essenziale per sfruttare i benefici dell’IA e al contempo mitigarne i pericoli. Man mano che i sistemi di IA si evolvono in capacità come la matematica, il ragionamento e la codifica, il loro potenziale uso improprio in aree come la cybersicurezza o persino le discipline biologiche e chimiche aumenta in modo significativo. Anthropic avverte che i prossimi 18 mesi sono cruciali per l’azione dei politici, poiché la finestra per una prevenzione proattiva si sta restringendo. In particolare, il Frontier Red Team di Anthropic sottolinea come i modelli attuali possano già contribuire a vari compiti legati all’offesa informatica e prevede che i modelli futuri saranno ancora più efficaci. Particolarmente preoccupante è il potenziale dei sistemi di intelligenza artificiale di esacerbare l’uso improprio di sostanze chimiche, biologiche, radiologiche e nucleari (CBRN). L’AI Safety Institute del Regno Unito ha scoperto che diversi modelli di IA possono ora eguagliare le competenze umane a livello di dottorato nel fornire risposte a richieste di informazioni di carattere scientifico. Per far fronte a questi rischi, Anthropic ha dettagliato la sua Responsible Scaling Policy (RSP ), rilasciata nel settembre 2023, come solida contromisura. La RSP prevede un aumento delle misure di sicurezza corrispondenti al livello di sofisticazione delle capacità dell’IA. Il quadro RSP è progettato per essere adattivo e iterativo, con valutazioni regolari dei modelli di IA che consentono di perfezionare tempestivamente i protocolli di sicurezza. Anthropic afferma di essersi impegnata a mantenere e migliorare la sicurezza attraverso varie espansioni del team, in particolare nei settori della sicurezza, dell’interpretabilità e della fiducia, assicurando la preparazione per i rigorosi standard di sicurezza stabiliti dal suo RSP. Anthropic ritiene che l’adozione diffusa di RSP in tutto il settore dell’IA, anche se principalmente volontaria, sia essenziale per affrontare i rischi dell’IA. Una regolamentazione trasparente ed efficace è fondamentale per rassicurare la società sull’adesione delle aziende di IA alle promesse di sicurezza. I quadri normativi, tuttavia, devono essere strategici, incentivando pratiche di sicurezza solide senza imporre oneri inutili. Anthropic immagina regolamenti chiari, mirati e adattivi ai paesaggi tecnologici in evoluzione, sostenendo che sono fondamentali per raggiungere un equilibrio tra la mitigazione dei rischi e la promozione dell’innovazione. Negli Stati Uniti, Anthropic suggerisce che la legislazione federale potrebbe essere la risposta definitiva alla regolamentazione dei rischi dell’IA, anche se, in caso di ritardo nell’azione federale, potrebbero essere necessarie iniziative guidate dagli Stati. I quadri legislativi sviluppati dai Paesi di tutto il mondo dovrebbero consentire la standardizzazione e il riconoscimento reciproco per sostenere un’agenda globale sulla sicurezza dell’IA, riducendo al minimo i costi di adesione alle normative nelle diverse regioni. Inoltre, Anthropic affronta lo scetticismo nei confronti dell’imposizione di regolamenti, sottolineando che regolamenti troppo ampi e incentrati su casi d’uso sarebbero inefficienti per i sistemi di IA generali, che hanno applicazioni diverse. Le normative dovrebbero invece riguardare le proprietà fondamentali e le misure di sicurezza dei modelli di IA. Pur coprendo ampi rischi, Anthropic riconosce che alcune minacce immediate, come i deepfakes, non sono al centro delle sue proposte attuali, poiché altre iniziative stanno affrontando questi problemi a breve termine. In definitiva, Anthropic sottolinea l’importanza di istituire regolamenti che stimolino l’innovazione piuttosto che soffocarla. L’onere iniziale della conformità, sebbene inevitabile, può essere ridotto al minimo grazie a test di sicurezza flessibili e accuratamente progettati. Un’adeguata regolamentazione può persino contribuire a salvaguardare gli interessi nazionali e l’innovazione del settore privato, proteggendo la proprietà intellettuale dalle minacce interne ed esterne. Concentrandosi sui rischi misurati empiricamente, Anthropic prevede un panorama normativo che non pregiudica né favorisce i modelli open o closed-source. L’obiettivo rimane chiaro: gestire i rischi significativi dei modelli di AI di frontiera con una regolamentazione rigorosa ma adattabile. Leggi di più su www.artificialintelligence-news.com
I leader del settore sostengono la definizione di AI open-source

L’Open Source Initiative (OSI) ha presentato un quadro di definizione per valutare se i sistemi di intelligenza artificiale possono essere classificati come open-source. L’annuncio della prima Open Source AI Definition (OSAID) è stato dato in occasione di All Things Open e segna il culmine di un ampio sforzo globale che si estende per diversi anni di ricerca, workshop internazionali e un processo di progettazione della comunità durato un anno. L’OSI – ampiamente riconosciuta come l’autorità definitiva in materia di definizioni open-source da individui, organizzazioni ed enti governativi di tutto il mondo – ha sviluppato il quadro di riferimento attraverso un’ampia collaborazione con gli stakeholder del settore. Questo quadro definisce il significato di IA open-source, insistendo sul fatto che gli stessi requisiti open-source si applicano a un sistema di IA completamente funzionale, a un modello, a pesi e parametri o ad altri elementi strutturali. Un sistema di IA open-source deve essere reso disponibile secondo termini che garantiscano quattro libertà essenziali: Utilizzare il sistema per qualsiasi scopo e senza dover chiedere il permesso. Studiare il funzionamento del sistema e ispezionare i suoi componenti. Modificare il sistema per qualsiasi scopo, anche per cambiare i suoi risultati. Condividere il sistema affinché altri lo utilizzino con o senza modifiche, per qualsiasi scopo. Queste libertà si applicano sia a un sistema completamente funzionante che a elementi discreti di un sistema. Un prerequisito per esercitare queste libertà è avere accesso al modulo preferito per apportare modifiche al sistema, che include informazioni dettagliate sui dati, il codice sorgente completo e i parametri del modello. “Il processo di co-progettazione che ha portato alla versione 1.0 della Open Source AI Definition è stato ben sviluppato, approfondito, inclusivo ed equo”, ha dichiarato Carlo Piana, presidente del consiglio di amministrazione di OSI. “Il consiglio direttivo è fiducioso che il processo abbia portato a una definizione che soddisfa gli standard dell’open-source come definiti nella definizione di open-source e nelle quattro libertà essenziali” Uno dei requisiti più significativi del quadro normativo è l’obbligo per i modelli open-source di fornire informazioni sufficienti sui dati di addestramento, garantendo che “una persona esperta possa ricreare un sistema sostanzialmente equivalente utilizzando gli stessi dati o dati simili”, secondo Ayah Bdeir, responsabile della strategia AI di Mozilla. Bdeir ha riconosciuto che, sebbene questo approccio non sia perfetto, rappresenta un compromesso pratico tra purezza ideologica e implementazione nel mondo reale. Ha suggerito che richiedere uno standard irrealisticamente elevato potrebbe rivelarsi controproducente per gli obiettivi dell’iniziativa. La Digital Public Goods Alliance (DPGA) ha espresso il proprio sostegno alla leadership dell’OSI nella definizione dell’IA open-source. Liv Marte Nordhaug, CEO del segretariato della DPGA, ha confermato che la sua organizzazione incorporerà questo lavoro fondamentale negli aggiornamenti del suo Digital Public Goods Standard per le applicazioni di IA. Anche l‘EleutherAI Institute, noto per il suo lavoro no-profit nello sviluppo dell’IA, ha approvato la definizione. “La definizione di IA open source è un passo necessario per promuovere i vantaggi dei principi open source nel campo dell’IA”, ha dichiarato Stella Biderman, direttore esecutivo dell’EleutherAI Institute. “Crediamo che questa definizione sostenga le esigenze dei ricercatori indipendenti di apprendimento automatico e promuova una maggiore trasparenza tra i maggiori sviluppatori di IA” La definizione sottolinea l’importanza di includere informazioni sui dati e sul codice quando si condividono modelli e pesi open-source. Questi requisiti garantiscono la trasparenza e la possibilità di modificare il sistema di IA. Il direttore esecutivo dell’OSI Stefano Maffulli ha riconosciuto le sfide affrontate durante il processo di sviluppo, sottolineando che, nonostante gli occasionali scambi di opinioni e le divergenze, il risultato finale è in linea con gli obiettivi iniziali del progetto. “Questo è un punto di partenza per uno sforzo continuo di coinvolgimento delle comunità per migliorare la definizione nel tempo”, ha dichiarato. L’OSAID non richiede un meccanismo legale specifico per garantire che i parametri del modello siano liberamente disponibili a tutti, anche se potrebbe comportare licenze o strumenti legali. Ci si aspetta che questo aspetto diventi più chiaro nel corso del tempo, man mano che il sistema legale si occuperà di questi sistemi di intelligenza artificiale open-source. Leggi di più su www.artificialintelligence-news.com
Perplexity costruisce silenziosamente un’esperienza di shopping alimentata dall’intelligenza artificiale

La startup Perplexity, sostenuta da Jeff Bezos, sta prendendo di mira l’e-commerce. Secondo un’e-mail interna ottenuta da ADWEEK, Perplexity sta invitando gli utenti a ottenere l’accesso anticipato alla sua nuova funzione, denominata “Pro Shop”, che consente di ricercare e acquistare prodotti da vari commercianti direttamente sulla sua piattaforma. La funzione Pro Shop promette la spedizione gratuita sugli articoli acquistati tramite Perplexity, consentendo ai clienti di completare le transazioni senza lasciare la piattaforma. Durante la ricerca dei prodotti, gli utenti noteranno un’opzione “Acquista con Pro” per gli articoli idonei. Dopo averla selezionata, dovranno inserire i dati di fatturazione e spedizione per finalizzare l’acquisto. Perplexity valuterà le tasse e acquisterà il prodotto per conto degli utenti su Pro Shop e gli utenti potranno seguire lo stato dell’acquisto sulla piattaforma. Con questa mossa, la startup sostenuta da Bezos, che punta a raddoppiare la sua valutazione fino a superare gli 8 miliardi di dollari, si tuffa nello spazio competitivo della vendita al dettaglio, mettendo gli occhi su giganti come Amazon e Google Shopping. Tuttavia, questo non è un territorio del tutto nuovo per l’azienda. Perplexity ha già sfidato Google con il suo motore di ricerca alimentato dall’intelligenza artificiale e, secondo quanto riferito, sta negoziando con grandi marchi come Nike per il suo modello di annunci “domande sponsorizzate”. Perplexity non ha risposto a una richiesta di commento sui dettagli di Pro Shop, come ad esempio i partner commerciali. “Si tratta di un passo davvero importante per Perplexity, una piccola azienda che sta cercando di farsi strada nel settore della ricerca AI”, ha dichiarato Debra Aho Williamson, fondatrice e analista capo di Sonata Insights. “Le aziende di e-commerce hanno difficoltà in questo campo, figuriamoci una startup come Perplexity” Mentre l’azienda si prepara a introdurre gli annunci pubblicitari sulla sua piattaforma nel quarto trimestre, la posta in gioco è alta per Perplexity, che deve dimostrare il suo valore in un mercato sempre più affollato. Il tempo ci dirà quali commercianti collaboreranno con l’azienda per il Pro Shop e se l’acquisto di annunci migliorerà la visibilità del commerciante all’interno del negozio o aumenterà il coinvolgimento. Di più su www.adweek.com
La ricerca ChatGPT di OpenAI diventa operativa

ChatGPT entra ufficialmente nell’arena della ricerca. Giovedì OpenAI ha aggiunto un motore di ricerca alimentato dall’intelligenza artificiale direttamente all’interno del suo popolare chatbot, ChatGPT. Questa mossa consente a ChatGPT di competere con strumenti affermati come Google Search, Microsoft Bing e la startup di San Francisco Perplexity. Il “ChatGPT Search” di OpenAI fornirà risposte utilizzando informazioni aggiornate dal web, tra cui notizie, quotazioni azionarie e risultati sportivi, con tanto di link alle fonti pertinenti, come si legge in un post sul blog che annuncia l’aggiornamento. Ad esempio, se un utente chiede dove andare a cena nella sua città, ChatGPT genererà un elenco di ristoranti, con dettagli sulla posizione e sui prezzi ricavati da siti web, oltre a link ad articoli per ulteriori informazioni. 🌐 Presentazione della ricerca di ChatGPT 🌐 ChatGPT è ora in grado di effettuare ricerche sul web in modo molto migliore rispetto al passato, in modo che tu possa ottenere risposte rapide e tempestive con link a fonti web pertinenti.https://t.co/7yilNgqH9T pic.twitter.com/z8mJWS8J9c – OpenAI (@OpenAI) 31 ottobre 2024 Il chatbot “cercherà automaticamente sul web in base alle tue domande”, ha dichiarato OpenAI nel suo post sul blog. Allo stesso tempo, gli utenti possono anche attivare manualmente una ricerca sul web cliccando sull’icona di ricerca all’interno della chat. OpenAI ha iniziato il beta-testing della funzione di ricerca, inizialmente chiamata SearchGPT, a luglio con 10.000 utenti. Come si evolve la situazione L’intelligenza artificiale sta reimmaginando il panorama della ricerca, con operatori come Perplexity e Google AI Overview che offrono risultati basati sull’intelligenza artificiale. Nel frattempo, gli esperti di marketing stanno adattando le loro strategie per posizionarsi in questi formati di ricerca in evoluzione. Sebbene la gara per il dominio sia ancora aperta, la recente integrazione della ricerca da parte di OpenAI direttamente in ChatGPT rappresenta una mossa coraggiosa per catturare l’attenzione degli utenti e influenzare le loro abitudini. “Trovo che sia un modo molto più veloce/facile per ottenere le informazioni che sto cercando”, ha dichiarato Sam Altman, CEO di Open AI, in un Reddit AMA di giovedì. “Penso che vedremo questo fenomeno, soprattutto per le ricerche più complesse. Mi aspetto anche un futuro in cui una query di ricerca possa restituire dinamicamente una pagina web personalizzata in risposta!” Secondo OpenAI, ChatGPT vanta oltre 250 milioni di utenti attivi mensili e da giovedì gli abbonati a ChatGPT Plus (che pagano 20 dollari al mese) potranno accedere alla nuova ricerca. OpenAI prevede di estendere questa funzione agli utenti gratuiti nei prossimi mesi. Editori come The Associated Press e Condé Nast stanno lavorando con OpenAI al nuovo prodotto di ricerca. Nel frattempo, il New York Times ha intentato una causa contro OpenAI e Microsoft per violazione del copyright relativo ai contenuti giornalistici utilizzati nei sistemi di intelligenza artificiale. Resta da vedere se la nuova funzione ChatGPT ridefinirà la ricerca o modificherà l’equilibrio competitivo. Leddi di più su www.adweek.com
dopo 30 campagne di intelligenza artificiale, Klarna ha ridotto la spesa annuale per il marketing del 12%

L’azienda svedese Klarna ha lanciato quest’anno quasi 30 campagne di marketing di attualità interamente create dall’IA generativa, utilizzando la tecnologia per generare idee, scrivere testi e creare immagini. Sebbene si sia parlato molto del fatto che gli strumenti di IA aumentano l’efficienza, l’azienda sta anche scoprendo che queste campagne sono più efficaci. Queste campagne, spesso legate a eventi come la Festa della Mamma, il Black Friday e il Back to School, si concentrano su attività ad alto volume e che richiedono molto tempo, come la produzione di annunci per più mercati e lingue. “Abbiamo eliminato molte delle attività ingombranti, costose e banali del marketing”, ha dichiarato il responsabile marketing David Sandstorm. “Storicamente dovevamo pagare un’agenzia o un artista per dare vita a queste idee. Abbiamo risparmiato milioni solo su questo processo di ideazione” In passato, Klarna si affidava ad agenzie di produzione e traduzione per realizzare un numero simile di campagne di alta qualità, spesso volando in luoghi lontani come il Sudafrica per catturare le immagini giuste. Ora, l’azienda fintech si affida all’intelligenza artificiale per sviluppare idee – che afferma essere ancora radicate nell’intuizione umana – e trasformarle in immagini e contenuti per le campagne che guidano la produzione. In questo modo, Klarna ha ridotto le spese di vendita e marketing del 12% all’anno, ha dichiarato l’azienda ad ADWEEK. Secondo Sandstorm, questo approccio ha permesso a Klarna di espandersi in mercati come l’Austria con meno personale e a costi inferiori. Un tester precoce Klarna ha iniziato a testare la gen AI poco dopo il lancio di ChatGPT nel novembre 2022. A maggio, ha annunciato a una riduzione di 6 milioni di dollari dei costi di produzione delle immagini, pur realizzando un maggior numero di campagne e aggiornando più frequentemente i materiali di marketing. L’azienda ha tagliato le spese di vendita e marketing dell’11% nel primo trimestre del 2024 e l’intelligenza artificiale ha rappresentato il 37% dei risparmi, pari a 10 milioni di dollari all’anno. A maggio, Klarna ha anche dichiarato di aver ridotto del 25% le spese per le agenzie esterne, tra cui agenzie di traduzione, produzione, CRM e social, con un risparmio di 4 milioni di dollari. Strumenti come Midjourney e DALL-E hanno contribuito a una riduzione di 1,5 milioni di dollari solo nel primo trimestre del 2024. Parlando con il Financial Times ad agosto, Klarna ha dichiarato di avere in programma di tagliare la propria forza lavoro del 50% nei prossimi anni, riducendo l’organico da 3.800 a 2.000 dipendenti. Anche se i licenziamenti non sono ancora stati attuati, l’amministratore delegato Sebastian Siemiatkowski ha affrontato le critiche in un post archiviato su X per essersi vantato di come la generazione di immagini tramite AI con un team di marketing più piccolo abbia giocato un ruolo chiave nella riduzione dei costi. Sandstrom ha dichiarato ad ADWEEK che la riduzione del team di marketing di Klarna è in parte dovuta alle crescenti capacità dell’AI e che ulteriori tagli potrebbero seguire con il continuo progresso dell’AI. La strategia di Klarna sta dando risultati, almeno per ora. L’azienda ha registrato un aumento del 27% dei ricavi per la prima metà del 2024 rispetto allo stesso periodo del 2023, secondo i risultati del primo semestre di agosto. Aumentare le conversioni Il valore della Gen AI non si limita al risparmio sui costi, ma sta portando a risultati migliori per l’azienda fintech, creando annunci più pertinenti. Klarna ha utilizzato l’intelligenza artificiale per le campagne che informano i clienti sulle sue opzioni di pagamento. Secondo Sandstrom, questi annunci hanno registrato un aumento del 300%-400% dei tassi di click-through, mentre i tassi di click-through delle e-mail sono passati dallo 0,5% al 2%, rispetto alle campagne precedenti senza alcun contributo dell’AI. “Non è necessario vincere un Leone di Cannes per la campagna della Festa della Mamma”, ha dichiarato. La prossima grande scommessa: l’AI voice-over Mentre OpenAI è il partner fondamentale di Klarna per la generazione di testi, l’azienda utilizza un mix di piattaforme come DALL-E, Leonardo e Adobe Firefly per la creazione di immagini e Topaz Gigapixel e Photoroom per le regolazioni finali. Klarna ha anche stretto una partnership con la piattaforma di intelligenza artificiale vocale Eleven Labs per ottimizzare i doppiaggi delle sue campagne globali. “Quello che abbiamo fatto ora con Eleven Labs e la possibilità di sostituire i doppiatori è il prossimo sviluppo significativo per noi”, ha detto Sandstrom. La tecnologia consente a Klarna di mantenere una voce coerente del marchio in diversi mercati, eliminando la necessità di traduzioni costose e laboriose. Solo gli esseri umani possono creare idee nuove Nonostante questi progressi, Klarna ha scoperto che l’intelligenza artificiale è ancora in difficoltà con alcuni compiti creativi. Le campagne ad alta concezione e che definiscono il marchio rimangono una sfida per l’IA, in particolare nella pubblicità esterna. “Per mesi abbiamo cercato di far sì che l’intelligenza artificiale creasse una fantastica campagna pubblicitaria, ma non ci è riuscita. Tutto diventa insipido, noioso o non proprio in linea con il marchio”, ha dichiarato Sandstorm, sottolineando che la creatività umana rimane fondamentale per generare idee fresche e distintive. Le grandi campagne creative di Klarna, come quella per le vacanze con Shaquille O’Neal, si basano ancora molto sull’ingegno umano. “Quando si tratta di grandi campagne creative, non abbiamo ancora capito come l’intelligenza artificiale possa aiutarci a creare un’idea”, ha detto Sandstorm. Leggi di più su www.adweek.com
Gli strumenti di intelligenza artificiale di ThredUp stimolano un maggior numero di visite di ritorno e di acquisti

I recenti strumenti di intelligenza artificiale generativa di ThredUp– tra cui la ricerca visiva e il chatbot Style Chat, entrambi lanciati ad agosto – stanno aumentando le visite e le rivisitazioni dell’app. La scorsa settimana, in occasione di Shoptalk Chicago 2024, l’azienda ha spiegato che le persone che utilizzano queste funzioni di intelligenza artificiale hanno maggiori probabilità di effettuare un acquisto. La ricerca visiva consente alle persone di scattare un’istantanea dell’oggetto che stanno cercando. Il chatbot Style Chat, alimentato dall’intelligenza artificiale, consente alle persone di cercare occasioni, estetica, tempo o stili specifici, inducendo i clienti a utilizzare descrizioni più creative come “cottage core” e “goth” “Questo cambiamento riflette il modo in cui le persone acquistano oggi, allontanandosi dai filtri tradizionali”, ha dichiarato Tess Kornfield, vicepresidente del settore Product & Data Science di ThredUp. “Non usano filtri pratici come il prezzo o l’accessibilità” Gli strumenti di intelligenza artificiale di ThredUp consentono agli acquirenti di esplorare 4 milioni di articoli di 60.000 marchi. Nel secondo trimestre, gli acquirenti attivi su ThredUp sono 1,7 milioni. La ricerca visiva è uno degli elementi dell’intelligenza artificiale che sta ridefinendo l’esperienza di ricerca. Poshmark ha appena aggiornato la sua Posh Lens. Google ha aggiornato le sue Google Lens questo mese, TikTok ha introdotto la ricerca visiva nelle sue funzioni di shopping quest’estate e Pinterest, uno dei primi operatori in questo settore, ha mantenuto la ricerca visiva al centro della sua attività per anni. ThredUP ha pubblicizzato la ricerca visiva AI e il chatbot nella sua campagna “Find Anything” lanciata ad agosto. “Queste funzioni sono davvero potenti per aumentare le visite e il coinvolgimento”, ha dichiarato Kornfield. “Abbiamo scoperto che i clienti hanno quattro volte più probabilità di effettuare un acquisto se utilizzano una di queste funzioni AI e che i nuovi clienti, in particolare, hanno il 55% in più di probabilità di tornare nei sette giorni successivi se utilizzano una di queste funzioni” Kornfield ha notato che il 50% delle ricerche dei nuovi clienti ora coinvolge elementi visivi, rispetto al 25% degli utenti che ritornano. Da quando ha implementato la ricerca visiva, l’azienda ha registrato una diminuzione del 60% delle query a vuoto, ovvero quelle in cui la ricerca di un acquirente non ha prodotto alcun articolo. Sebbene i rivenditori utilizzino gli strumenti di intelligenza artificiale per migliorare il servizio clienti, un recente sondaggio condotto da IBM su 20.000 consumatori in 26 paesi ha rivelato che solo un terzo è soddisfatto delle proprie esperienze con chatbot e assistenti virtuali, e quasi il 20% è talmente insoddisfatto che non utilizzerebbe mai più questi strumenti. Anche gli economisti sono scettici e il presidente della Fed Jerome Powell ha suggerito che i miglioramenti significativi dell’intelligenza artificiale sono ancora lontani. “La nostra sfida continua è quella di aiutare le persone a trovare tutti i marchi di nicchia a cui sono interessate, offrendo allo stesso tempo un’ottima esperienza di ricerca”, ha dichiarato Kornfield. “Questo dimostra che abbiamo ancora molte opportunità di far crescere il nostro pubblico utilizzando queste funzioni di intelligenza artificiale generativa” Di più su www.adweek.com
I dirigenti di Google e Microsoft parlano dell’alfabetizzazione all’intelligenza artificiale e dell’uso responsabile dell’AI

Secondo Sarah Kennedy, vp of global demand and growth marketing di Google Cloud, “siamo nel bel mezzo di una rivoluzione” per quanto riguarda le possibilità dell’intelligenza artificiale nel marketing. Ma con l’aumento dell’utilizzo dell’IA nelle aziende, sono aumentate anche le preoccupazioni di clienti e committenti che esitano a fidarsi dei sistemi automatizzati delle aziende per quanto riguarda le loro informazioni. Kennedy e Buddy Phillips, direttore senior dell’abilitazione alle vendite e responsabile dell’IA di Microsoft, sono intervenuti in sessioni consecutive alla conferenza ANA Masters of Marketing di Orlando per parlare dell’alfabetizzazione e dell’uso responsabile dell’IA. In qualità di produttori e consumatori di IA, i giganti tecnologici hanno incoraggiato i marketer presenti ad adottare schemi responsabili per l’implementazione della tecnologia nelle attività quotidiane, sia per alleggerire il carico di lavoro dei dipendenti che per creare fiducia nei clienti. Alfabetizzazione all’IA L’automazione ha reso i team più efficienti per decenni, ma il team di Kennedy di Google sta iniziando a esplorare il modo in cui l’IA può facilitare i compiti dei dipendenti in modo che l’azienda possa concentrarsi maggiormente sui clienti. Google conduce un’indagine trimestrale autodichiarata per valutare l’impatto dell’IA sulla produttività della forza lavoro. Quasi la metà dell’azienda partecipa al sondaggio e il 45% degli intervistati ha dichiarato di risparmiare fino a cinque ore a settimana utilizzando l’IA, quasi il doppio dal secondo al terzo trimestre, secondo Kennedy. Questo tempo viene riallocato per concentrarsi sui clienti o semplicemente per alleggerire il carico di lavoro. Tuttavia, poiché l’IA diventa sempre più diffusa e accessibile, l’alfabetizzazione è fondamentale. I marketer dovrebbero adottare un approccio basato su tentativi ed errori e “l’umiltà di imparare un nuovo spazio e un nuovo set di strumenti”, ha affermato Kennedy. “Uno dei nostri obblighi più importanti, per coloro che sono leader e manager dei propri team, è quello di rendere i propri [talenti] il più possibile occupabili nel corso della loro carriera, aggiornandoli e investendo nel loro sviluppo”, ha affermato Kennedy. Per prendere decisioni rapide ma informate sull’uso dell’IA, Google ha creato un comitato direttivo composto da dirigenti che hanno l’autorità di prendere decisioni sulle politiche relative all’IA – un modello che Kennedy ha detto che altre aziende dovrebbero adottare. “Il valore della tecnologia non è creato dai suoi inventori, ma è sbloccato dai suoi utenti”, ha dichiarato Ha inoltre incoraggiato gli esperti di marketing a condividere le idee tra di loro per capire come gli altri settori utilizzano l’IA. “Siamo tutti su un piano di parità”, ha detto. “Tutti stanno imparando e dobbiamo capire come condividerlo insieme” IA responsabile Phillips di Microsoft ha affermato che quando si parla di utilizzo dell’IA, la fiducia deve essere guadagnata. Secondo l’Università del Queensland e KPMG, il 73% delle persone è preoccupato per i rischi dell’IA, mentre il 75% si fiderà dell’IA se le aziende dimostreranno di utilizzare la tecnologia in modo responsabile. Philips ha incoraggiato le aziende a mettere in pratica la struttura dell’IA per guadagnarsi la fiducia di clienti e committenti. Ha sottolineato che, secondo PwC, solo l’11% dei dirigenti dichiara di aver implementato capacità fondamentali di IA responsabile nel tentativo di creare fiducia con i clienti. Per implementare l’IA in modo responsabile, Phillips ha affermato che le aziende devono considerare lo scopo del loro utilizzo dell’IA, le capacità e le responsabilità tecniche e gli usi sensibili. “Ricorda: approccio sociotecnico e incentrato sull’uomo”, ha detto. Ha aggiunto che i principi dell’IA di Microsoft sono supportati da “trasparenza e responsabilità” L’anno scorso, l’azienda ha annunciato il suo Copilot Copyright Commitment. In sostanza, se un cliente viene citato in giudizio per violazione del copyright per aver utilizzato i suoi servizi Copilot, l’azienda lo difenderà e pagherà l’importo di eventuali sentenze o risarcimenti negativi derivanti dalla causa. “Vogliamo che il problema sia nostro e non loro”, ha dichiarato Phillips. Leddi di più su www.adweek.com
L’intelligenza artificiale aiuta i brand a evitare le partnership controverse con gli influencer

Le collaborazioni con gli influencer possono essere ottime per i brand che cercano di diffondere contenuti che promuovano i loro prodotti e servizi in modo autentico. Questo tipo di collaborazioni può portare a un aumento significativo della notorietà e del sentiment del marchio, ma può anche essere rischioso. Le star dei social media sono imprevedibili nei momenti migliori e molte di loro sono deliberatamente a caccia di polemiche per aumentare la propria fama. Queste buffonate non sempre si riflettono positivamente sui marchi che collaborano con influencer particolarmente assetati di attenzione, per cui i responsabili del marketing non hanno altra scelta se non quella di condurre un’attenta due diligence sulle persone con cui collaborano. Fortunatamente, questo compito può essere reso molto più semplice grazie all’evoluzione dell’intelligenza artificiale. Lightricks, un’azienda di software nota soprattutto per i suoi strumenti di editing di immagini e video basati sull’intelligenza artificiale, sta ampliando ancora una volta le capacità dell’intelligenza artificiale della sua suite con l’annuncio, questa settimana, di SafeCollab. SafeCollab è un nuovo strumento per i marketer che automatizza il processo di selezione degli influencer, un modulo di selezione degli influencer alimentato dall’intelligenza artificiale che si trova all’interno della piattaforma di collaborazione con i creatori Popular Pays dell’azienda. Tradizionalmente, i marketer non hanno avuto altra scelta se non quella di passare ore a ricercare il background degli influencer, esaminando anni di video caricati e post sui social media. Si tratta di un processo lungo e manuale che può essere automatizzato solo con strumenti intelligenti. SafeCollab fornisce questa intelligenza con i suoi modelli linguistici di base, che si occupano di indagare sugli influencer per assicurarsi che l’immagine che rappresentano sia coerente con i valori del marchio. I LLM eseguono in pochi minuti una valutazione del rischio dei contenuti dei creatori su più canali di social media, cercando tra ore di video, upload audio, immagini e testi. In questo modo, SafeCollab riduce significativamente il tempo necessario ai brand marketer per eseguire la due diligence sugli influencer dei social media con cui stanno pensando di collaborare. Allo stesso modo, quando i creatori si iscrivono a SafeCollab, rendono più facile per i responsabili marketing comprendere le implicazioni per la sicurezza del marchio derivanti dalla collaborazione, riducendo l’attrito del ciclo di vita delle campagne. I brand non possono correre rischi L’idea è quella di dare ai brand marketer la possibilità di evitare di lavorare con creatori i cui contenuti non sono in linea con i valori del brand, così come con quelli che hanno la tendenza a scatenare una tempesta. La due diligence è fondamentale, perché anche gli influencer più innocui possono avere qualche scheletro nell’armadio. Un esempio è la popolare influencer Brooke Schofield, che ha più di 2,2 milioni di follower su TikTok e co-conduce il podcast “Canceled” su YouTube. Con il suo grande seguito, il suo bell’aspetto e il suo acuto senso della moda, la Schofield sembrava perfetta per il marchio di abbigliamento Boys Lie, che ha collaborato con lei per un’esclusiva capsule collection chiamata “Bless His Heart” Tuttavia, Boys Lie si è subito pentita della collaborazione con la Schofield quando, ad aprile, è scoppiato uno scandalo dopo che i fan hanno portato alla luce una serie di post di anni fa sui social media in cui la donna esprimeva opinioni razziste. I post, caricati su X tra il 2012 e il 2015 quando Schofield era un’adolescente, contenevano una serie di bestemmie razziste e battute offensive sulle acconciature dei neri. In un post, difendeva vigorosamente George Zimmerman, un bianco americano che è stato controvertitamente assolto per l’omicidio dell’adolescente nero Trayvon Martin. La Schofield si è scusata abbondantemente per i suoi post, ammettendo che erano “molto offensivi” e sottolineando di essere una persona cambiata, avendo avuto il tempo di “imparare e crescere e formulare le mie opinioni” Tuttavia, Boys Lie ha deciso di non avere altra scelta se non quella di abbandonare la sua associazione con Schofield. Dopo aver rilasciato una dichiarazione su Instagram in cui affermava di stare “lavorando a una soluzione”, l’azienda ha ritirato in sordina la collezione di abbigliamento a cui avevano collaborato in precedenza. Accelerare la due diligence Se il team di marketing di Boys Lie avesse avuto accesso a uno strumento come SafeCollab, probabilmente avrebbe scoperto i post controversi di Schofield molto prima di commissionare la collaborazione. Lo strumento, che fa parte della piattaforma di influencer marketing Popular Pays di Lightricks, aiuta i brand ad automatizzare i processi di due diligence quando lavorano con i creatori di social media. Analizzando la cronologia dei post dei creatori su piattaforme come Instagram, TikTok e YouTube, è in grado di controllare tutto ciò che hanno pubblicato online per assicurarsi che non ci sia nulla che possa influire negativamente su un marchio. I brand possono definire i loro parametri di rischio e lo strumento genererà rapidamente un’accurata valutazione del rischio, in modo da poter scegliere con sicurezza gli influencer con cui collaborare, sapendo che è improbabile che le loro collaborazioni scatenino un contraccolpo. Senza una piattaforma come SafeCollab, il compito di svolgere tutta questa due diligence ricade sulle spalle dei marketer, il che significa passare ore a spulciare i profili di ogni influencer, controllando tutto ciò che hanno detto o fatto per assicurarsi che non ci sia nulla nel loro passato a cui il brand non vorrebbe essere associato. Se consideriamo che la portata del lavoro potrebbe includere voci fuori campo, commenti approfonditi e analisi fotogramma per fotogramma dei contenuti video, si tratta di un processo minuzioso che non finisce mai. Dopo tutto, i migliori influencer hanno l’abitudine di sfornare contenuti freschi ogni giorno. I marketer più attenti non hanno altra scelta che monitorare costantemente ciò che pubblicano. Al di là della scansione iniziale della cronologia, gli algoritmi di monitoraggio in tempo reale di SafeCollab si assumono la piena responsabilità, generando avvisi istantanei di qualsiasi contenuto problematico, come ad esempio post che contengono linguaggio grafico, immagini inappropriate, che promuovono la violenza o l’uso di droghe e alcol, che menzionano la violenza o qualsiasi altra cosa il brand
