ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

Lancia una agenzia di automazione AI: modello di business, strumenti e prezzi

L’AI sembra il nuovo modo di far parte del mondo del marketing come proprietario di un’agenzia, giusto? Potresti essere uno sviluppatore, collaborare con un’agenzia, occuparti da solo della parte commerciale o essere un marketer. In ogni caso, c’è una strada da percorrere, ma solo se capisci quali sono le reali esigenze dei clienti. Questo blog spiega chiaramente: il modello di business che le agenzie di AI intelligenti stanno utilizzando, gli strumenti che funzionano e le strategie di prezzo che convincono i clienti a dire sì. Se hai intenzione di avviare un’agenzia di automazione AI, inizia da qui. Cosa c’è dentro Perché avviare un’agenzia di automazione AI nel 2025? Molti professionisti si stanno ponendo la stessa domanda in questo momento: È ancora abbastanza presto (e abbastanza intelligente) per avviare un’agenzia di automazione AI? La risposta breve è sì, e i motivi sono più pratici che di facciata. È ovvio che l’intelligenza artificiale non è più riservata ai piloti sperimentali o alle grandi aziende tecnologiche. Entro il 2025, si prevede che il mercato globale dell’intelligenza artificiale raggiungerà i 747,91 miliardi di dollari, con una parte significativa di questa crescita guidata dal supporto dell’intelligenza artificiale per la generazione di lead, l’assistenza ai clienti e l’automazione dei processi aziendali in vari settori. I dati relativi alle prestazioni confermano questo dato. Le aziende che integrano l’IA nella loro pubblicità riportano un miglioramento del 40% nei risultati delle campagne. Quando le aziende vedono questo tipo di efficienza, non tornano indietro: cercano partner che le aiutino a scalare. L’impatto dell’automazione non si limita al marketing. Secondo il McKinsey Global Institute, l’automazione potrebbe aumentare la produttività globale dello 0,8-1,4% all’anno. Si tratta senza dubbio di un guadagno significativo in un periodo di rallentamento della crescita del lavoro. Ciò che rende questo aspetto particolarmente interessante nel 2025 è l’accessibilità. Non è più necessario avere una profonda competenza ingegneristica per iniziare. Framework open-source come LangChain e AutoGen di Microsoft ti permettono di creare agenti personalizzati che gestiscono tutto, dagli aggiornamenti del CRM alle risposte automatiche; l’ideale per le startup, gli operatori in proprio o le agenzie in crescita che vogliono offrire soluzioni più sofisticate. Una buona notizia? Questi strumenti sono accessibili e utilizzabili. E i casi d’uso più importanti (generazione di lead, assistenza clienti ed esecuzione di campagne) sono proprio quelli in cui la maggior parte delle aziende ha bisogno di aiuto. Guida passo-passo: Come avviare un’agenzia di automazione AI Come abbiamo già detto, avviare un’agenzia di automazione AI significa offrire soluzioni “reali” ai problemi che le aziende affrontano quotidianamente, soprattutto in aree come la lead generation, l’assistenza clienti e le operazioni di vendita. Qui di seguito troverai una guida chiara e fattibile che ti spiegherà passo dopo passo come avviare un’agenzia di automazione AI. 1. Decidi la tua capacità tecnica: Sviluppatore, partner o nessuno La prima decisione importante è se tu o qualcuno del tuo team sia in grado di creare l’automazione. Ci sono tre punti di ingresso: Sei uno sviluppatore e puoi costruire i sistemi da solo. Collabori con uno sviluppatore per creare flussi di lavoro personalizzati. Esternalizzare lo sviluppo, il che potrebbe limitare la tua competitività se non puoi offrire soluzioni di automazione su misura. Non c’è bisogno di dirlo: se non hai dimestichezza con la codifica e non hai un partner tecnico, non sarai in grado di offrire soluzioni personalizzate o di creare sistemi pacchettizzati. E, ovviamente, questo può rendere la tua agenzia molto meno competitiva. (Questo aspetto è importante anche per l’avvio di un’agenzia di AI) Quindi, in questo caso, inizia a risolvere semplici compiti ripetitivi utilizzando Zapier, Make (Integromat) o integrazioni GPT precostituite prima di passare a soluzioni personalizzate basate su Python o LangChain. 2. Scegli una nicchia specifica per problemi reali Piuttosto che offrire “AI per tutti”, le agenzie di AI più forti iniziano risolvendo un problema specifico per un settore. Se hai già lavorato in un settore, sfrutta questa conoscenza interna per identificare i punti di attrito che l’IA può automatizzare. Nel suo video su YouTube, il noto marketer Bo Sar consiglia di diventare quello che lui chiama “un insider”, spiegando: Se hai lavorato in un settore e sai dove si trovano le inefficienze, è più facile comunicare la tua soluzione e venderla ai colleghi del settore. Quindi, prima di avviare un’agenzia di questo tipo, è bene fare un brainstorming dei colli di bottiglia operativi in diversi settori e convalidare questi problemi attraverso forum o interviste. Nel farlo, valuta le nicchie in base a: Volume di attività ripetibili, Affidamento esistente sugli strumenti digitali, Disponibilità a esternalizzare o a spendere per l’automazione. 3. Personalizza la tua offerta per risolvere un solo punto dolente Come per il punto 2, ti suggeriamo di evitare di proporre vantaggi generici per l’automazione. Al contrario, crea la tua offerta di servizi intorno a un singolo punto dolente per un singolo ICP (profilo di cliente ideale). Ad esempio, automatizzare le email di onboarding dei clienti per le aziende SaaS o semplificare la qualificazione dei lead per gli studi legali. Prima di creare qualcosa, assicurati che il problema esista e sia importante. Utilizza LinkedIn, Reddit o le ricerche a freddo per parlare con gli operatori della nicchia che hai scelto. Fai domande dirette: Quali processi ti fanno perdere tempo ogni giorno? Utilizzi qualche strumento di automazione? Quanto varrebbe una soluzione per la tua azienda? Questo è anche il momento in cui inizi a formulare le tue prime offerte. Più contesto fornisci nella tua offerta, maggiori sono le possibilità di risposta. Questo approccio non solo rende le email a freddo più pertinenti, ma accorcia anche il ciclo di vendita. 4. Costruisci una soluzione minima fattibile (MVS) Ora, risolvi un solo compito end-to-end utilizzando gli strumenti disponibili. Ad esempio: Automatizza le email di risposta ai lead per gli agenti immobiliari utilizzando GPT e Zapier. Crea un’integrazione con Google Sheets OpenAI Slack per riassumere gli aggiornamenti del CRM per i team di vendita. Non è necessaria una suite completa, ma solo un’automazione funzionale che dimostri che puoi risolvere un problema. A questo

Musk dice che gli annunci su Grok finanzieranno i costi dell’intelligenza artificiale di xAI

Musk dice che gli annunci su Grok finanzieranno i costi dell'intelligenza artificiale di xAI

Gli annunci pubblicitari potrebbero presto apparire nelle risposte di Grok, il chatbot AI incorporato in X, come ha dichiarato il proprietario della piattaforma Elon Musk in una conversazione in livestreaming con gli inserzionisti mercoledì sera. Musk, che ha acquistato Twitter nel 2022 prima di cambiarne il nome in X e incorporarlo nella sua startup di AI xAI, ha detto di sperare che la pubblicità su Grok possa generare fondi da investire nello sviluppo dell’AI. In particolare, gli annunci pubblicitari potrebbero aiutare a pagare le GPU, i costosi chip ad alta potenza di elaborazione che supportano lo sviluppo di modelli linguistici di grandi dimensioni. “Ci concentreremo su: ‘Come paghiamo queste costose GPU?’”, ha detto Musk. Musk ha poi descritto la sua visione di un processo pubblicitario ampiamente automatizzato per X. Gli inserzionisti potrebbero presto, ha suggerito, “essere in grado di caricare un annuncio” su Grok “e non fare nient’altro”, lasciando che il sistema aiuti in tutto, dal targeting all’ottimizzazione della campagna. Questi sviluppi farebbero seguito a una serie di recenti lanci di funzioni pubblicitarie abilitate dall’intelligenza artificiale su X. “Se un utente sta cercando di risolvere un problema [con Grok], allora pubblicizzare la soluzione specifica sarebbe l’ideale in quel momento”, ha detto. Musk ha anche accennato ai piani per una funzione di checkout in-app per consentire gli acquisti direttamente su X. La notizia arriva a meno di un mese dall’abbandono dell’amministratore delegato Linda Yaccarino, che ha trascorso due anni al timone della piattaforma cercando di migliorare i rapporti con gli inserzionisti dopo che molti avevano tagliato gli investimenti a causa delle preoccupazioni sulla sicurezza del marchio e dei contenuti estremisti presenti su X. Sebbene Yaccarino sia riuscita a riconquistare un po’ di spesa pubblicitaria e a sviluppare una manciata di accordi sui contenuti, le entrate pubblicitarie di X rimangono molto al di sotto dei livelli pre-Musk. Sotto Musk, l’azienda si è concentrata maggiormente sugli strumenti di intelligenza artificiale e sulla monetizzazione, tra cui il chatbot Grok. Durante la telefonata, Musk ha affermato che Grok sta diventando “l’intelligenza artificiale più intelligente e accurata del mondo”, nonostante la recente storia del chatbot di diffondere disinformazione, tra cui una serie di contenuti estremisti e antisemiti il mese scorso che hanno portato alla sua breve chiusura. Leggi di più su www.adweek.com

Come far apparire il tuo marchio nelle risposte della ricerca AI?

Come far apparire il tuo marchio nelle risposte della ricerca AI?

L’azienda di dati di ricerca Semrush prevede che le query dei motori AI supereranno quelle tradizionali di Google nel 2028. Questo fa sì che i CMO dei servizi professionali e i responsabili dello sviluppo commerciale si stiano dando da fare per assicurarsi che le loro aziende si guadagnino un posto al tavolo dell’IA. Attualmente le ricerche su Google dominano ancora le ricerche sull’IA con un margine enorme: la società di dati di ricerca Semrush riporta che Google avrà circa 14 miliardi di ricerche al giorno nel 2024, mentre ChatGPT avrà solo circa 37 milioni di query giornaliere “simili a ricerche”. Ma i primi segnali di un cambiamento epocale ci sono: Le ricerche sul browser Safari di Apple sono diminuite per la prima volta in assoluto. I risultati dei sondaggi mostrano che la fiducia degli utenti nella ricerca su Google sta calando e viene sostituita dall’intelligenza artificiale e dai social media. I giovani utilizzano l’intelligenza artificiale a un ritmo più che doppio rispetto alle fasce demografiche più anziane, il che fa presagire un’accelerazione dei problemi per il marketing tradizionale sui motori di ricerca. Il rapido miglioramento delle prestazioni di piattaforme di intelligenza artificiale come ChatGPT, Claude e piattaforme correlate come Perplexity stanno sconvolgendo il modo in cui gli acquirenti trovano le risorse. Il comportamento di ricerca e il comportamento delle query dei motori di intelligenza artificiale differiscono: l’intelligenza artificiale riceve generalmente query più lunghe e dettagliate rispetto a una casella di ricerca di Google e risponde con un numero inferiore di risposte o raccomandazioni più specializzate rispetto alle molteplici pagine di risultati di ricerca di Google. È fondamentale apparire come una di queste risposte sulla piattaforma dell’IA o far sì che il lavoro del tuo studio venga citato e utilizzato come base per una risposta. Il termine emergente per indicare l’arte di migliorare la visibilità e le prestazioni di un’azienda sulle piattaforme di intelligenza artificiale è Generative Engine Optimization, o GEO. I modelli linguistici dell’intelligenza artificiale sono caratterizzati da una serie di funzionalità “a scatola chiusa”, tanto che le prescrizioni esatte per il successo del GEO rimangono inafferrabili. Ma un buon punto di partenza è la comprensione del modo in cui i LLM determinano quali contenuti debbano essere privilegiati nelle loro risposte. I framework di autorità dei LLM sono i meccanismi che aiutano un modello di intelligenza artificiale a decidere chi citare e di cui fidarsi. Ogni modello di intelligenza artificiale differirà nelle specifiche del suo framework di autorità, ma ecco gli elementi di base: Osservazione e inferenza statistica. I dati e le informazioni che vengono citati in molti altri luoghi del web implicano che siano autorevoli. Una pubblicazione il cui lavoro viene citato frequentemente inizia ad accumulare un grado di autorevolezza più elevato e i contenuti che appaiono in quella pubblicazione vengono trattati di conseguenza. Allineamento dei fatti. I gruppi di fatti che continuano ad allinearsi nello stesso modo in più fonti si riflettono positivamente sulla veridicità dei fatti e sull’editore degli stessi. Indizi semantici. I LLM traggono inferenze dal linguaggio che circonda particolari fatti e dati, il che significa che un’informazione che compare in un articolo accademico sottoposto a revisione paritaria, con citazioni accurate e un linguaggio più formale, avrà più peso di un’informazione simile che compare in un post informale su un blog pubblico o su un sito di social media. Focalizzazione e specificità strutturale. I LLM possono mostrare più facilmente fiducia in una fonte che utilizza frasi dichiarative brevi per esprimere una serie di idee mirate. Le alternative – strutture di frasi più letterarie con parentesi e idee annidate, oppure il vernacolo più colorito e le frasi dettate dall’opinione che potrebbero comparire in una sezione di commenti – sono più difficili da analizzare a macchina con livelli di affidabilità elevati. Formazione supervisionata. I LLM ricevono un feedback umano in una fase successiva del processo, spesso sotto forma di risposte classificate (“Quale risposta preferisci?”) o di feedback umano diretto al modello su quali fonti o pubblicazioni sono più autorevoli. Alcuni pregiudizi preesistenti possono insinuarsi attraverso queste porte. Ma queste sono solo le linee generali dei quadri di autorità LLM. Le piattaforme di intelligenza artificiale, in effetti, non raccontano storie e non svelano i loro segreti. A volte è per motivi di proprietà, ma nella maggior parte dei casi è perché è molto difficile risalire al modo in cui un modello apprende e “pensa” Tuttavia, con i componenti del quadro di autorità, le regole GEO per i marketer saranno guidate dalla massimizzazione dei contenuti e della presenza sul web di un’azienda in modi che i LLM troveranno rassicuranti e autorevoli. Ecco alcuni punti di riferimento per iniziare. Pubblicare la leadership del pensiero in luoghi di grande autorevolezza Questa tattica è l’elemento più ovvio e necessario per il GEO (anche se chiediamo ai modelli stessi cosa dovrebbe fare un marketer per aumentare la presenza dell’AI). Si tratta però di un compito difficile. Guadagnarsi un posto nel Wall Street Journal non è cosa da tutti i giorni, a prescindere dal prestigio dell’azienda. I contenuti di qualità e degni di nota sono difficili da concepire, da realizzare e da pubblicare. Ma è la medicina GEO più potente, quindi prendi in considerazione la creazione regolare di contenuti incisivi da pubblicare all’esterno. Concentrati sulle riviste specializzate, sulle pubblicazioni economiche e finanziarie di primo e secondo livello e sui giornali metropolitani, che mantengono un’elevata autorevolezza anche nei loro anni di declino. Crea contenuti brevi e monotematici Sembra che rendere i fatti ovviamente scopribili e indicizzabili sia preferibile alla creazione di una guida onnicomprensiva su un argomento infinitamente vasto. La tua azienda ha bisogno di contenuti che vadano in profondità e restino circoscritti. Rafforzalo attraverso titoli evidenti, sezioni di contenuto ben delimitate, commenti di esperti e dati ben citati e mirati che avvalorino le affermazioni. Collabora con ricercatori e fonti di dati autorevoli Una luce riflessa è meglio di nessuna luce. Utilizza risorse esterne per creare atti di giornalismo esperto veramente originali. Il modo migliore per farsi notare su un argomento mirato è creare qualcosa

Zuckerberg delinea la visione dell’AI di Meta per una “superintelligenza personale”

Zuckerberg delinea la visione dell'AI di Meta per una "superintelligenza personale"

Mark Zuckerberg, CEO diMeta, ha delineato il suo progetto per il futuro dell’intelligenza artificiale: si tratta di darti una “superintelligenza personale”. In una lettera, il capo di Meta ha tracciato un quadro di ciò che sta per accadere e ritiene che sia più vicino di quanto pensiamo. Afferma che i suoi team stanno già vedendo i primi segni di progresso. “Negli ultimi mesi abbiamo iniziato a vedere scorci di miglioramento dei nostri sistemi di intelligenza artificiale”, ha scritto Zuckerberg. “Il miglioramento è lento per ora, ma innegabile. Lo sviluppo della superintelligenza è ormai in vista” Quindi, cosa vuole fare? Dimentica l’intelligenza artificiale che si limita ad automatizzare il noioso lavoro d’ufficio, la visione di Zuckerberg e Meta per la superintelligenza personale è molto più intima. Immagina un futuro in cui la tecnologia sia al servizio della nostra crescita individuale, non solo della nostra produttività. Secondo le sue parole, la vera rivoluzione sarà “avere una superintelligenza personale che ti aiuti a raggiungere i tuoi obiettivi, a creare ciò che vuoi vedere nel mondo, a vivere qualsiasi avventura, a essere un amico migliore per le persone a cui tieni e a crescere per diventare la persona che aspiri a essere” Ma è qui che la cosa si fa interessante. Ha tracciato una chiara linea di demarcazione, contrapponendo la sua visione a un’alternativa molto diversa, quasi distopica, che secondo lui altri stanno perseguendo. “Questa visione si distingue da quella di altri operatori del settore che credono che la superintelligenza debba essere indirizzata in modo centralizzato verso l’automazione di tutti i lavori di valore, e che poi l’umanità vivrà con il sussidio dei suoi prodotti”, ha dichiarato. Meta, afferma Zuckerberg, scommette sull’individuo quando si parla di superintelligenza AI. L’azienda ritiene che il progresso sia sempre derivato dalle persone che inseguono i propri sogni, non dal vivere con gli scarti di una macchina iper-efficiente. Se ha ragione, passeremo meno tempo a lottare con il software e più tempo a creare e a connetterci. Questa AI personale vivrebbe in dispositivi come gli occhiali intelligenti, in grado di comprendere il nostro mondo perché possono “vedere ciò che vediamo e sentire ciò che sentiamo” Naturalmente, Zuckerberg sa che si tratta di cose potenti, persino pericolose. Zuckerberg ammette che la superintelligenza comporterà nuovi problemi di sicurezza e che Meta dovrà fare attenzione a ciò che renderà noto al mondo. Tuttavia, sostiene che l’obiettivo deve essere quello di potenziare il più possibile le persone. Zuckerberg ritiene che in questo momento ci troviamo a un bivio. Le scelte che faremo nei prossimi anni decideranno tutto. “Il resto di questo decennio sembra essere il periodo decisivo per determinare il percorso che prenderà questa tecnologia”, ha avvertito, inquadrandolo come una scelta tra “l’empowerment personale o una forza focalizzata a sostituire ampie fasce della società” Zuckerberg ha fatto la sua scelta. Sta concentrando le enormi risorse di Meta sulla costruzione di questo futuro di superintelligenza personale.   Leggi di più su www.artificialintelligence-news.com

Google userà l’apprendimento automatico per stimare l’età degli utenti e bloccarli da contenuti e annunci riservati

Google userà l'apprendimento automatico per stimare l'età degli utenti e bloccarli da contenuti e annunci riservati

Questa settimana Google inizierà a utilizzare l’apprendimento automatico per stimare l’età degli utenti al fine di personalizzare le esperienze pubblicitarie in modo più appropriato per i minori, ha dichiarato l’azienda in un post sul blog mercoledì. La tecnologia utilizzerà comportamenti come le query di ricerca e i tipi di video consumati su YouTube per determinare se un utente ha meno di 18 anni. Quando un utente viene segnalato come probabile minore di 18 anni, il sistema lo informerà e implementerà automaticamente delle protezioni nei prodotti di Google, tra cui la disattivazione della personalizzazione degli annunci e la limitazione di “categorie di annunci sensibili all’età” come alcolici, gioco d’azzardo, perdita di peso e cibi e bevande ad alto contenuto di grassi e zuccheri. Gli utenti che Google identifica come minorenni non potranno accedere alle applicazioni riservate agli utenti adulti nel Google Play Store e saranno automaticamente inseriti nel programma Digital Wellbeing di YouTube, che include funzioni come la protezione dei contenuti, la limitazione delle visualizzazioni ripetute di alcuni tipi di video e promemoria per le pause dalla piattaforma. Anche l’impostazione Timeline di Google Maps, che mantiene un registro cronologico dei luoghi visitati dall’utente, sarà disattivata per gli utenti di età inferiore ai 18 anni. Nelle prossime settimane Google testerà la nuova funzione, chiamata “garanzia dell’età”, per alcuni utenti che hanno effettuato l’accesso negli Stati Uniti. Le modifiche sono state riassunte nel post sul blog come parte degli sforzi dell’azienda per “proteggere ulteriormente i giovani nell’utilizzo dei prodotti Google” e sono state condivise con alcuni clienti pubblicitari di Google via e-mail mercoledì pomeriggio. Questo sviluppo segue l’annuncio di febbraio del CEO di YouTube Neal Mohan, che ha illustrato i piani di Google per espandere le protezioni pubblicitarie per i minori utilizzando il machine learning quest’anno. Lo scorso autunno, Google ha accusato alcuni inserzionisti di aver mirato intenzionalmente agli adolescenti su YouTube, in violazione della politica della piattaforma, come riportato in precedenza da ADWEEK. Il lancio dello strumento di “garanzia dell’età” di Google arriva pochi mesi dopo l’introduzione da parte di Meta di un prodotto simile per Instagram, in grado di scansionare gli indicatori che indicano che i minori stanno mentendo sulla loro età, in modo da garantire che gli utenti di età inferiore ai 18 anni stiano utilizzando “account per adolescenti” protetti piuttosto che una versione non limitata dell’applicazione. Leggi di più su www.adweek.com

Grazie a grandi somme di denaro e ad assunzioni audaci, Mark Zuckerberg vuole portare la superintelligenza a tutti

Grazie a grandi somme di denaro e ad assunzioni audaci, Mark Zuckerberg vuole portare la superintelligenza a tutti

“La visione di Meta è quella di portare la superintelligenza personale a tutti”, ha scritto l’amministratore delegato Mark Zuckerberg in una lettera pubblicata il 29 luglio, delineando le sue ambizioni per il prossimo grande salto dell’IA : la superintelligenza, un sistema che superi l’intelligenza umana praticamente in tutti i settori. Zuckerberg ha definito l’approccio di Meta come diverso dall’attuale pensiero sull’IA. Piuttosto che costruire sistemi centralizzati per automatizzare il lavoro, Zuckerberg immagina assistenti AI profondamente personali che aiutino gli individui a perseguire i propri obiettivi. “Questo si distingue da altri nel settore che credono che la superintelligenza debba essere diretta centralmente verso l’automazione di tutti i lavori di valore, e che l’umanità vivrà con il sussidio dei suoi prodotti”, ha scritto. Per raggiungere questo obiettivo, Meta sta investendo molto in infrastrutture informatiche e sta assumendo i migliori ricercatori con stipendi da capogiro, in una corsa agli armamenti dell’intelligenza artificiale che si sta intensificando con rivali come OpenAI. A giugno, l’azienda ha annunciato un investimento di 14,3 miliardi di dollari nella startup Scale AI, specializzata nell’etichettatura dei dati, e ha assunto il suo CEO, Alexandr Wang. Poco dopo, Meta ha presentato anche i Superintelligence Labs, una nuova divisione focalizzata sulla creazione di modelli di base, tra cui la famiglia open-source di sistemi di IA Llama. Sebbene Zuckerberg non abbia rivelato alcun prodotto specifico che Meta ha in programma di realizzare – né cosa significhi la sua visione per l’attività pubblicitaria dell’azienda – ha descritto la superintelligenza come uno strumento di “potenziamento personale” Ha aggiunto che “i dispositivi personali come gli occhiali che comprendono il nostro contesto perché possono vedere ciò che vediamo, sentire ciò che sentiamo e interagire con noi durante la giornata diventeranno i nostri dispositivi informatici principali” La lettera menziona anche come Meta abbia visto “scorci” di miglioramento dei suoi sistemi di intelligenza artificiale. Inoltre, Meta prevede di automatizzare completamente la pubblicità con l’intelligenza artificiale entro il 2026, con l’obiettivo di ridurre la dipendenza dalle agenzie e semplificare la creazione di campagne. “Per quanto profonda possa essere un giorno l’abbondanza prodotta dall’IA, un impatto ancora più significativo sulle nostre vite verrà probabilmente dall’avere una superintelligenza personale che ti aiuti a raggiungere i tuoi obiettivi, a creare ciò che vuoi vedere nel mondo, a vivere qualsiasi avventura, a essere un amico migliore per coloro a cui tieni e a crescere per diventare la persona che aspiri a essere”, ha scritto Zuckerberg. Leggi di più su www.adweek.com

X offrirà ai brand tariffe pubblicitarie più basse per gli annunci “estetici”

X offrirà ai brand tariffe pubblicitarie più basse per gli annunci "estetici"

X sta incentivando gli inserzionisti ad abbandonare emoji, hashtag e link nei loro annunci con tariffe più basse per quelli che la responsabile dell’azienda per le Americhe, Monique Pintarelli, definisce annunci “belli”. In un aggiornamento della politica sulla qualità degli annunci di questa settimana, l’azienda consiglia di evitare hashtag, simboli ed errori grammaticali nel testo degli annunci. La politica suggerisce inoltre che gli annunci non includano più di un emoji, tranne che nei mercati giapponese e coreano. Inoltre, i supporti visivi inclusi negli annunci non devono essere “fantasiosi, eccessivamente ritagliati o indecifrabili”, secondo la nuova politica. X inizierà ad assegnare un “punteggio estetico” a ogni annuncio sulla piattaforma in base alla sua aderenza alle nuove linee guida. Gli annunci che sono più in linea con i valori “estetici” di X costeranno meno e avranno una migliore visibilità nei feed degli utenti, ha dichiarato l’azienda. “L’industria ha perso la strada per inseguire i clic e giocare con gli algoritmi e, nel frattempo, sta creando pubblicità di bassa qualità e di tipo spammoso”, ha dichiarato Pintarelli. “Siamo impegnati a creare un’esperienza migliore per gli utenti e, allo stesso tempo, un’opportunità migliore per il marchio di entrare in contatto con i nostri utenti in modo più elegante” Questa valutazione “estetica” fa parte del più ampio punteggio di qualità degli annunci di X, che valuta i tassi di coinvolgimento, la frequenza e la pertinenza, e sarà presa in considerazione nella ponderazione dei prezzi degli annunci. Ciò significa che gli annunci che X ritiene esteticamente validi avranno accesso a CPM più bassi nell’asta degli annunci, mentre gli annunci che non rispettano le linee guida avranno un prezzo più alto e saranno anche soppressi algoritmicamente nei feed degli utenti, secondo Pintarelli. “Se il tuo annuncio non è altrettanto valido e vuoi sfondare, ti costerà di più farlo”, ha detto Pintarelli. Per il momento, la politica serve come guida piuttosto che come regola rigida per gli inserzionisti, anche se X ha dichiarato di voler implementare restrizioni più rigide sulla creatività e sul copy degli annunci nel corso del tempo. Gli annunci includeranno anche un pulsante “Spiega questo post” alimentato dall’intelligenza artificiale. Gli utenti possono cliccare su questo pulsante nella parte superiore destra del post per ottenere ulteriori informazioni generate da Grok, il chatbot di punta di xAI. Per gli annunci sul sito, questo strumento può fungere da meccanismo di fact-checking, scansionando il sito web dell’inserzionista e le fonti del web per verificare specifiche affermazioni, anche se in passato l’accuratezza di Grok non è stata costante. X sta integrando sempre più l’intelligenza artificiale nei suoi prodotti pubblicitari. A febbraio, l’azienda ha presentato una serie di strumenti creativi e di misurazione generativi basati sull’intelligenza artificiale per gli inserzionisti. Questo ha fatto seguito al lancio, avvenuto nell’ottobre del 2024, della nuova esperienza pubblicitaria di X, progettata per potenziare il targeting con l’intelligenza artificiale. Da quando Elon Musk ha acquistato Twitter nel 2022 e l’ha ribattezzato X, il settore degli annunci pubblicitari dell’azienda – che in precedenza era il motore che generava il 90% delle entrate dell’app – ha sofferto a causa della riduzione della spesa da parte dei brand per problemi legati ai contenuti. Grandi marchi come Apple, Comcast e Disney hanno ritirato i loro annunci dalla piattaforma nel 2023 e gli utenti hanno riferito di feed pieni di annunci di criptovalute di bassa qualità e di annunci di giochi espliciti.

Lo strumento di codifica AI di Alibaba solleva problemi di sicurezza in Occidente

Lo strumento di codifica AI di Alibaba solleva problemi di sicurezza in Occidente

Alibaba ha rilasciato un nuovo modello di codifica AI chiamato Qwen3-Coder, costruito per gestire attività software complesse utilizzando un grande modello open-source. Lo strumento fa parte della famiglia Qwen3 di Alibaba e viene promosso come l’agente di codifica più avanzato dell’azienda. Il modello utilizza un approccio Mixture of Experts (MoE), attivando 35 miliardi di parametri su un totale di 480 miliardi e supportando fino a 256.000 token di contesto. Secondo quanto riferito, questo numero può essere esteso a 1 milione utilizzando speciali tecniche di estrapolazione. L’azienda sostiene che Qwen3-Coder ha superato altri modelli aperti in attività agenziali, tra cui le versioni di Moonshot AI e DeepSeek. Ma non tutti la vedono come una buona notizia. Jurgita Lapienyė, capo redattore di Cybernews, avverte che Qwen3-Coder potrebbe essere molto più di un utile assistente di codifica: potrebbe rappresentare un rischio reale per i sistemi tecnologici globali se venisse adottato su larga scala dagli sviluppatori occidentali. Un cavallo di troia travestito da open source? La comunicazione di Alibaba su Qwen3-Coder si è concentrata sulla sua forza tecnica, paragonandolo a strumenti di alto livello come OpenAI e Anthropic. Ma mentre i punteggi dei benchmark e le caratteristiche attirano l’attenzione, Lapienyė suggerisce che potrebbero anche distrarre dal vero problema: la sicurezza. Non si tratta del fatto che la Cina stia recuperando terreno nel campo dell’IA, questo è già noto. La preoccupazione più profonda riguarda i rischi nascosti dell’utilizzo di software generato da sistemi di IA che sono difficili da ispezionare o da comprendere appieno. Come ha detto Lapienyė, gli sviluppatori potrebbero essere “sonnambuli in un futuro” in cui i sistemi principali sono costruiti inconsapevolmente con codice vulnerabile. Strumenti come Qwen3-Coder possono rendere la vita più facile, ma potrebbero anche introdurre sottili debolezze che passano inosservate. Questo rischio non è ipotetico. I ricercatori di Cybernews hanno recentemente esaminato l’uso dell’IA nelle principali aziende statunitensi e hanno scoperto che 327 delle S&P 500 hanno dichiarato pubblicamente di utilizzare strumenti di IA. Solo in queste aziende, i ricercatori hanno identificato quasi 1.000 vulnerabilità legate all’IA. L’aggiunta di un altro modello di intelligenza artificiale, soprattutto se sviluppato in base alle severe leggi cinesi sulla sicurezza nazionale, potrebbe aggiungere un ulteriore livello di rischio, più difficile da controllare. Quando il codice diventa una backdoor Gli sviluppatori di oggi si affidano molto agli strumenti di intelligenza artificiale per scrivere il codice, correggere i bug e definire il modo in cui vengono costruite le applicazioni. Questi sistemi sono veloci, utili e migliorano di giorno in giorno. Ma cosa succederebbe se questi stessi sistemi venissero addestrati a introdurre delle falle? Non bug evidenti, ma piccoli problemi difficili da individuare che non farebbero scattare l’allarme. Una vulnerabilità che sembra una decisione di progettazione innocua potrebbe passare inosservata per anni. È così che spesso iniziano gli attacchi alla catena di approvvigionamento. Esempi passati, come l’incidente di SolarWinds, dimostrano come l’infiltrazione a lungo termine possa avvenire in modo silenzioso e paziente. Con un accesso e un contesto sufficienti, un modello di intelligenza artificiale potrebbe imparare a creare problemi simili, soprattutto se fosse esposto a milioni di codebase. Non si tratta solo di una teoria. Secondo la legge cinese sull’intelligence nazionale, le aziende come Alibaba devono collaborare con le richieste del governo, comprese quelle che riguardano i dati e i modelli di IA. Questo sposta il discorso dalle prestazioni tecniche alla sicurezza nazionale. Cosa succede al tuo codice? Un altro problema importante è l’esposizione dei dati. Quando gli sviluppatori utilizzano strumenti come Qwen3-Coder per scrivere o eseguire il debug del codice, ogni parte dell’interazione potrebbe rivelare informazioni sensibili. Queste potrebbero includere algoritmi proprietari, logiche di sicurezza o design dell’infrastruttura, esattamente il tipo di dettagli che possono essere utili a uno stato straniero. Anche se il modello è open source, ci sono ancora molte cose che gli utenti non possono vedere. L’infrastruttura di backend, i sistemi di telemetria e i metodi di tracciamento dell’utilizzo potrebbero non essere trasparenti. Questo rende difficile sapere dove vanno a finire i dati o cosa il modello potrebbe ricordare nel tempo. Autonomia senza supervisione Alibaba si è concentrata anche su modelli di intelligenza artificiale che possono agire in modo più indipendente rispetto agli assistenti standard. Questi strumenti non si limitano a suggerire linee di codice. Possono essere assegnati loro compiti completi, operare con input minimi e prendere decisioni da soli. Questo potrebbe sembrare efficiente, ma solleva anche dei dubbi. Un agente di codifica completamente autonomo in grado di analizzare intere basi di codice e apportare modifiche potrebbe diventare pericoloso nelle mani sbagliate. Immagina un agente in grado di comprendere le difese del sistema di un’azienda e di creare attacchi su misura per sfruttarle. Le stesse competenze che aiutano gli sviluppatori a muoversi più velocemente potrebbero essere riutilizzate dagli aggressori per muoversi ancora più velocemente. La normativa non è ancora pronta Nonostante questi rischi, le normative attuali non affrontano in modo significativo strumenti come Qwen3-Coder. Il governo degli Stati Uniti ha discusso per anni dei problemi di privacy legati ad app come TikTok, ma la supervisione pubblica degli strumenti di intelligenza artificiale sviluppati all’estero è scarsa. Gruppi come il Comitato per gli Investimenti Stranieri negli Stati Uniti (CFIUS) esaminano le acquisizioni delle aziende, ma non esiste un processo simile per esaminare i modelli di IA che potrebbero comportare rischi per la sicurezza nazionale. L’ordine esecutivo del Presidente Biden sull’IA si concentra principalmente sui modelli sviluppati in patria e sulle pratiche di sicurezza generali. Ma tralascia le preoccupazioni relative agli strumenti importati che potrebbero essere inseriti in ambienti sensibili come la sanità, la finanza o le infrastrutture nazionali. Gli strumenti di IA in grado di scrivere o alterare il codice dovrebbero essere trattati con la stessa serietà delle minacce alla catena di approvvigionamento del software. Ciò significa stabilire linee guida chiare su dove e come possono essere utilizzati. Che cosa dovrebbe succedere dopo? Per ridurre i rischi, le organizzazioni che hanno a che fare con sistemi sensibili dovrebbero fermarsi prima di integrare Qwen3-Coder o qualsiasi altra IA agenziale sviluppata all’estero nei loro flussi di

Il nuovo modello Gemini 2.5 di Google punta all'”intelligenza per dollaro”

Il nuovo modello Gemini 2.5 di Google punta all'"intelligenza per dollaro"

Google ha appena rilasciato la versione stabile di Gemini 2.5 Flash-Lite e ha essenzialmente creato un modello progettato per essere il cavallo di battaglia degli sviluppatori che hanno bisogno di costruire cose in scala senza spendere troppo. Costruire cose interessanti con l’intelligenza artificiale può spesso sembrare un frustrante gioco di equilibri. Vuoi un modello intelligente e potente, ma non vuoi nemmeno ipotecare la casa per pagare le chiamate API. Inoltre, se la tua app deve essere veloce per gli utenti, un modello lento e ripetitivo non è una buona idea. Google afferma che Gemini 2.5 Flash-Lite è più veloce dei modelli precedenti, il che è un’affermazione importante. Per chiunque stia costruendo un traduttore in tempo reale, un chatbot per il servizio clienti o qualsiasi altra cosa in cui un ritardo sarebbe imbarazzante, questo è un dato importante. E poi c’è il prezzo. Con 0,10 dollari per elaborare un milione di parole in entrata e 0,40 dollari per l’uscita, è ridicolmente economico. Questo è il tipo di prezzo che cambia il modo di pensare allo sviluppo. Puoi finalmente smettere di preoccuparti di ogni singola chiamata API e lasciare che la tua applicazione faccia il suo dovere. Questo apre le porte a piccoli team e a sviluppatori singoli per costruire cose che prima erano fattibili solo per le grandi aziende. Ora, potresti pensare: “Ok, è economico e veloce, quindi deve essere un po’ stupido, giusto?” A quanto pare no. Google sostiene che il modello Gemini 2.5 Flash-Lite è più intelligente dei suoi predecessori in tutti i campi: ragionamento, codifica e persino comprensione di immagini e audio. Naturalmente, ha ancora l’enorme finestra contestuale da un milione di token: ciò significa che puoi inviargli documenti enormi, codebase o lunghe trascrizioni senza che si scomodi. E non si tratta solo di marketing: le aziende stanno già costruendo qualcosa con questo sistema. L’azienda di tecnologia spaziale Satlyt lo sta utilizzando sui satelliti per diagnosticare i problemi in orbita, riducendo i ritardi e risparmiando energia. Un’altra, HeyGen, lo utilizza per tradurre video in oltre 180 lingue. Un esempio personale preferito è DocsHound. Lo usano per guardare i video dimostrativi dei prodotti e creare automaticamente la documentazione tecnica a partire da essi. Immagina quanto tempo si risparmia! Questo dimostra che Flash-Lite è più che in grado di gestire compiti complessi e reali. Se vuoi provare il modello Gemini 2.5 Flash-Lite, puoi iniziare a usarlo subito in Google AI Studio o Vertex AI. Tutto ciò che devi fare è specificare “gemini-2.5-flash-lite” nel tuo codice. Un rapido avvertimento: se stavi usando la versione di anteprima, assicurati di passare a questo nuovo nome prima del 25 agosto, perché quello vecchio sta per essere ritirato. Piuttosto che un altro aggiornamento del modello da parte di Google, Gemini 2.5 Flash-Lite abbassa la barriera d’ingresso in modo che molti di noi possano sperimentare e costruire cose utili senza bisogno di un budget enorme. Leggi di più su www.artificialintelligence-news.com

OpenAI e Oracle annunciano l’accordo per il centro dati Stargate AI

OpenAI e Oracle annunciano l'accordo per il centro dati Stargate AI

OpenAI ha stretto la mano con Oracle in un accordo colossale per portare avanti la colossale iniziativa del centro dati Stargate AI della prima. Una cosa è parlare della rivoluzione dell’IA in termini astratti, ma un’altra cosa è comprendere la portata fisica di ciò che si sta costruendo per realizzarla. Le fondamenta del nostro futuro dell’IA sono state gettate in cemento, acciaio e chilometri di cavi in fibra ottica, e queste fondamenta stanno diventando colossalmente più grandi. Insieme, OpenAI e Oracle costruiranno nuovi centri dati negli Stati Uniti con un hardware tale da consumare 4,5 gigawatt di potenza. È difficile esagerare con la quantità impressionante di energia: è il tipo di energia che potrebbe illuminare una grande città. E tutto questo sarà dedicato a una sola cosa: alimentare la prossima generazione di IA. Non si tratta di un’espansione casuale, ma di una parte importante del grande piano Stargate di OpenAI. L’obiettivo è semplice: costruire una potenza di calcolo sufficiente per portare l’IA avanzata a tutti. Se si aggiunge questo nuovo progetto al lavoro già in corso ad Abilene, in Texas, OpenAI sta sviluppando oltre 5 gigawatt di capacità del centro dati. Si tratta di uno spazio sufficiente a far funzionare più di due milioni di chip per computer tra i più potenti disponibili. Questa mossa dimostra la serietà dell’impegno preso alla Casa Bianca all’inizio dell’anno di investire mezzo trilione di dollari nell’infrastruttura AI degli Stati Uniti. In effetti, grazie all’impulso di partner come Oracle e la giapponese SoftBank, l’azienda prevede di superare l’obiettivo iniziale. Ma questa storia non riguarda solo i chip di silicio e gli accordi aziendali, bensì le persone. OpenAI ritiene che la costruzione e la gestione dei nuovi centri dati Stargate AI creerà oltre 100.000 posti di lavoro. Questa creazione di posti di lavoro rappresenta un’opportunità concreta per le famiglie di tutto il paese, dalle squadre di costruzione che versano il cemento, agli elettricisti specializzati che collegano i rack di server, fino ai tecnici a tempo pieno che manterranno in funzione questi cervelli digitali giorno e notte. Ad Abilene, la prima fase dello sviluppo dei centri dati Stargate di OpenAI è già in piena attività. Sono arrivati i primi camion di nuovissimi chip GB200 di Nvidia e i ricercatori di OpenAI li stanno già usando per vedere di cosa sono capaci i loro prossimi modelli di intelligenza artificiale. Naturalmente, un progetto così grande non è mai un gioco a due. Mentre Oracle sta aiutando a costruire la capacità fisica per l’iniziativa Stargate, OpenAI sta anche lavorando a stretto contatto con SoftBank per ripensare completamente il modo in cui i centri dati dell’IA dovrebbero essere progettati da zero. E non dimentichiamo Microsoft, che rimane il partner chiave per il cloud, fornendo l’impianto idraulico digitale che collega tutto insieme. Dietro il sipario, c’è uno sforzo industriale molto reale e molto umano in corso su una scala che raramente abbiamo visto prima. Ci ricorda che il nostro mondo digitale è costruito con grinta, ambizione e una quantità quasi incredibile (anche se preoccupante) di elettricità.   Leggi di più su www.artificialintelligence-news.com