Perplexity costruisce silenziosamente un’esperienza di shopping alimentata dall’intelligenza artificiale

La startup Perplexity, sostenuta da Jeff Bezos, sta prendendo di mira l’e-commerce. Secondo un’e-mail interna ottenuta da ADWEEK, Perplexity sta invitando gli utenti a ottenere l’accesso anticipato alla sua nuova funzione, denominata “Pro Shop”, che consente di ricercare e acquistare prodotti da vari commercianti direttamente sulla sua piattaforma. La funzione Pro Shop promette la spedizione gratuita sugli articoli acquistati tramite Perplexity, consentendo ai clienti di completare le transazioni senza lasciare la piattaforma. Durante la ricerca dei prodotti, gli utenti noteranno un’opzione “Acquista con Pro” per gli articoli idonei. Dopo averla selezionata, dovranno inserire i dati di fatturazione e spedizione per finalizzare l’acquisto. Perplexity valuterà le tasse e acquisterà il prodotto per conto degli utenti su Pro Shop e gli utenti potranno seguire lo stato dell’acquisto sulla piattaforma. Con questa mossa, la startup sostenuta da Bezos, che punta a raddoppiare la sua valutazione fino a superare gli 8 miliardi di dollari, si tuffa nello spazio competitivo della vendita al dettaglio, mettendo gli occhi su giganti come Amazon e Google Shopping. Tuttavia, questo non è un territorio del tutto nuovo per l’azienda. Perplexity ha già sfidato Google con il suo motore di ricerca alimentato dall’intelligenza artificiale e, secondo quanto riferito, sta negoziando con grandi marchi come Nike per il suo modello di annunci “domande sponsorizzate”. Perplexity non ha risposto a una richiesta di commento sui dettagli di Pro Shop, come ad esempio i partner commerciali. “Si tratta di un passo davvero importante per Perplexity, una piccola azienda che sta cercando di farsi strada nel settore della ricerca AI”, ha dichiarato Debra Aho Williamson, fondatrice e analista capo di Sonata Insights. “Le aziende di e-commerce hanno difficoltà in questo campo, figuriamoci una startup come Perplexity” Mentre l’azienda si prepara a introdurre gli annunci pubblicitari sulla sua piattaforma nel quarto trimestre, la posta in gioco è alta per Perplexity, che deve dimostrare il suo valore in un mercato sempre più affollato. Il tempo ci dirà quali commercianti collaboreranno con l’azienda per il Pro Shop e se l’acquisto di annunci migliorerà la visibilità del commerciante all’interno del negozio o aumenterà il coinvolgimento. Di più su www.adweek.com
La ricerca ChatGPT di OpenAI diventa operativa

ChatGPT entra ufficialmente nell’arena della ricerca. Giovedì OpenAI ha aggiunto un motore di ricerca alimentato dall’intelligenza artificiale direttamente all’interno del suo popolare chatbot, ChatGPT. Questa mossa consente a ChatGPT di competere con strumenti affermati come Google Search, Microsoft Bing e la startup di San Francisco Perplexity. Il “ChatGPT Search” di OpenAI fornirà risposte utilizzando informazioni aggiornate dal web, tra cui notizie, quotazioni azionarie e risultati sportivi, con tanto di link alle fonti pertinenti, come si legge in un post sul blog che annuncia l’aggiornamento. Ad esempio, se un utente chiede dove andare a cena nella sua città, ChatGPT genererà un elenco di ristoranti, con dettagli sulla posizione e sui prezzi ricavati da siti web, oltre a link ad articoli per ulteriori informazioni. 🌐 Presentazione della ricerca di ChatGPT 🌐 ChatGPT è ora in grado di effettuare ricerche sul web in modo molto migliore rispetto al passato, in modo che tu possa ottenere risposte rapide e tempestive con link a fonti web pertinenti.https://t.co/7yilNgqH9T pic.twitter.com/z8mJWS8J9c – OpenAI (@OpenAI) 31 ottobre 2024 Il chatbot “cercherà automaticamente sul web in base alle tue domande”, ha dichiarato OpenAI nel suo post sul blog. Allo stesso tempo, gli utenti possono anche attivare manualmente una ricerca sul web cliccando sull’icona di ricerca all’interno della chat. OpenAI ha iniziato il beta-testing della funzione di ricerca, inizialmente chiamata SearchGPT, a luglio con 10.000 utenti. Come si evolve la situazione L’intelligenza artificiale sta reimmaginando il panorama della ricerca, con operatori come Perplexity e Google AI Overview che offrono risultati basati sull’intelligenza artificiale. Nel frattempo, gli esperti di marketing stanno adattando le loro strategie per posizionarsi in questi formati di ricerca in evoluzione. Sebbene la gara per il dominio sia ancora aperta, la recente integrazione della ricerca da parte di OpenAI direttamente in ChatGPT rappresenta una mossa coraggiosa per catturare l’attenzione degli utenti e influenzare le loro abitudini. “Trovo che sia un modo molto più veloce/facile per ottenere le informazioni che sto cercando”, ha dichiarato Sam Altman, CEO di Open AI, in un Reddit AMA di giovedì. “Penso che vedremo questo fenomeno, soprattutto per le ricerche più complesse. Mi aspetto anche un futuro in cui una query di ricerca possa restituire dinamicamente una pagina web personalizzata in risposta!” Secondo OpenAI, ChatGPT vanta oltre 250 milioni di utenti attivi mensili e da giovedì gli abbonati a ChatGPT Plus (che pagano 20 dollari al mese) potranno accedere alla nuova ricerca. OpenAI prevede di estendere questa funzione agli utenti gratuiti nei prossimi mesi. Editori come The Associated Press e Condé Nast stanno lavorando con OpenAI al nuovo prodotto di ricerca. Nel frattempo, il New York Times ha intentato una causa contro OpenAI e Microsoft per violazione del copyright relativo ai contenuti giornalistici utilizzati nei sistemi di intelligenza artificiale. Resta da vedere se la nuova funzione ChatGPT ridefinirà la ricerca o modificherà l’equilibrio competitivo. Leddi di più su www.adweek.com
L’intelligenza artificiale aiuta i brand a evitare le partnership controverse con gli influencer

Le collaborazioni con gli influencer possono essere ottime per i brand che cercano di diffondere contenuti che promuovano i loro prodotti e servizi in modo autentico. Questo tipo di collaborazioni può portare a un aumento significativo della notorietà e del sentiment del marchio, ma può anche essere rischioso. Le star dei social media sono imprevedibili nei momenti migliori e molte di loro sono deliberatamente a caccia di polemiche per aumentare la propria fama. Queste buffonate non sempre si riflettono positivamente sui marchi che collaborano con influencer particolarmente assetati di attenzione, per cui i responsabili del marketing non hanno altra scelta se non quella di condurre un’attenta due diligence sulle persone con cui collaborano. Fortunatamente, questo compito può essere reso molto più semplice grazie all’evoluzione dell’intelligenza artificiale. Lightricks, un’azienda di software nota soprattutto per i suoi strumenti di editing di immagini e video basati sull’intelligenza artificiale, sta ampliando ancora una volta le capacità dell’intelligenza artificiale della sua suite con l’annuncio, questa settimana, di SafeCollab. SafeCollab è un nuovo strumento per i marketer che automatizza il processo di selezione degli influencer, un modulo di selezione degli influencer alimentato dall’intelligenza artificiale che si trova all’interno della piattaforma di collaborazione con i creatori Popular Pays dell’azienda. Tradizionalmente, i marketer non hanno avuto altra scelta se non quella di passare ore a ricercare il background degli influencer, esaminando anni di video caricati e post sui social media. Si tratta di un processo lungo e manuale che può essere automatizzato solo con strumenti intelligenti. SafeCollab fornisce questa intelligenza con i suoi modelli linguistici di base, che si occupano di indagare sugli influencer per assicurarsi che l’immagine che rappresentano sia coerente con i valori del marchio. I LLM eseguono in pochi minuti una valutazione del rischio dei contenuti dei creatori su più canali di social media, cercando tra ore di video, upload audio, immagini e testi. In questo modo, SafeCollab riduce significativamente il tempo necessario ai brand marketer per eseguire la due diligence sugli influencer dei social media con cui stanno pensando di collaborare. Allo stesso modo, quando i creatori si iscrivono a SafeCollab, rendono più facile per i responsabili marketing comprendere le implicazioni per la sicurezza del marchio derivanti dalla collaborazione, riducendo l’attrito del ciclo di vita delle campagne. I brand non possono correre rischi L’idea è quella di dare ai brand marketer la possibilità di evitare di lavorare con creatori i cui contenuti non sono in linea con i valori del brand, così come con quelli che hanno la tendenza a scatenare una tempesta. La due diligence è fondamentale, perché anche gli influencer più innocui possono avere qualche scheletro nell’armadio. Un esempio è la popolare influencer Brooke Schofield, che ha più di 2,2 milioni di follower su TikTok e co-conduce il podcast “Canceled” su YouTube. Con il suo grande seguito, il suo bell’aspetto e il suo acuto senso della moda, la Schofield sembrava perfetta per il marchio di abbigliamento Boys Lie, che ha collaborato con lei per un’esclusiva capsule collection chiamata “Bless His Heart” Tuttavia, Boys Lie si è subito pentita della collaborazione con la Schofield quando, ad aprile, è scoppiato uno scandalo dopo che i fan hanno portato alla luce una serie di post di anni fa sui social media in cui la donna esprimeva opinioni razziste. I post, caricati su X tra il 2012 e il 2015 quando Schofield era un’adolescente, contenevano una serie di bestemmie razziste e battute offensive sulle acconciature dei neri. In un post, difendeva vigorosamente George Zimmerman, un bianco americano che è stato controvertitamente assolto per l’omicidio dell’adolescente nero Trayvon Martin. La Schofield si è scusata abbondantemente per i suoi post, ammettendo che erano “molto offensivi” e sottolineando di essere una persona cambiata, avendo avuto il tempo di “imparare e crescere e formulare le mie opinioni” Tuttavia, Boys Lie ha deciso di non avere altra scelta se non quella di abbandonare la sua associazione con Schofield. Dopo aver rilasciato una dichiarazione su Instagram in cui affermava di stare “lavorando a una soluzione”, l’azienda ha ritirato in sordina la collezione di abbigliamento a cui avevano collaborato in precedenza. Accelerare la due diligence Se il team di marketing di Boys Lie avesse avuto accesso a uno strumento come SafeCollab, probabilmente avrebbe scoperto i post controversi di Schofield molto prima di commissionare la collaborazione. Lo strumento, che fa parte della piattaforma di influencer marketing Popular Pays di Lightricks, aiuta i brand ad automatizzare i processi di due diligence quando lavorano con i creatori di social media. Analizzando la cronologia dei post dei creatori su piattaforme come Instagram, TikTok e YouTube, è in grado di controllare tutto ciò che hanno pubblicato online per assicurarsi che non ci sia nulla che possa influire negativamente su un marchio. I brand possono definire i loro parametri di rischio e lo strumento genererà rapidamente un’accurata valutazione del rischio, in modo da poter scegliere con sicurezza gli influencer con cui collaborare, sapendo che è improbabile che le loro collaborazioni scatenino un contraccolpo. Senza una piattaforma come SafeCollab, il compito di svolgere tutta questa due diligence ricade sulle spalle dei marketer, il che significa passare ore a spulciare i profili di ogni influencer, controllando tutto ciò che hanno detto o fatto per assicurarsi che non ci sia nulla nel loro passato a cui il brand non vorrebbe essere associato. Se consideriamo che la portata del lavoro potrebbe includere voci fuori campo, commenti approfonditi e analisi fotogramma per fotogramma dei contenuti video, si tratta di un processo minuzioso che non finisce mai. Dopo tutto, i migliori influencer hanno l’abitudine di sfornare contenuti freschi ogni giorno. I marketer più attenti non hanno altra scelta che monitorare costantemente ciò che pubblicano. Al di là della scansione iniziale della cronologia, gli algoritmi di monitoraggio in tempo reale di SafeCollab si assumono la piena responsabilità, generando avvisi istantanei di qualsiasi contenuto problematico, come ad esempio post che contengono linguaggio grafico, immagini inappropriate, che promuovono la violenza o l’uso di droghe e alcol, che menzionano la violenza o qualsiasi altra cosa il brand
Costruisci una forte strategia di attribuzione per combattere la frammentazione

Oggi il percorso medio di acquisto prevede 56 punti di contatto su varie piattaforme. Questa proliferazione di canali introduce un nuovo livello di complessità e complica l’allineamento creativo, in quanto campagne disarticolate portano alla sfiducia e alla frustrazione dei consumatori. Se gli addetti al marketing non riescono a identificare quali combinazioni di canali funzionano o, soprattutto, quali non funzionano, diventa quasi impossibile stabilire le priorità della spesa pubblicitaria. Con il giusto modello di attribuzione, gli esperti di marketing possono centralizzare le metriche per visualizzare l’intero percorso del cliente, dare priorità ai budget per massimizzare la spesa pubblicitaria e formulare raccomandazioni basate sui dati alla leadership. Questi strumenti aiutano a centralizzare e normalizzare i dati e a garantire che siano puliti, deduplicati e pronti per un’analisi più approfondita. La scelta del giusto modello di attribuzione può essere complicata. Ecco i tipi più comuni, con i loro pro e contro. Modello a percorso completo Questo modello è il più esteso e tecnico perché fornisce il tracciamento più completo del percorso di un cliente, registrando ogni interazione di marketing dal primo punto di contatto alla conversione finale. Tiene conto di tutti gli sforzi di marketing, come gli annunci pubblicitari, le interazioni sui social media, le campagne e-mail e persino gli impegni successivi all’acquisto, rendendolo molto efficace per un’analisi approfondita di ciò che funziona e di ciò che non funziona. Fornisce una visione dettagliata e end-to-end del percorso del cliente, consentendo agli addetti al marketing di attribuire con precisione i ricavi a specifiche attività di marketing. Inoltre, aiuta a ottimizzare l’allocazione del budget evidenziando i punti di contatto più influenti nel customer journey e supporta il processo decisionale strategico rivelando come i diversi canali lavorino insieme per influenzare le conversioni. Tuttavia, richiede risorse significative, tra cui strumenti di analisi avanzati e personale qualificato per la gestione e l’interpretazione dei dati, e può richiedere molto tempo per la configurazione e la manutenzione. Attribuzione lineare Questo modello assegna lo stesso valore a tutti i punti di contatto nel percorso del cliente. Ad esempio, se un cliente ti trova su Facebook, poi si iscrive alla tua newsletter e infine clicca sul link di un’e-mail prima di effettuare un acquisto, ogni punto di contatto riceverà lo stesso credito per la conversione. È relativamente facile da implementare e da capire, il che la rende un’opzione pratica per i team con risorse limitate o per chi sta iniziando a esplorare l’attribuzione multi-touch. Assegnare lo stesso credito a tutti i punti di contatto del customer journey enfatizza il valore di ogni interazione. L’aspetto negativo, però, è che manca di approfondimenti sfumati perché non tiene conto della diversa influenza che le varie interazioni possono avere sulla conversione finale.
Google annuncia una ristrutturazione per accelerare le iniziative sull’IA

Il CEO di Google Sundar Pichai ha annunciato una serie di cambiamenti strutturali e di nomine di dirigenti volti ad accelerare le iniziative dell’azienda in materia di AI. La ristrutturazione vede il team dell’app Gemini, guidato da Sissie Hsiao, unirsi a Google DeepMind sotto la guida di Demis Hassabis. “L’avvicinamento dei team migliorerà i cicli di feedback, consentirà una rapida implementazione dei nostri nuovi modelli nell’app Gemini, renderà più efficiente il nostro lavoro post-training e si baserà sul nostro grande slancio di prodotto”, ha spiegato Pichai. Inoltre, i team Assistant che si occupano di dispositivi ed esperienze domestiche saranno integrati nella divisione Platforms & Devices. Questa riorganizzazione ha lo scopo di allineare questi team più strettamente con le superfici di prodotto per cui stanno sviluppando e di consolidare le iniziative di AI per la casa intelligente di Google sotto un unico ombrello. Prabhakar Raghavan, veterano di Google da 12 anni, lascerà il suo attuale ruolo per diventare Chief Technologist di Google. Pichai ha elogiato il contributo di Raghavan, sottolineando la sua leadership in varie divisioni tra cui Ricerca, Spazio di lavoro, Annunci e Conoscenza e informazione (K&I). “Il percorso di leadership di Prabhakar in Google è stato notevole”, ha sottolineato Pichai. “Ha guidato il team di Gmail nel lancio di Smart Reply e Smart Compose come primi esempi di utilizzo dell’intelligenza artificiale per migliorare i prodotti, e ha portato Gmail e Drive oltre il miliardo di utenti” A prendere il timone della divisione K&I sarà Nick Fox, Googler di lunga data e membro del team di leadership di Raghavan. La nomina di Fox a SVP di K&I è dovuta alla sua vasta esperienza in vari settori dell’azienda, tra cui il prodotto e il design di Search e Assistant, oltre ai prodotti Shopping, Viaggi e Pagamenti. “Nick è stato determinante nel definire la roadmap dei prodotti AI di Google e nel collaborare a stretto contatto con Prabhakar e il suo team di leadership sulla strategia di K&I”, commenta Pichai. “Mi rivolgo spesso a Nick per affrontare le questioni di prodotto più impegnative e lui riesce sempre a compiere progressi con tenacia, velocità e ottimismo” La ristrutturazione arriva in un periodo di innovazioni basate sull’IA in tutta la gamma di prodotti Google. Gli sviluppi recenti includono il successo virale di NotebookLM con le panoramiche audio, i miglioramenti alla scoperta delle informazioni in Search e Lens, il lancio di una piattaforma di Google Shopping rinnovata e adattata all’era dell’intelligenza artificiale, progressi come AlphaProteo che potrebbe rivoluzionare la progettazione delle proteine e gli aggiornamenti della famiglia di modelli Gemini. Pichai ha anche evidenziato un importante traguardo nelle iniziative di Google per l’AI nel settore sanitario, rivelando che il suo sistema di AI per il rilevamento della retinopatia diabetica ha effettuato finora 600.000 screening. L’azienda ha in programma di espandere l’accesso a questa tecnologia in India e Thailandia. “L’IA si muove più velocemente di qualsiasi altra tecnologia. Per continuare ad aumentare il ritmo del progresso, abbiamo fatto dei cambiamenti per semplificare le nostre strutture lungo il percorso”, ha spiegato Pichai. (Foto di Mitchell Luo) Vedi anche: Wayra di Telefónica sostiene il motore di risposte AI Perplexity Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: ai, Alphabet, intelligenza artificiale, gemini, Google, sundar pichai Leggi di più su www.artificialintelligence-news.com
Intelligenza artificiale per il web design: Strumenti, tendenze e tecniche

Il ruolo dell’intelligenza artificiale nel web design si è evoluto in modo significativo, trasformando il modo in cui vengono costruiti i siti web e migliorandone le funzionalità. Non più limitata all’automazione di base, l’IA è ora profondamente integrata nel processo di web design, offrendo ai designer un potente strumento per creare siti web più dinamici, reattivi e personalizzati. In questo articolo ci addentreremo nel modo in cui l’intelligenza artificiale sta cambiando il web design e ti forniremo informazioni utili su come incorporare l’intelligenza artificiale nel tuo flusso di lavoro di progettazione. Come utilizzare l’intelligenza artificiale per il web design? L’influenza dell’intelligenza artificiale sul web design va oltre la semplice velocizzazione delle attività: si tratta di prendere decisioni più intelligenti e basate sui dati per creare una migliore esperienza utente. Ecco come l’IA può trasformare il processo di progettazione, dall’ideazione all’esecuzione. Decisioni di progettazione basate sui dati Uno dei principali vantaggi dell’intelligenza artificiale nel web design è la capacità di analizzare grandi serie di dati in modo rapido e accurato. Questo permette ai designer di prendere decisioni più informate quando creano interfacce utente. Analizzando il comportamento degli utenti, come i clic, gli schemi di scorrimento e il tempo trascorso sulle pagine, gli strumenti di intelligenza artificiale possono suggerire modifiche al layout che portano a un maggiore coinvolgimento. Migliorare la UX con la personalizzazione La personalizzazione non è più una caratteristica da avere, ma un’aspettativa. L’intelligenza artificiale può aiutarti a progettare siti web che si adattano alle preferenze dei singoli utenti. Analizzando il comportamento degli utenti in tempo reale, gli strumenti di intelligenza artificiale possono adattare gli elementi della pagina, come il layout, i contenuti o i consigli sui prodotti, in modo da soddisfare gli interessi specifici dell’utente. Un buon esempio sono i siti di e-commerce che mostrano dinamicamente i prodotti in base alla cronologia di navigazione degli utenti. Il livello di personalizzazione è sempre più cruciale in quanto gli utenti si aspettano esperienze sempre più personalizzate online. Un rapporto di McKinsey evidenzia la crescente aspettativa di personalizzazione dei contenuti dei siti web, affermando che “il 76% si sente frustrato quando ciò non avviene” L’integrazione dell’intelligenza artificiale nel tuo processo di web design ti permette di soddisfare queste aspettative e di creare progetti più efficaci che aumentano il coinvolgimento e la soddisfazione degli utenti. Automatizzare le attività banali I designer spesso si impantanano in attività ripetitive, come il ridimensionamento delle immagini o la regolazione dei layout per le diverse dimensioni dello schermo. L’intelligenza artificiale può automatizzare queste attività, liberando più tempo per i designer che possono così concentrarsi sulla creatività e sull’innovazione. Gli strumenti di intelligenza artificiale possono generare automaticamente variazioni di design e persino testarle in tempo reale, aiutandoti a identificare ciò che funziona meglio senza dover fare sforzi manuali. In effetti, l’utilizzo di AI landing page builder può cambiare le carte in tavola sia per i marketer che per i designer. Questi strumenti non solo automatizzano gran parte del processo di progettazione, ma utilizzano anche l’intelligenza artificiale per prevedere quali elementi del design porteranno il maggior numero di conversioni, riducendo la fase di prova ed errore. Incorporando l’intelligenza artificiale nel tuo flusso di lavoro, non solo risparmierai tempo, ma migliorerai la qualità dei tuoi progetti grazie all’utilizzo di informazioni basate sui dati. Mentre l’intelligenza artificiale continua a plasmare il web design, stanno emergendo diversi strumenti potenti per semplificare i processi e migliorare la creatività. Ecco alcuni dei principali strumenti di intelligenza artificiale che puoi utilizzare per creare siti web moderni e dinamici: Wix ADI Lo strumento ADI di Wix aiuta gli utenti a creare siti web professionali con poca o nessuna esperienza di codifica. Ponendo alcune domande, gli utenti generano automaticamente il layout e il design di un sito web unico, completo di contenuti personalizzati. Inoltre, offre funzioni di ottimizzazione SEO e di personalizzazione che consentono agli utenti di adattare il sito web generato alle loro esigenze. 10Web 10Web è un costruttore di siti web WordPress alimentato dall’intelligenza artificiale che semplifica il processo di creazione. Offre funzioni come la generazione rapida di siti web, strumenti di progettazione intuitivi e una perfetta integrazione con WordPress. Pur essendo limitato alla piattaforma WordPress e con una leggera curva di apprendimento per le funzioni avanzate, 10Web offre una soluzione facile da usare per creare siti web professionali con strumenti basati sull’intelligenza artificiale. Hostinger Hostinger è un famoso provider di web hosting che offre un costruttore di siti web AI conveniente e facile da usare. Grazie all’interfaccia drag-and-drop, all’installazione di WordPress con un solo clic e alle intuizioni guidate dall’intelligenza artificiale, Hostinger rende facile la creazione di siti web professionali. Sebbene presenti limitazioni come l’hosting condiviso e il potenziale upselling, la combinazione di hosting di qualità e strumenti intuitivi rende Hostinger una scelta interessante per chi cerca una soluzione economica. Unbounce Unbounce è uno dei principali creatori di landing page basati sull’intelligenza artificiale che offre funzionalità come contenuti personalizzati, ottimizzazione basata sui dati e un’interfaccia facile da usare. Sebbene abbia una curva di apprendimento più ripida per i principianti e prezzi più alti rispetto ad alcune alternative, la capacità di Unbounce di creare landing page ad alta conversione lo rende uno strumento prezioso per le aziende che cercano di migliorare i loro sforzi di marketing online. Adobe Sensei Adobe Sensei integra l’intelligenza artificiale nella suite Adobe, consentendo ai web designer di automatizzare attività banali come il ritaglio delle immagini, la rimozione degli oggetti e persino la progettazione del layout. Per i web designer che utilizzano piattaforme come Adobe XD, Sensei è in grado di consigliare modifiche al design in base ai dati degli utenti e al loro comportamento storico. Adobe Sensei è quindi uno strumento potente per i designer che vogliono rimanere creativi ottimizzando il loro flusso di lavoro. L’impatto dell’AI sulle tendenze del web design Mentre l’intelligenza artificiale continua a plasmare il panorama del web design, stiamo assistendo all’emergere di chiare tendenze. Queste tendenze riflettono la crescente sofisticazione degli strumenti di IA e il loro crescente impatto sull’esperienza utente e sulle metodologie di
L’UE avvia un codice di condotta sull’IA per bilanciare innovazione e sicurezza

La Commissione europea ha dato il via al progetto per lo sviluppo del primo Codice di condotta generale sull’IA, strettamente legato alla legge europea sull’IA recentemente approvata. Il Codice ha lo scopo di stabilire alcune chiare regole di base per i modelli di IA come ChatGPT e Google Gemini, soprattutto per quanto riguarda la trasparenza, il copyright e la gestione dei rischi che questi potenti sistemi comportano. In una recente plenaria online, quasi 1.000 esperti del mondo accademico, dell’industria e della società civile si sono riuniti per contribuire alla definizione del Codice. Il processo è guidato da un gruppo di 13 esperti internazionali, tra cui Yoshua Bengio, uno dei “padrini” dell’IA, che si occuperà del gruppo che si concentra sui rischi tecnici. Bengio ha vinto il Premio Turing, che è di fatto il Premio Nobel per l’informatica, quindi le sue opinioni hanno un peso meritato. Le opinioni pessimistiche di Bengio sul rischio catastrofico che le potenti IA comportano per l’umanità lasciano intendere la direzione che prenderà il team da lui diretto. Questi gruppi di lavoro si riuniranno regolarmente per redigere il Codice, la cui versione finale è prevista per aprile 2025. Una volta ultimato, il Codice avrà un forte impatto su tutte le aziende che intendono distribuire i propri prodotti di IA nell’UE. Il sito EU AI Act definisce un quadro normativo rigoroso per i fornitori di IA, ma il Codice di condotta sarà la guida pratica che le aziende dovranno seguire. Il Codice si occuperà di questioni come rendere i sistemi di IA più trasparenti, garantire il rispetto delle leggi sul copyright e stabilire misure per gestire i rischi associati all’IA. I team che redigeranno il Codice dovranno trovare un equilibrio tra lo sviluppo dell’IA in modo responsabile e sicuro, senza soffocare l’innovazione, cosa per cui l’UE è già stata criticata. I più recenti modelli e funzionalità di IA di Meta, Apple e OpenAI non vengono utilizzati appieno nell’UE a causa delle già severe leggi sulla privacy GDPR. Le implicazioni sono enormi. Se fatto bene, il Codice potrebbe stabilire standard globali per la sicurezza e l’etica dell’IA, conferendo all’UE un ruolo di leadership nella regolamentazione dell’IA. Ma se il Codice è troppo restrittivo o poco chiaro, potrebbe rallentare lo sviluppo dell’IA in Europa, spingendo gli innovatori altrove. Anche se l’UE sarebbe senza dubbio favorevole all’adozione del Codice a livello mondiale, è improbabile che ciò avvenga poiché la Cina e gli Stati Uniti sembrano essere più favorevoli allo sviluppo che avversi al rischio. Il veto della legge sulla sicurezza dell’IA SB 1047 della California è un buon esempio dei diversi approcci alla regolamentazione dell’IA. È improbabile che l’IA emerga dall’industria tecnologica dell’UE, ma è anche meno probabile che l’UE sia il punto di partenza di una potenziale catastrofe alimentata dall’IA. Leggi di più su dailyai.com
OpenAI svela l’API Realtime e altre funzionalità per gli sviluppatori

OpenAI non ha rilasciato nuovi modelli durante l’evento Dev Day, ma le nuove funzionalità dell’API entusiasmeranno gli sviluppatori che vogliono utilizzare i suoi modelli per creare potenti app. OpenAI ha avuto settimane difficili: il suo CTO, Mira Murati, e altri ricercatori si sono aggiunti alla lista sempre più lunga degli ex dipendenti. L’azienda è sottoposta a una crescente pressione da parte di altri modelli di punta, compresi quelli open-source che offrono agli sviluppatori opzioni più economiche e altamente capaci. Le novità presentate da OpenAI sono state l’API Realtime (in versione beta), la messa a punto della visione e strumenti per aumentare l’efficienza come il prompt caching e la distillazione dei modelli. API Realtime L’API Realtime è la novità più interessante, anche se in versione beta. Consente agli sviluppatori di creare esperienze speech-to-speech a bassa latenza nelle loro app senza utilizzare modelli separati per il riconoscimento vocale e la conversione text-to-speech. Grazie a questa API, gli sviluppatori possono creare applicazioni che consentono conversazioni in tempo reale con l’intelligenza artificiale, come gli assistenti vocali o gli strumenti di apprendimento linguistico, il tutto attraverso un’unica chiamata API. Non è proprio l’esperienza perfetta che offre la modalità vocale avanzata di GPT-4o, ma ci si avvicina. Tuttavia, non è economica: costa circa 0,06 dollari al minuto di input audio e 0,24 dollari al minuto di output audio. La nuova API Realtime di OpenAI è incredibile.. Guarda come ordina 400 fragole chiamando il negozio con twillio. Il tutto con la voce. 🍓🎤 pic.twitter.com/J2BBoL9yFv – Ty (@FieroTy) 1 ottobre 2024 Messa a punto della visione La messa a punto della visione all’interno dell’API consente agli sviluppatori di migliorare la capacità dei loro modelli di comprendere e interagire con le immagini. Grazie alla messa a punto di GPT-4o utilizzando le immagini, gli sviluppatori possono creare applicazioni che eccellono in attività come la ricerca visiva o il rilevamento di oggetti. Questa funzione è già stata sfruttata da aziende come Grab, che ha migliorato l’accuratezza del suo servizio di mappatura mettendo a punto il modello per riconoscere i segnali stradali dalle immagini a livello stradale. OpenAI ha anche fornito un esempio di come GPT-4o possa generare contenuti aggiuntivi per un sito web dopo essere stato messo a punto per adattarsi stilisticamente ai contenuti esistenti del sito. Caching dei messaggi Per migliorare l’efficienza dei costi, OpenAI ha introdotto il prompt caching, uno strumento che riduce i costi e la latenza delle chiamate API utilizzate di frequente. Riutilizzando gli input elaborati di recente, gli sviluppatori possono tagliare i costi del 50% e ridurre i tempi di risposta. Questa funzione è particolarmente utile per le applicazioni che richiedono lunghe conversazioni o contesti ripetuti, come i chatbot e gli strumenti di assistenza clienti. L’utilizzo di input memorizzati nella cache può far risparmiare fino al 50% sui costi dei token di input. Confronto dei prezzi dei token di input memorizzati nella cache e non memorizzati nella cache per l’API di OpenAI. Fonte: OpenAI Distillazione dei modelli La distillazione dei modelli consente agli sviluppatori di mettere a punto modelli più piccoli e più efficienti dal punto di vista dei costi, utilizzando i risultati di modelli più grandi e più capaci. Si tratta di una svolta epocale perché, in precedenza, la distillazione richiedeva molteplici passaggi e strumenti scollegati tra loro, rendendo il processo lungo e soggetto a errori. Prima della funzione integrata Model Distillation di OpenAI, gli sviluppatori dovevano orchestrare manualmente diverse parti del processo, come la generazione di dati da modelli più grandi, la preparazione di set di dati per la messa a punto e la misurazione delle prestazioni con vari strumenti. Ora gli sviluppatori possono archiviare automaticamente le coppie di risultati di modelli più grandi, come GPT-4o, e usarle per mettere a punto modelli più piccoli, come GPT-4o-mini. L’intero processo di creazione del set di dati, messa a punto e valutazione può essere eseguito in modo più strutturato, automatizzato ed efficiente. La semplificazione del processo di sviluppo, la minore latenza e i costi ridotti renderanno il modello GPT-4o di OpenAI una prospettiva interessante per gli sviluppatori che desiderano distribuire rapidamente applicazioni potenti. Sarà interessante vedere quali applicazioni saranno possibili grazie alle funzionalità multimodali. Leggi di più su dailyai.com
Creare reti ottimizzate per l’intelligenza artificiale e migliorare la sicurezza

L’evoluzione delle applicazioni di intelligenza artificiale comporta una maggiore richiesta di infrastrutture di rete, soprattutto in termini di latenza e connettività. Il supporto di implementazioni di IA su larga scala introduce nuovi problemi e gli analisti prevedono che il traffico legato all’IA rappresenterà presto una parte importante del traffico di rete totale. Il settore deve essere pronto a gestire questa ondata in modo efficace. F5 sta adattando le sue soluzioni per gestire la complessità dei carichi di lavoro dell’intelligenza artificiale e la sua tecnologia ora include l’elaborazione in tempo reale di dati multimodali. Kunal Anand, Chief Technology and AI Officer di F5 (Fonte: F5) L’intelligenza artificiale presenta sia opportunità che rischi nel campo della sicurezza, in quanto è in grado di migliorare la protezione e allo stesso tempo di consentire le minacce informatiche guidate dall’intelligenza artificiale. La collaborazione tra hyperscaler, telco e aziende tecnologiche è fondamentale per creare reti ottimizzate per l’AI. La collaborazione e l’innovazione continuano a cambiare il panorama delle reti AI e F5 è impegnata a promuovere i progressi in questo settore. In vista dell’AI & Big Data Expo Europe, Kunal Anand, Chief Technology and AI Officer di F5, illustra il ruolo e le iniziative dell’azienda per rimanere all’avanguardia nelle soluzioni di rete abilitate all’AI. Notizie sull’AI: Con l’evoluzione delle applicazioni AI, le esigenze dell’infrastruttura di rete diventano sempre più complesse. Quali sono le sfide principali che il settore deve affrontare in termini di latenza e connettività per supportare le implementazioni di AI su larga scala? Anand: F5 ha scoperto che l’IA ha trasformato drasticamente le architetture delle applicazioni. Alcune aziende stanno investendo miliardi di dollari in fabbriche di IA – cluster di GPU enormi – mentre altre preferiscono soluzioni basate sul cloud o piccoli modelli linguistici (SLM) come alternative meno costose. Le architetture di rete si stanno evolvendo per affrontare queste sfide. Le fabbriche di AI operano su stack di rete distinti, come InfiniBand con GPU specifiche come le H100 o la prossima serie Blackwell di NVIDIA. Allo stesso tempo, le tecnologie basate sul cloud e i cloud di GPU stanno avanzando. Una tendenza importante è quella della gravità dei dati, in cui i dati delle organizzazioni sono bloccati in ambienti specifici. Questo ha spinto l’evoluzione delle architetture multi-cloud, che consentono ai carichi di lavoro di collegarsi con i dati attraverso gli ambienti per la generazione aumentata del reperimento (RAG). Con l’aumento delle richieste di RAG, le organizzazioni si trovano ad affrontare una latenza maggiore a causa delle risorse limitate, sia che si tratti di archivi di dati molto utilizzati o di set limitati di server GPU. Notizie sull’AI: Gli analisti prevedono che il traffico legato all’intelligenza artificiale costituirà presto una parte significativa del traffico di rete. Quali sfide particolari pone questo afflusso di traffico generato dall’intelligenza artificiale all’infrastruttura di rete esistente e come pensi che il settore si stia preparando? Anand: F5 ritiene che entro la fine del decennio la maggior parte delle applicazioni sarà alimentata o guidata dall’intelligenza artificiale, rendendo necessario un aumento della catena dei servizi di rete. Queste applicazioni utilizzeranno le API per comunicare con le fabbriche di AI e i servizi di terze parti, per accedere ai dati per la RAG e potenzialmente per esporre le proprie API. In sostanza, le API saranno il collante che terrà insieme questo ecosistema, come suggerito dagli analisti. In prospettiva, si prevede che il traffico legato all’intelligenza artificiale dominerà il traffico di rete, poiché l’intelligenza artificiale sarà sempre più integrata nelle applicazioni e nelle API. Poiché l’IA diventa centrale in quasi tutte le applicazioni, il traffico legato all’IA aumenterà naturalmente. Notizie sull’AI: Con le applicazioni AI che diventano sempre più complesse e che elaborano dati multimodali in tempo reale, in che modo F5 sta adattando le sue soluzioni per garantire che le reti possano gestire in modo efficiente questi carichi di lavoro dinamici? Anand: F5 guarda a questo aspetto da molti punti di vista. Nel caso di RAG, quando i dati – che siano immagini, flussi binari o testo – devono essere recuperati da uno storage di dati, il metodo è lo stesso indipendentemente dal formato dei dati. I clienti spesso desiderano un rapido bilanciamento del carico Layer 4, la gestione del traffico e le capacità di gestione, tutte caratteristiche in cui F5 eccelle. L’azienda fornisce alle organizzazioni servizi di bilanciamento del carico, gestione del traffico e sicurezza, garantendo a RAG un accesso efficiente ai dati. F5 ha anche abilitato il bilanciamento del carico tra le fabbriche di AI. In alcuni casi, le grandi organizzazioni gestiscono cluster di GPU enormi con decine di migliaia di GPU. Poiché i carichi di lavoro dell’AI sono imprevedibili, queste GPU possono essere disponibili o non disponibili a seconda del carico di lavoro. F5 garantisce un instradamento efficiente del traffico, mitigando l’imprevedibilità dei carichi di lavoro AI. F5 migliora le prestazioni, aumenta il throughput e aggiunge funzionalità di sicurezza per le organizzazioni che costruiscono fabbriche e cluster di AI. Notizie sull’AI: Poiché l’IA migliora la sicurezza e allo stesso tempo pone delle minacce informatiche basate sull’IA, quali approcci sta adottando F5 per rafforzare la sicurezza e la resilienza della rete contro queste sfide in continua evoluzione? Anand: Ci sono molte sfide diverse legate all’AI in arrivo. Gli aggressori stanno già utilizzando l’intelligenza artificiale per generare nuovi payload, trovare scappatoie e lanciare attacchi unici. Ad esempio, ChatGPT e i trasformatori visivi hanno la capacità di rompere i CAPTCHA, soprattutto quelli interattivi. Le dimostrazioni recenti hanno mostrato la sofisticazione di questi attacchi. Come già visto in passato, ogni volta che gli aggressori ottengono un vantaggio con una nuova tecnologia, i difensori devono raccogliere la sfida. Questo spesso richiede la riconsiderazione dei modelli di sicurezza, come il passaggio da “permetti tutto, nega alcuni” a “permetti alcuni, nega tutto” Molte organizzazioni stanno esplorando soluzioni per combattere le minacce guidate dall’intelligenza artificiale. F5 sta facendo grandi investimenti per stare al passo con le minacce guidate dall’intelligenza artificiale. Nell’ambito del suo programma di intelligence F5, l’azienda sta sviluppando, addestrando e distribuendo modelli che sono
OpenAI finalmente distribuisce l’assistente vocale di ChatGPT agli utenti a pagamento

OpenAI sta finalmente distribuendo il suo assistente vocale agli abbonati a ChatGPT Plus, ma mancano alcune delle funzioni che l’azienda aveva mostrato nella sua dimostrazione originale. L’Advanced Voice Mode (AVM) è stato dimostrato per la prima volta a maggio, ma le preoccupazioni relative all’allineamento della sicurezza e alla capacità di AVM di riprodurre contenuti protetti da copyright ne hanno bloccato il rilascio. Anche la polemica su una delle voci chiamate “Sky” che assomigliava molto a Scarlett Johansson probabilmente non ha aiutato. OpenAI ha accennato con umorismo alla frustrante lunga attesa per AVM nel suo annuncio del lancio. Advanced Voice sarà disponibile per tutti gli utenti Plus e Team nell’app ChatGPT nel corso della settimana. Mentre aspettavi pazientemente, abbiamo aggiunto Istruzioni personalizzate, Memoria, cinque nuove voci e accenti migliorati. Può anche dire “Scusate il ritardo” in oltre 50 lingue. pic.twitter.com/APOqqhXtDg – OpenAI (@OpenAI) 24 settembre 2024 AVM è dotato di cinque nuove voci, tra cui una con accento australiano, ma i fan del film “Her” saranno delusi nello scoprire che la voce di Sky è stata rimossa. Le nuove voci sono Arbor, Maple, Sol, Spruce e Vale, per un totale di nove voci. Ecco le cinque nuove voci. pic.twitter.com/F9BOUaJqG1 – OpenAI (@OpenAI) 24 settembre 2024 Un’altra caratteristica che gli utenti non avranno ancora a disposizione è la capacità di visione di AVM. Quando OpenAI ha presentato l’assistente vocale, era in grado di accedere alla fotocamera del telefono e di rispondere ai dati visivi. Per ora AVM dispone solo della modalità vocale. Non si sa quando, o se, AVM riceverà il dono della vista. Potrebbe trattarsi semplicemente di una mossa strategica per ridurre le richieste di calcolo ai server OpenAI, dato che gli utenti si affrettano a provare AVM. AVM è comunque dotato di alcune nuove funzionalità. AVM memorizzerà le “istruzioni personalizzate” dell’utente su come vuole che il modello parli. È possibile specificare una cadenza specifica o il modo in cui ci si vuole rivolgere. Inoltre, consente all’utente di fornire un background personale in modo che l’AVM possa offrire risposte più pertinenti al contesto. La funzione “memoria” permette a ChatGPT di ricordare le conversazioni per farvi riferimento nelle interazioni successive. Gli utenti stanno già condividendo video di modi creativi di utilizzare l’AVM. Advanced Voice in ChatGPT accorda la mia chitarra. pic.twitter.com/1H6mYZTCq7 – Pietro Schirano (@skirano) 24 settembre 2024 Se ti trovi nel Regno Unito, nell’Unione Europea o in Svizzera, potresti dover aspettare un po’ prima che AVM venga attivato sul tuo dispositivo. OpenAI non ha indicato quando la funzione sarà diffusa a livello globale. Leggi di più su dailyai.com
