ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

La rivoluzione dell’intelligenza artificiale in corso sta rimodellando il mondo, un algoritmo alla volta

La rivoluzione dell'intelligenza artificiale in corso sta rimodellando il mondo, un algoritmo alla volta

  In pochi anni, il regno dell’IA ha superato i suoi iniziali confini computazionali, emergendo come una delle forze trasformative del 21° secolo, che permea praticamente tutti i principali settori economici. Il mercato globale dell’IA è stato valutato a 638,23 miliardi di dollari nel quarto trimestre del 2024 e si prevede che raggiungerà una valutazione di 3,6 trilioni di dollari entro il 2034, soprattutto perché l’IA ha il potenziale per essere adottata in modo diffuso in diversi settori. Ad esempio, nel settore sanitario, il 38% di tutti i principali fornitori di servizi medici utilizza strumenti diagnostici avanzati di IA. Allo stesso modo, anche il settore finanziario ha dimostrato un’integrazione impressionante: si prevede che l’IA contribuirà all’ economia globale per circa 15,7 trilioni di dollari entro il 2030. Anche il settore della vendita al dettaglio ha puntato a una cifra compresa tra i 400 e i 660 miliardi di dollari all’anno grazie alle esperienze dei clienti guidate dall’intelligenza artificiale, mentre il settore della sicurezza informatica è destinato a registrare un tasso di crescita del 23,6% entro il 2027 grazie alle tecnologie di sicurezza intelligenti alimentate dall’intelligenza artificiale. Si stima che circa l’83% delle aziende abbia già iniziato a considerare l’IA come una priorità strategica, riconoscendo il suo potenziale nel guidare l’innovazione, migliorare l’efficienza e creare vantaggi competitivi. Semplificare la vita quotidiana con l’IA Con la trasformazione del panorama tecnologico globale avvenuta negli ultimi due anni, siamo ora a un punto in cui l’IA sta iniziando ad automatizzare diverse attività quotidiane banali e dispendiose in termini di tempo. Il concetto di “gemelli AI” ha preso piede di recente, consentendo alle persone di gestire la programmazione, rispondere alle e-mail, condurre ricerche e gestire in modo efficiente compiti amministrativi complessi. Questi compagni digitali non rappresentano solo una caricatura dell’identità reale di una persona, ma offrono acceleratori di produttività progettati per liberare chiunque da cicli di lavoro ripetitivi (permettendo così di concentrarsi su compiti più creativi, strategici o emotivamente sfumati). Inoltre, possono aiutare a ridurre il carico cognitivo ed emotivo della gestione di molteplici responsabilità, che altrimenti potrebbe risultare opprimente per alcuni. A guidare questa rivoluzione è Twin Protocol, una piattaforma che cerca di ridefinire il modo in cui gli esseri umani interagiscono con l’IA, principalmente attraverso la creazione di rappresentazioni digitali sicure e dinamiche in grado di apprendere, adattarsi ed evolversi insieme alle loro controparti umane. Utilizzando la potenza degli algoritmi di apprendimento automatico addestrati e dei libri contabili decentralizzati, Twin Protocol consente agli individui di sviluppare gemelli digitali in grado di catturare non solo informazioni, ma anche competenze individuali e tratti della personalità. Il potenziale della piattaforma si estende a diversi settori, dalla sanità alla produzione e alla finanza. Immagina di avere la possibilità di distribuire un gemello AI sempre disponibile in grado di fornire consigli sanitari personalizzati, oppure una rappresentazione digitale di un consulente finanziario che offre strategie di investimento in tempo reale e consapevoli del contesto. Questi gemelli non sono progettati per servire come semplici archivi di informazioni, ma come strumenti intelligenti e dinamici in grado di comprendere il contesto, di apprendere continuamente e di fornire interazioni sfumate e personalizzate. Ciò che distingue Twin Protocol è il suo impegno a mantenere l’autonomia individuale e la privacy dei dati. Grazie al suo “Twin Vault” basato sulla blockchain, gli utenti possono mantenere il controllo sulla propria identità digitale, garantendo la sicurezza delle informazioni personali. Grazie alla sua proposta unica, la piattaforma ha attirato diverse collaborazioni, tra cui quelle con SingularityNET e con personaggi di spicco come Deepak Chopra e Robert Bell (membro fondatore di Kool & the Gang). Il potenziale dell’IA è ancora inesplorato Si stima che nel prossimo decennio il potenziale dell’IA potrebbe crescere enormemente, con offerte come Twin Protocol che dimostrano la tecnologia di prossima generazione, consentendo agli utenti di esplorare nuovi concetti come i gemelli digitali. Dall’istruzione personalizzata all’ottimizzazione industriale, l’IA sta superando la categoria di strumento, diventando un partner trasformativo in grado di ampliare le capacità individuali. Il viaggio e la simbiosi dell’IA sono destinati a superare i confini di ciò che è possibile oggi. Alcune delle innovazioni più interessanti che deriveranno da questo campo non risiederanno nella tecnologia, ma nel modo in cui il suo potenziale verrà applicato ad altri campi. Ci aspettano tempi interessanti! Leggi di più su www.artificialintelligence-news.com

Sicurezza, sostenibilità e superamento dei silos

Sicurezza, sostenibilità e superamento dei silos

  NetApp ha fatto luce sui problemi più urgenti che le organizzazioni di tutto il mondo si trovano ad affrontare mentre cercano di ottimizzare le loro strategie per il successo dell’IA. “Il 2025 si preannuncia come un anno decisivo per l’IA, in quanto le organizzazioni passano dalla sperimentazione alla scalabilità delle loro capacità di IA”, ha dichiarato Gabie Boko, Chief Marketing Officer di NetApp. “Le aziende stanno facendo investimenti significativi per promuovere l’innovazione e l’efficienza, ma questi sforzi avranno successo solo se i dirigenti del settore tecnologico a livello globale riusciranno ad affrontare le crescenti sfide legate alla complessità dei dati, alla sicurezza e alla sostenibilità” I risultati dell’ultimo Data Complexity Report di NetApp tracciano un quadro dettagliato della situazione attuale delle aziende nel loro percorso verso l’IA e delle tendenze chiave che influenzeranno il futuro della tecnologia. Costo della trasformazione Due terzi delle aziende di tutto il mondo affermano che i loro dati sono “completamente o in gran parte ottimizzati” per l’IA, evidenziando i grandi miglioramenti ottenuti nel rendere i dati accessibili, accurati e ben documentati. Tuttavia, lo studio rivela che il percorso verso la maturità dell’IA richiede ulteriori investimenti significativi. Un sorprendente 40% dei dirigenti tecnologici globali prevede che nel 2025 saranno necessari “investimenti senza precedenti” solo per migliorare le capacità di gestione dell’IA e dei dati. Sebbene siano stati compiuti notevoli progressi, il raggiungimento di innovazioni di grande impatto richiede un impegno ancora maggiore in termini di risorse finanziarie e infrastrutturali. Raggiungere il potenziale dell’IA potrebbe non costare poco, ma i leader disposti a investire potrebbero raccogliere notevoli frutti in termini di innovazione ed efficienza. I silos di dati ostacolano il successo dell’IA Uno dei principali ostacoli identificati nel rapporto è la frammentazione dei dati. Uno schiacciante 79% dei dirigenti tecnologici globali afferma che unificare i dati, riducendo i silos e garantendo un’interconnessione fluida, è la chiave per sbloccare il pieno potenziale dell’IA. Le aziende che hanno adottato l’archiviazione unificata dei dati sono in una posizione migliore per superare questo ostacolo. Collegando i dati indipendentemente dal loro tipo o dalla loro posizione (in ambienti ibridi multi-cloud), garantiscono un’accessibilità costante e riducono al minimo la frammentazione. Il rapporto indica che le organizzazioni che danno priorità all’unificazione dei dati hanno molte più probabilità di raggiungere i loro obiettivi di intelligenza artificiale nel 2025. Quasi un terzo (30%) delle aziende che non danno priorità all’unificazione prevede di non raggiungere i propri obiettivi, rispetto al 23% di quelle che pongono questo aspetto al centro della propria strategia. I dirigenti hanno raddoppiato le priorità sulla gestione dei dati e sull’infrastruttura, riconoscendo sempre più che l’ottimizzazione della capacità di raccogliere, archiviare ed elaborare le informazioni è essenziale per la maturità dell’IA. Le aziende che si rifiutano di affrontare queste sfide sui dati rischiano di rimanere indietro in un mercato globale intensamente competitivo. Rischi di scala dell’IA Man mano che le aziende accelerano l’adozione dell’IA, i rischi associati, in particolare per quanto riguarda la sicurezza, diventano sempre più gravi. Più di due quinti (41%) dei dirigenti del settore tecnologico a livello globale prevedono un forte aumento delle minacce alla sicurezza entro il 2025, man mano che l’IA diventerà parte integrante di un maggior numero di aspetti delle loro attività. La rapida ascesa dell’IA ha ampliato le superfici di attacco, esponendo i set di dati a nuove vulnerabilità e creando sfide uniche come la protezione dei modelli sensibili di IA. I Paesi che guidano la corsa all’IA, tra cui India, Stati Uniti e Giappone, hanno quasi il doppio delle probabilità di incorrere in problemi di sicurezza rispetto a nazioni meno avanzate in materia di IA come Germania, Francia e Spagna. La maggiore consapevolezza dei problemi di sicurezza legati all’IA si riflette nelle priorità aziendali. Oltre la metà (59%) dei dirigenti globali indica la cybersicurezza come uno dei principali fattori di stress che le organizzazioni devono affrontare oggi. Tuttavia, si stanno facendo progressi. Nonostante le elevate preoccupazioni, il rapporto suggerisce che le misure di sicurezza efficaci stanno dando risultati. Dal 2023, il numero di dirigenti che considerano la protezione dalla cybersicurezza e dal ransomware come la loro priorità principale è diminuito del 17%, segnalando un certo ottimismo nel combattere efficacemente questi rischi. Limitare i costi ambientali dell’IA Oltre ai rischi per la sicurezza, la crescita dell’IA sta sollevando urgenti questioni di sostenibilità. Oltre un terzo dei dirigenti tecnologici globali (34%) prevede che i progressi dell’IA porteranno a cambiamenti significativi nelle pratiche di sostenibilità aziendale. Nel frattempo, il 33% prevede nuove politiche e investimenti governativi mirati all’utilizzo dell’energia. L’infrastruttura che alimenta l’IA e che trasforma i dati grezzi in valore aziendale richiede una notevole quantità di energia, contrastando gli obiettivi di sostenibilità delle organizzazioni. Le nazioni che utilizzano molto l’IA spesso sentono l’impatto ambientale in modo più acuto rispetto alle loro controparti meno focalizzate sull’IA. Sebbene il 72% delle aziende dia ancora priorità alla riduzione dell’impronta di carbonio, il rapporto rileva un calo rispetto all’84% del 2023, indicando una crescente tensione tra gli impegni di sostenibilità e l’incessante marcia dell’innovazione. Per le organizzazioni che vogliono scalare l’IA senza causare danni irreparabili al pianeta, nei prossimi anni sarà fondamentale mantenere la responsabilità ambientale insieme alla crescita tecnologica. Krish Vitaldevara, SVP e GM di NetApp, ha commentato: “Le organizzazioni leader nel settore dell’analisi avanzata e dell’IA sono quelle che dispongono di dati unificati e ben catalogati, di una solida sicurezza e conformità per le informazioni sensibili e di una chiara comprensione dell’evoluzione dei dati”. “Affrontando queste sfide, possono guidare l’innovazione garantendo al contempo resilienza, responsabilità e approfondimenti tempestivi nella nuova era dell’IA” Puoi trovare una copia completa del rapporto di NetApp qui (PDF) Leggi di più su www.artificialintelligence-news.com

Le aziende di AI che aiutano gli editori a navigare nell’AI nel 2024 segnalano un ecosistema in via di maturazione

Le aziende di AI che aiutano gli editori a navigare nell'AI nel 2024 segnalano un ecosistema in via di maturazione

Le tensioni tra gli editori e le aziende di IA sull’utilizzo dei contenuti nel 2024 si sono fatte sentire, ma alcune startup sostenute dall’IA sono nate per aiutare a conciliare questi conflitti. Dall’aiutare gli editori a gestire l’integrazione dell’IA, a stabilire i prezzi ottimali per i loro contenuti e a monetizzare in modo più efficace quando le aziende di IA vogliono concedere in licenza i loro dati, fino alla stipula di accordi con gli editori e alla fornitura di riassunti dei contenuti generati dall’IA, queste aziende stanno svolgendo un ruolo cruciale nel bilanciare l’innovazione con l’esigenza di trasparenza, condivisione dei ricavi e uso corretto. Gli editori hanno un altro nemico tecnologico. “Gli editori sanno che l’intelligenza artificiale può essere loro amica, ma sono infastiditi da ciò che considerano un uso ingiusto dei loro contenuti”, ha dichiarato Jeremy Goldman, direttore senior del settore marketing, vendita al dettaglio e briefing tecnologici di Emarketer, aggiungendo che gli editori finiranno per “fare pace nel modo in cui ti rendi conto che questa cosa ti sta danneggiando e ti ci abitui” Un numero crescente di editori sta stipulando accordi di licenza con aziende di IA come OpenAI (Axel Springer, News Corp, Dotdash Meredith) e Perplexity, a testimonianza di un rapporto che sta maturando. Ma “alla fine questi assegni diventeranno sempre più piccoli”, ha detto Goldman. “L’obiettivo per le aziende di AI più grandi è l’accettazione da parte del pubblico” Ecco le startup che colmano il divario tra gli editori e le grandi aziende di AI (in ordine alfabetico). Dappier: mercato per gli editori che vendono i loro contenuti agli LLM La piattaforma di Dappier aiuta gli editori a monetizzare i loro contenuti mettendoli in contatto con le aziende di IA che hanno bisogno di dati per addestrare i loro modelli. Gli editori caricano i loro contenuti attraverso i feed RSS e Dappier permette alle aziende di AI di utilizzare questi contenuti. Gli editori hanno la possibilità di stabilire i propri prezzi per guadagnare. Finanziamenti: 2 milioni di dollari nel seed round di giugno guidato da Silverton Partners Direqt: aiuta gli editori a far crescere e a monetizzare i chatbot AI Direqt aiuta gli editori, come ESPN, Wired e Vogue, a far crescere e a monetizzare i chatbot AI addestrati sui loro contenuti. Questi chatbot, integrati nei siti web degli editori, avviano conversazioni con i visitatori e consigliano storie, portando traffico al sito. Grazie alla collaborazione con fornitori di AI come OpenAI e Google, Direqt integra i modelli linguistici di grandi dimensioni (LLM) nei chatbot, consentendo agli editori di personalizzare l’esperienza del chatbot in base alle loro esigenze, ad esempio creando quiz interattivi.   Finanziamenti: 4,5 milioni di dollari nel seed round dell’ottobre dello scorso anno da imprenditori tra cui Todd Parker, ex responsabile globale della messaggistica aziendale di Google, Peter Callahan, ex CEO di American Media, e l’Hall of Famer della NFL Dan Marino. Firsthand: consente agli editori di creare agenti AI utilizzati dai propri clienti Firsthand consente agli editori di creare agenti di intelligenza artificiale che interagiscono direttamente con i consumatori online mantenendo il controllo sui loro contenuti e dati. Ad esempio, un lettore che termina un articolo sulla gestione patrimoniale potrebbe interagire con un agente AI di un marchio di gestione patrimoniale come Vanguard. L’idea è che questo offra l’opportunità di un coinvolgimento più profondo del marchio. Gli editori possono beneficiare di una maggiore interazione e di nuove vie di monetizzazione, mentre i marchi ottengono preziosi dati di prima parte e approfondimenti sul comportamento dei consumatori. Finanziamenti: 6,65 milioni di dollari di seed round raccolti a febbraio e guidati da Radical Ventures Particle: pubblica notizie puntate e compensa gli editori Fondata dagli ex dirigenti di Twitter Sara Beykpour e Marcel Molina, Particle utilizza l’intelligenza artificiale per generare riassunti concisi e puntati di articoli di notizie provenienti direttamente dagli editori. Ancora in fase beta e con una base di utenti limitata, Particle ha recentemente firmato il suo primo accordo sui contenuti con Reuters, integrando il servizio di newswire come fonte primaria di informazioni. Beykpour ha dichiarato ad Axios che l’obiettivo è quello di garantire agli editori un compenso per i loro contenuti, dato che i riassunti delle notizie alimentati dall’intelligenza artificiale diventano un nuovo modo per i consumatori di tenersi informati. Finanziamenti: 10,9 milioni di dollari nella Serie A di giugno, guidata da Lightspeed Venture Partners ProRata AI: rileva i contenuti su licenza e calcola i compensi ProRata AI ha due attività principali: un motore di ricerca che fa emergere i contenuti concessi in licenza dagli editori e una tecnologia brevettata che determina un compenso equo per gli editori, tecnologia che l’azienda spera venga adottata da aziende di AI più grandi. Il modello di ProRata condivide con gli editori il 50% delle entrate derivanti da abbonamenti e pubblicità, una strategia che ha già attirato l’attenzione di testate come Time, Fortune e Financial Times. L’azienda è convinta che il suo approccio a un compenso equo e trasparente piacerà alle aziende di AI più grandi, aiutando a bilanciare la bilancia in un settore in cui gli editori sono spesso in contrasto con gli sviluppatori di AI. Finanziamenti: serie A da 25 milioni di dollari ad agosto da Mayfield, Revolution Ventures, Prime Movers Lab e Idealab Studio   ScalePost: bilancia i partner per le aziende di IA e gli editori ScalePost aiuta le aziende di IA e gli editori a scalare le loro attività di onboarding, pricing e logistica legale. La piattaforma fornisce inoltre agli editori strumenti di analisi per monitorare il modo in cui i loro contenuti vengono visualizzati nelle query di ricerca guidate dall’intelligenza artificiale, rendendo la monetizzazione più chiara e realizzabile in questo panorama in evoluzione. Uno dei principali successi di ScalePost è l’aver aiutato Perplexity ad assicurarsi accordi pluriennali con editori come Time e LA Times attraverso il suo Publisher Program. L’azienda guadagna la sua parte attraverso un modello di condivisione dei ricavi, prendendo una parte dei ricavi ottenuti dagli editori grazie alle partnership sui contenuti dell’intelligenza artificiale. Finanziamenti: Ha raccolto fondi

Google lancia i modelli di intelligenza artificiale generativa Veo e Imagen 3

Google lancia i modelli di intelligenza artificiale generativa Veo e Imagen 3

Google Cloud ha lanciato due modelli di IA generativa sulla sua piattaforma Vertex AI, Veo e Imagen 3, tra le notizie di un’impennata dei ricavi delle aziende che utilizzano questa tecnologia. Secondo i dati di Google Cloud, l’86% delle aziende che attualmente utilizzano l’IA generativa in ambienti di produzione ha registrato un aumento dei ricavi, con una crescita media stimata del 6%. Questo dato ha spinto il gigante tecnologico a introdurre le ultime innovazioni, come Veo, il suo modello di generazione video più sofisticato, e Imagen 3, un sistema avanzato di generazione da testo a immagine. Un passo avanti Veo, ora disponibile in anteprima privata su Vertex AI, rappresenta una pietra miliare in quanto Google diventa il primo hyperscaler a offrire un modello image-to-video. La tecnologia consente alle aziende di generare video di alta qualità a partire da semplici richieste di testo o immagini, rivoluzionando potenzialmente i flussi di lavoro della produzione video in tutti i settori. Imagen 3 – il cui rilascio a tutti i clienti di Vertex AI è previsto per la prossima settimana – promette un realismo senza precedenti nelle immagini generate, con notevoli miglioramenti nei dettagli, nell’illuminazione e nella riduzione degli artefatti. Il modello include nuove funzionalità per i clienti aziendali, tra cui funzionalità di editing avanzate e opzioni di personalizzazione del marchio. Trasformare le operazioni Diverse grandi aziende hanno iniziato a implementare queste tecnologie nelle loro attività. Mondelez International, l’azienda dietro a marchi come Oreo, Cadbury e Chips Ahoy!, sta utilizzando la tecnologia per accelerare la creazione di contenuti per le campagne in tutto il suo portafoglio globale di marchi. Jon Halvorson, SVP Consumer Experience & Digital Commerce di Mondelez International, ha spiegato: “La nostra collaborazione con Google Cloud è stata fondamentale per sfruttare la potenza dell’intelligenza artificiale generativa, in particolare attraverso Imagen 3, per rivoluzionare la produzione di contenuti”. “Questa tecnologia ci ha permesso di produrre centinaia di migliaia di risorse personalizzate, migliorando la qualità creativa e riducendo in modo significativo il time-to-market e i costi” La piattaforma di condivisione delle conoscenze Quora ha sviluppato Poe, una piattaforma che consente agli utenti di interagire con modelli generativi di intelligenza artificiale. Veo e Imagen sono ora integrati con Poe. Spencer Chan, Product Lead di Poe presso Quora, ha commentato: “Abbiamo creato Poe per democratizzare l’accesso ai migliori modelli di IA generativa del mondo. Con Veo, stiamo permettendo a milioni di utenti di dare vita alle loro idee attraverso video generativi di alta qualità” Sicurezza e protezione In risposta alle crescenti preoccupazioni per i contenuti generati dall’intelligenza artificiale, Google ha implementato solide funzioni di sicurezza in entrambi i modelli. Queste includono: Filigrana digitale attraverso il SynthID di Google DeepMind. Filtri di sicurezza integrati per prevenire la creazione di contenuti dannosi. Rigide politiche di governance dei dati per garantire la protezione dei dati dei clienti. Indennità sul diritto d’autore per i servizi di intelligenza artificiale generativa. Il lancio di questi nuovi modelli segnala la crescente influenza di Google nello spazio AI aziendale e suggerisce un cambiamento verso soluzioni AI più sofisticate e integrate per le applicazioni aziendali. Leggi di più su www.artificialintelligence-news.com

I più grandi errori di AI Adertising del 2024 fino ad ora

I più grandi errori di AI Adertising del 2024 fino ad ora

Questo articolo è stato pubblicato originariamente ad agosto e da allora è stato aggiornato con nuove informazioni. I marchi che promuovono pubblicità con l’intelligenza artificiale e le capacità tecnologiche in generale non stanno leggendo la stanza. Grandi marchi come Levi’s e Toys R Us hanno sperimentato con entusiasmo l’intelligenza artificiale nei loro sforzi di marketing. I giganti della tecnologia come Google e Apple hanno investito miliardi di dollari nella loro tecnologia AI. Nonostante questi sforzi, i loro tentativi di vendere l’IA alle persone hanno mancato il bersaglio. Da messaggi privi di tono a pregiudizi involontari, diversi annunci pubblicitari di alto profilo sull’IA sono stati criticati e hanno dato vita a conversazioni sul potere dell’IA nella vita delle persone. “Gli spettatori sono stati investiti da uno tsunami di annunci pubblicitari sull’intelligenza artificiale quest’estate e in particolare durante i Giochi Olimpici estivi del 2024”, ha dichiarato Nicole Greene, vicepresidente di Gartner e analista. “Molti degli annunci che hanno suscitato reazioni negative mostrano un futuro che molti temono, in cui le nostre vite sono sempre più connesse agli schermi, con contenuti curati serviti on-demand e privi di una connessione umana e autentica” ADWEEK ha raccolto gli annunci più controversi legati all’intelligenza artificiale, chiedendo agli analisti di valutare la risonanza emotiva e di prevedere la crescita del marchio in base alla creatività degli annunci. Un inverno freddo per la pubblicità natalizia di Coca-Cola L’annuncio: L’ultima campagna natalizia di Coca-Cola, un reboot alimentato dall’intelligenza artificiale del classico spot del 1995 “Holidays Are Coming” lanciato a novembre, ha suscitato una buona dose di polemiche. Lo spot presenta gli iconici camion rossi di Natale del marchio insieme a scene generate dall’intelligenza artificiale di cervi, orsi polari e scoiattoli che si divertono nella neve. Inizialmente ben accolto, ha ottenuto un solido 5,9 da System1, che misura le risposte emotive, sia negli Stati Uniti che nel Regno Unito. Tre studi di AI – Secret Level, Silverside AI e Wild Card – hanno collaborato al progetto, impiegando modelli generativi come Kling, Leonardo, Luma e Runway. Le polemiche: Ma l’accoglienza positiva è durata poco. I critici, soprattutto all’interno della comunità creativa, hanno espresso preoccupazione per il ruolo crescente dell’IA nel sostituire i lavori umani. I social media si sono scatenati in lamentele per il fatto che lo spot ha tolto il calore e la gioia da un classico delle feste. Un utente di TikTok ha addirittura dichiarato che la Coca Cola ha rovinato il Natale. Netflix viene criticato per l’AI Lo spot: Nell’ambito della campagna promozionale per il ritorno di Arcane su Netflix a novembre, il colosso dello streaming ha svelato un poster che sembrava contenere immagini generate dall’intelligenza artificiale. I fan se ne sono accorti subito, e non in senso positivo.   Netflix che usa l’intelligenza artificiale per estendere un poster per ARCANE è davvero deludente e irrispettoso https://t.co/Q38Ug1zxwj – Krissi! ❄️🥊 (@krissibarks) 20 novembre 2024 La polemica: La polemica si è scatenata quando un fan di Arcane ha notato una mano strana nel poster e l’ha denunciata su X. Data la reputazione di Arcane per le sue immagini ricche e intricate, i fan hanno ritenuto che l’uso dell’IA mancasse di rispetto al lavoro degli artisti umani. Alex Shahmiri, responsabile del marchio di intrattenimento di Riot Games, ha risposto al post, sottolineando la rigida politica dell’azienda di non utilizzare l’IA. Ha definito l’immagine un errore e ha confermato che è stata rimossa. Ad aggiungere benzina al fuoco è la più ampia tensione tra l’IA e la comunità dei creativi, soprattutto con l’intensificarsi dei licenziamenti. A gennaio, Riotha tagliato 530 posti di lavoro, unamossa considerevole ma non insolita nell’ambito dei profondi tagli che hanno colpito l’industria dei giochi all’inizio del 2024. A ottobre è seguita un’altra serie di licenziamenti di minore entità, che ha aggravato le preoccupazioni sull’impatto dell’IA sui ruoli creativi. Meta, quanta IA è troppa IA? L’annuncio: Non è un annuncio tradizionale, ma il tentativo di Meta di portare la trasparenza dell’IA sui contenuti di Facebook e Instagram ha scatenato la frustrazione di fotografi e creativi. Come parte di una spinta a livello industriale per aumentare la trasparenza dell’IA, Meta ha introdotto l’etichetta “Made with AI” ad aprile. Tuttavia, il lancio si è rapidamente ritorto contro, con gli utenti che si sono lamentati del fatto che i loro post sono stati segnalati in modo impreciso, nonostante l’utilizzo di un software di editing minimo o nullo. La controversia: Il colpevole sembra essere un sistema di rilevamento troppo sensibile. Secondo PetaPixel, anche piccole modifiche effettuate con strumenti come Generative Fill di Adobe Photoshop possono far scattare l’etichetta. Sebbene questi strumenti utilizzino l’intelligenza artificiale per riempire le aree mancanti, i loro risultati spesso assomigliano alle tecniche di editing tradizionali.   Il fotografo Peter Yan lo ha sperimentato in prima persona quando la sua immagine del Monte Fuji è stata etichettata come “Made with AI” Yan ha chiarito che le sue uniche modifiche riguardavano una pulizia di base dei punti in Photoshop, non la generazione di AI. I creatori frustrati hanno minacciato di boicottare le piattaforme di Meta e molti si sono riversati sulla rivale anti-AI Cara, che ha guadagnato centinaia di migliaia di utenti poco dopo il lancio della funzione di etichettatura. A luglio Meta ha rivisto il suo approccio con l’etichetta meno controversa “AI info” “Come altri operatori del settore, abbiamo scoperto che le nostre etichette basate su questi indicatori non erano sempre in linea con le aspettative delle persone e non fornivano sempre un contesto sufficiente”, ha dichiarato il gigante dei social network nel suo post sul blog. Nessuna medaglia d’oro per l’annuncio di Google “Cara Sydney” alle Olimpiadi L’annuncio: Lo spot di 60 secondi di Google, “Cara Sydney”, pubblicato alla fine di luglio, inizia con un padre che vuole aiutare la figlia a scrivere una lettera al suo idolo olimpico, l’ostacolista americana Sydney McLaughlin-Levrone. Tuttavia, lo spot prende una piega imbarazzante quando, invece di aiutare la figlia a scrivere la lettera, chiede a Gemini di farlo per loro. Le polemiche: Le critiche hanno seguito rapidamente lo spot dopo

Alzare l’asticella dei modelli linguistici open source

Alzare l'asticella dei modelli linguistici open source

Ai2 rilascia OLMo 2, una famiglia di modelli linguistici open-source che promuove la democratizzazione dell’IA e riduce il divario tra soluzioni aperte e proprietarie. I nuovi modelli, disponibili nelle versioni a 7B e 13B parametri, sono addestrati su un massimo di 5 trilioni di token e dimostrano livelli di prestazioni che eguagliano o superano modelli analoghi completamente aperti, pur rimanendo competitivi con modelli open-weight come Llama 3.1 su benchmark accademici inglesi. “Dal rilascio del primo OLMo nel febbraio 2024, abbiamo assistito a una rapida crescita dell’ecosistema dei modelli linguistici aperti e a una riduzione del divario di prestazioni tra i modelli aperti e quelli proprietari”, ha spiegato Ai2. Il team di sviluppo ha ottenuto questi miglioramenti grazie a diverse innovazioni, tra cui misure di stabilità dell’addestramento migliorate, approcci all’addestramento per fasi e metodologie post-addestramento all’avanguardia derivate dal framework Tülu 3. Tra i miglioramenti tecnici degni di nota ci sono il passaggio dalla norma di livello non parametrica alla RMSNorm e l’implementazione dell’incorporazione posizionale rotante. La svolta nell’addestramento del modello OLMo 2 Il processo di formazione ha utilizzato un sofisticato approccio in due fasi. La fase iniziale ha utilizzato il dataset OLMo-Mix-1124, composto da circa 3,9 trilioni di token, provenienti da DCLM, Dolma, Starcoder e Proof Pile II. La seconda fase ha incorporato una miscela accuratamente curata di dati web di alta qualità e contenuti specifici del dominio attraverso il dataset Dolmino-Mix-1124. Particolarmente degna di nota è la variante OLMo 2-Instruct-13B, che è il modello più capace della serie. Il modello dimostra prestazioni superiori rispetto ai modelli Qwen 2.5 14B instruct, Tülu 3 8B e Llama 3.1 8B instruct in vari benchmark. (Credit: Ai2) Impegno per la scienza aperta Rafforzando il suo impegno verso la scienza aperta, Ai2 ha rilasciato una documentazione completa che include pesi, dati, codice, ricette, checkpoint intermedi e modelli ottimizzati per le istruzioni. Questa trasparenza consente un’ispezione completa e la riproduzione dei risultati da parte della comunità AI più ampia. Il rilascio introduce anche un quadro di valutazione chiamato OLMES (Open Language Modeling Evaluation System), che comprende 20 benchmark progettati per valutare capacità fondamentali come il richiamo delle conoscenze, il ragionamento di senso comune e il ragionamento matematico. OLMo 2 alza l’asticella dello sviluppo dell’IA open-source, accelerando potenzialmente il ritmo dell’innovazione nel settore e mantenendo al contempo trasparenza e accessibilità. Leggi di più su www.artificialintelligence-news.com

L’Oracle intelligente di YeagerAI: costruito sulla blockchain GenLayer per l’accesso ai dati in tempo reale

L'Oracle intelligente di YeagerAI: costruito sulla blockchain GenLayer per l'accesso ai dati in tempo reale

  Il laboratorio di ricerca sull’AI della blockchain YeagerAI ha annunciato il lancio dell’Intelligent Oracle, un oracolo alimentato dall’AI che mira a fornire alle applicazioni decentralizzate (DApps) dati online sulla catena. L’Oracle può cambiare il modo in cui vengono raccolti i dati, offrendo nuove possibilità e casi d’uso per le DApps blockchain. È costruito sulla blockchain GenLayer, anch’essa nata da un’idea di YeagerAI, e progettato per supportare una nuova generazione di DApp. È in grado di recuperare qualsiasi tipo di dati online e di consegnarli sulla catena. L’Intelligent Oracle verrà inizialmente lanciato su una rete locale autorizzata, mentre la GenLayer Testnet dovrebbe essere operativa entro la fine del 2024. Eliminando la dipendenza dai sistemi di risoluzione a comando umano e offrendo compatibilità tra le catene, l’Intelligent Oracle mira a fornire una soluzione scalabile, efficiente e a prova di futuro per il processo decisionale. L’Intelligent Oracle è alimentato da LLM integrati nel meccanismo di consenso Optimistic Democracy di GenLayer. Il meccanismo di consenso è “governato” da validatori che si connettono agli LLM, verificando e proteggendo i dati che l’Oracle recupera da fonti interne ed esterne alla catena. I validatori permettono alla rete di elaborare transazioni non deterministiche recuperando dati da internet. Quando viene effettuata una richiesta, un validatore principale genera un risultato proposto, mentre gli altri validatori verificano in modo indipendente il risultato rispetto ai criteri di equivalenza preimpostati. La Democrazia Ottimista garantisce che tutte le decisioni siano accurate, affidabili e sicure. Sebbene gli oracoli blockchain si siano evoluti rapidamente negli ultimi anni, rimangono ancora diverse questioni irrisolte. Tra questi, l’impossibilità per le blockchain di accedere a dati esterni e la capacità delle blockchain di accedere solo a ciò che è disponibile sulla catena. Gli usi emergenti delle blockchain risentono della mancanza di oracoli più ampi: la maggior parte delle DApp futuristiche richiede dati immediati, accurati e talvolta soggettivi da internet. Fino ad oggi, la soluzione è stata quella di utilizzare oracoli tradizionali, che forniscono solo set di dati predefiniti o richiedono un intervento manuale, rendendoli lenti, costosi e poco flessibili. L’Intelligent Oracle offre una soluzione autonoma, offrendo una gamma virtualmente illimitata di tipi di dati ai costruttori di dApp. Diamo il benvenuto all’Intelligent Oracle: Un nuovo mondo di casi d’uso della blockchain L’Intelligent Oracle si basa sugli Intelligent Contracts che operano sulla blockchain GenLayer. L’oracolo opera nell’ecosistema GenLayer, consentendo agli utenti di ottenere dati decentralizzati, trasparenti e sicuri per le loro DApp o piattaforme. Offre una compatibilità cross-chain che gli consente di integrarsi con diversi ecosistemi blockchain. In seguito al lancio, gli sviluppatori di DApp blockchain avranno a disposizione molte più possibilità. Il lancio dell’Intelligent Oracle potrebbe rappresentare un passo avanti per le applicazioni decentralizzate nei mercati di previsione, nelle assicurazioni e nei derivati finanziari, ad esempio. L’Oracolo consente una risoluzione dei dati rapida ed economica. Mentre gli oracoli tradizionali possono impiegare giorni per risolvere i mercati di previsione, con conseguenti ritardi e costi, l’Intelligent Oracle raggiunge il risultato finale della transazione in meno di un’ora, a un costo inferiore a 1 dollaro per mercato. YeagerAI ha visto una rapida adozione del suo nuovo servizio Oracle da parte di diversi partner e alcune piattaforme si sono già impegnate a integrare Intelligent Oracle. I primi partner che si sono impegnati a costruire con la tecnologia includono Radix DLT, Etherisc, PredX, Delphi Bets e Provably. Leggi di più su www.artificialintelligence-news.com

Il nuovo modello o1 di LLM OpenAI potrebbe cambiare il mercato dell’hardware

Il nuovo modello o1 di LLM OpenAI potrebbe cambiare il mercato dell'hardware

  OpenAI e altre aziende leader nel settore dell’intelligenza artificiale stanno sviluppando nuove tecniche di formazione per superare i limiti dei metodi attuali. Affrontando ritardi e complicazioni impreviste nello sviluppo di modelli linguistici più grandi e potenti, queste nuove tecniche si concentrano su un comportamento simile a quello umano per insegnare agli algoritmi a “pensare”. Secondo quanto riferito da una dozzina di ricercatori, scienziati e investitori nel campo dell’intelligenza artificiale, le nuove tecniche di formazione, che sono alla base del recente modello “o1” di OpenAI (precedentemente Q* e Strawberry), hanno il potenziale di trasformare il panorama dello sviluppo dell’intelligenza artificiale. I progressi riportati potrebbero influenzare i tipi o le quantità di risorse di cui le aziende di IA hanno continuamente bisogno, tra cui hardware specializzato ed energia per favorire lo sviluppo dei modelli di IA. Il modello o1 è progettato per affrontare i problemi in modo da imitare il ragionamento e il pensiero umano, suddividendo numerosi compiti in fasi. Il modello utilizza anche dati specializzati e feedback forniti da esperti del settore AI per migliorare le sue prestazioni. Da quando ChatGPT è stato presentato da OpenAI nel 2022, c’è stata un’impennata nell’innovazione dell’IA e molte aziende tecnologiche sostengono che i modelli di IA esistenti necessitano di un’espansione, sia attraverso una maggiore quantità di dati che attraverso migliori risorse di calcolo. Solo così i modelli di IA potranno migliorare costantemente. Ora, gli esperti di IA hanno segnalato dei limiti nella scalabilità dei modelli di IA. Gli anni 2010 sono stati un periodo rivoluzionario per la scalabilità, ma Ilya Sutskever, cofondatore dei laboratori di AI Safe Superintelligence (SSI) e OpenAI, afferma che la formazione dei modelli di AI, in particolare per quanto riguarda la comprensione delle strutture e dei modelli linguistici, si è stabilizzata. “Gli anni 2010 sono stati l’era della scalabilità, ora siamo di nuovo nell’era della meraviglia e della scoperta. Ora è più importante scalare le cose giuste”, hanno dichiarato. Negli ultimi tempi, i ricercatori dei laboratori di intelligenza artificiale hanno riscontrato ritardi e difficoltà nello sviluppo e nel rilascio di modelli linguistici di grandi dimensioni (LLM) più potenti del modello GPT-4 di OpenAI. In primo luogo, c’è il costo dell’addestramento di modelli di grandi dimensioni, che spesso si aggira intorno alle decine di milioni di dollari. Inoltre, a causa delle complicazioni che si presentano, come il malfunzionamento dell’hardware dovuto alla complessità del sistema, l’analisi finale del funzionamento di questi modelli può richiedere mesi. Oltre a queste sfide, le sessioni di formazione richiedono notevoli quantità di energia, che spesso si traducono in carenze di energia che possono interrompere i processi e avere un impatto sulla rete elettrica in generale. Un altro problema è la quantità colossale di dati che i modelli linguistici di grandi dimensioni utilizzano, tanto che i modelli di intelligenza artificiale avrebbero esaurito tutti i dati accessibili in tutto il mondo. I ricercatori stanno esplorando una tecnica nota come “test-time compute” per migliorare gli attuali modelli di IA durante l’addestramento o le fasi di inferenza. Il metodo può prevedere la generazione di più risposte in tempo reale per decidere una serie di soluzioni migliori. Di conseguenza, il modello può allocare maggiori risorse di elaborazione a compiti difficili che richiedono un processo decisionale e di ragionamento simile a quello umano. L’obiettivo è rendere il modello più preciso e capace. Noam Brown, un ricercatore di OpenAI che ha contribuito allo sviluppo del modello o1, ha condiviso un esempio di come un nuovo approccio possa raggiungere risultati sorprendenti. Alla conferenza TED AI tenutasi a San Francisco il mese scorso, Brown ha spiegato che “far pensare un bot per soli 20 secondi in una mano di poker ha ottenuto lo stesso incremento di prestazioni di un modello scalato di 100.000 volte e addestrato per 100.000 volte in più” Invece di aumentare semplicemente le dimensioni del modello e il tempo di addestramento, questo può cambiare il modo in cui i modelli di IA elaborano le informazioni e portare a sistemi più potenti ed efficienti. È stato riferito che altri laboratori di IA hanno sviluppato versioni della tecnica o1. Tra questi ci sono xAI, Google DeepMind e Anthropic. La concorrenza nel mondo dell’IA non è una novità, ma potremmo assistere a un impatto significativo sul mercato dell’hardware dell’IA grazie alle nuove tecniche. Aziende come Nvidia, che attualmente domina l’offerta di chip per l’IA grazie all’elevata domanda dei suoi prodotti, potrebbero essere particolarmente colpite dalle nuove tecniche di formazione dell’IA. Nvidia è diventata l’azienda di maggior valore al mondo nel mese di ottobre e la sua ascesa è in gran parte attribuibile all’utilizzo dei suoi chip negli array di intelligenza artificiale. Le nuove tecniche potrebbero avere un impatto sulla posizione di mercato di Nvidia, costringendo l’azienda ad adattare i suoi prodotti per soddisfare l’evoluzione della domanda di hardware AI. Potenzialmente, questo potrebbe aprire nuove strade a nuovi concorrenti nel mercato dell’inferenza. Una nuova era dello sviluppo dell’IA potrebbe essere all’orizzonte, guidata dall’evoluzione della domanda di hardware e da metodi di addestramento più efficienti come quelli impiegati nel modello o1. Il futuro dei modelli di IA e delle aziende che li producono potrebbe essere ridisegnato, aprendo possibilità senza precedenti e una maggiore concorrenza. Leggi di più su www.artificialintelligence-news.com

Alibaba Marco-o1: Far progredire le capacità di ragionamento degli LLM

Alibaba Marco-o1: Far progredire le capacità di ragionamento degli LLM

  Alibaba ha annunciato Marco-o1, un modello linguistico di grandi dimensioni (LLM) progettato per affrontare compiti di risoluzione di problemi sia convenzionali che aperti. Marco-o1, realizzato dal team MarcoPolo di Alibaba, rappresenta un altro passo avanti nella capacità dell’IA di gestire sfide di ragionamento complesse, in particolare nei settori della matematica, della fisica, del coding e in aree in cui possono mancare standard chiari. Basandosi sui progressi di OpenAI nel campo del ragionamento con il suo modello o1, Marco-o1 si distingue per l’integrazione di diverse tecniche avanzate, tra cui il Chain-of-Thought (CoT) fine-tuning, il Monte Carlo Tree Search (MCTS) e nuovi meccanismi di riflessione. Questi componenti lavorano di concerto per migliorare le capacità di risoluzione dei problemi del modello in vari ambiti. Il team di sviluppo ha implementato una strategia di fine-tuning completa utilizzando diversi dataset, tra cui una versione filtrata del dataset Open-O1 CoT, un dataset sintetico Marco-o1 CoT e un dataset specializzato in istruzioni Marco. In totale, il corpus di addestramento comprende oltre 60.000 campioni attentamente curati. Il modello ha ottenuto risultati particolarmente impressionanti nelle applicazioni multilingue. Nei test, Marco-o1 ha ottenuto notevoli miglioramenti di accuratezza del 6,17% sul dataset MGSM inglese e del 5,60% sulla sua controparte cinese. Il modello ha dimostrato una particolare forza nei compiti di traduzione, soprattutto quando gestisce espressioni colloquiali e sfumature culturali. Una delle caratteristiche più innovative del modello è l’implementazione di diverse granularità di azione all’interno del framework MCTS. Questo approccio permette al modello di esplorare percorsi di ragionamento a diversi livelli di dettaglio, da passi ampi a “mini-passi” più precisi di 32 o 64 token. Il team ha anche introdotto un meccanismo di riflessione che spinge il modello ad autovalutarsi e a riconsiderare il proprio ragionamento, migliorando l’accuratezza in scenari di risoluzione di problemi complessi. L’integrazione dell’MCTS si è dimostrata particolarmente efficace: tutte le versioni potenziate dell’MCTS del modello hanno mostrato miglioramenti significativi rispetto alla versione base di Marco-o1-CoT. Gli esperimenti condotti dal team con diverse granularità di azioni hanno rivelato schemi interessanti, anche se si sottolinea che la determinazione della strategia ottimale richiede ulteriori ricerche e modelli di ricompensa più precisi. (Credit: MarcoPolo Team, AI Business, Alibaba International Digital Commerce) Il team di sviluppo è stato trasparente riguardo agli attuali limiti del modello, riconoscendo che, sebbene Marco-o1 presenti forti caratteristiche di ragionamento, non è ancora un modello “o1” pienamente realizzato. Sottolineano che questa versione rappresenta un impegno continuo per il miglioramento piuttosto che un prodotto finito. In prospettiva, il team di Alibaba ha annunciato l’intenzione di incorporare modelli di ricompensa, tra cui Outcome Reward Modeling (ORM) e Process Reward Modeling (PRM), per migliorare le capacità decisionali di Marco-o1. Si stanno inoltre esplorando tecniche di apprendimento rinforzato per affinare ulteriormente le capacità di risoluzione dei problemi del modello. Il modello Marco-o1 e i set di dati associati sono stati messi a disposizione della comunità di ricerca attraverso il repository GitHub di Alibaba, completi di documentazione completa e guide all’implementazione. Il rilascio include istruzioni per l’installazione e script di esempio sia per l’utilizzo diretto del modello che per l’implementazione tramite FastAPI. Leggi di più su www.artificialintelligence-news.com

L’uso dell’intelligenza artificiale generativa è in aumento tra gli inglesi, ma è sostenibile?

L'uso dell'intelligenza artificiale generativa è in aumento tra gli inglesi, ma è sostenibile?

  Un sondaggio condotto da CloudNine PR mostra che l’83% degli adulti del Regno Unito conosce gli strumenti di IA generativa e il 45% di coloro che li conoscono vuole che le aziende siano trasparenti sui costi ambientali associati a queste tecnologie. Con i centri dati che consumano grandi quantità di energia, la crescente domanda di IA generativa ha suscitato un dibattito sulla sua sostenibilità. Il costo dell’intelligenza: L’impronta di carbonio dell’IA generativa Dietro ogni email, idea o raccomandazione generata dall’IA ci sono centri dati che gestiscono migliaia di server affamati di energia. I centri dati sono responsabili sia dell’addestramento dei grandi modelli linguistici che alimentano l’IA generativa, sia dell’elaborazione delle singole richieste degli utenti. A differenza di una semplice ricerca su Google, che consuma relativamente poca energia, una singola richiesta di IA generativa può consumare fino a dieci volte più elettricità. I numeri sono sbalorditivi. Se tutti i nove miliardi di ricerche giornaliere su Google in tutto il mondo venissero sostituiti con attività di IA generativa, la domanda di elettricità aggiuntiva corrisponderebbe al consumo energetico annuale di 1,5 milioni di abitanti dell’UE. Secondo la società di consulenza Morgan Stanley, la richiesta di energia da parte dell’IA generativa dovrebbe crescere del 70% all’anno fino al 2027. A quel punto, l’energia necessaria per supportare i sistemi di IA generativa potrebbe rivaleggiare con il fabbisogno di energia elettrica di un intero Paese, ad esempio la Spagna, in base al suo utilizzo nel 2022. I consumatori del Regno Unito vogliono pratiche di IA più ecologiche L’indagine evidenzia anche la crescente consapevolezza dei consumatori britannici riguardo alle implicazioni ambientali dell’IA generativa. Quasi un intervistato su cinque ha dichiarato di non fidarsi dei fornitori di IA generativa per quanto riguarda la gestione responsabile del loro impatto ambientale. Tra gli utenti abituali di questi strumenti, il 10% ha espresso la volontà di pagare un premio per prodotti o servizi che danno priorità all’efficienza energetica e alla sostenibilità. È interessante notare che oltre un terzo (35%) degli intervistati ritiene che gli strumenti di IA generativa dovrebbero “ricordare attivamente” agli utenti il loro impatto ambientale. Sebbene questo sembri un piccolo passo, ha il potenziale di incoraggiare un uso più consapevole e di fare pressione sulle aziende affinché adottino tecnologie più ecologiche. Gli sforzi per affrontare la sfida ambientale Fortunatamente, alcune aziende e politici stanno iniziando ad affrontare questi problemi. Negli Stati Uniti, all’inizio di quest’anno è stato presentato l’Artificial Intelligence Environmental Impacts Act. La legge mira a standardizzare il modo in cui le aziende di intelligenza artificiale misurano e segnalano le emissioni di carbonio. Fornisce inoltre un quadro volontario per gli sviluppatori per valutare e divulgare l’impatto ambientale dei loro sistemi, spingendo il settore verso una maggiore trasparenza. Anche i principali attori dell’industria tecnologica si stanno facendo avanti. Aziende come Salesforce si sono espresse a favore di una legislazione che richieda metodi standardizzati per misurare e riportare l’impronta di carbonio dell’IA. Gli esperti indicano diversi modi pratici per ridurre l’impatto ambientale dell’IA generativa, tra cui l’adozione di hardware ad alta efficienza energetica, l’utilizzo di metodi di raffreddamento sostenibili nei data center e la transizione verso fonti di energia rinnovabili. Nonostante questi sforzi, l’urgenza di affrontare l’impatto ambientale dell’IA generativa rimane fondamentale. Come dice Uday Radia, proprietario di CloudNine PR: “L’IA generativa ha un enorme potenziale per migliorare le nostre vite, ma c’è una corsa contro il tempo per renderla più sostenibile prima che vada fuori controllo” Leggi di più su www.artificialintelligence-news.com