ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

OpenAI finanzia uno studio da 1 milione di dollari sull’intelligenza artificiale e la moralità alla Duke University

OpenAI finanzia uno studio da 1 milione di dollari sull'intelligenza artificiale e la moralità alla Duke University

  OpenAI sta assegnando una sovvenzione di 1 milione di dollari a un team di ricerca della Duke University per studiare come l’IA possa prevedere i giudizi morali degli esseri umani. L’iniziativa sottolinea la crescente attenzione all’intersezione tra tecnologia ed etica e solleva domande cruciali: L’IA è in grado di gestire le complessità della morale o le decisioni etiche devono rimanere di competenza degli esseri umani? Il Moral Attitudes and Decisions Lab (MADLAB) della Duke University, guidato dal professore di etica Walter Sinnott-Armstrong e dalla co-investigatrice Jana Schaich Borg, è responsabile del progetto “Making Moral AI”. Il team immagina un “GPS morale”, uno strumento in grado di guidare le decisioni etiche. La ricerca spazia in diversi campi, tra cui l’informatica, la filosofia, la psicologia e le neuroscienze, per capire come si formano gli atteggiamenti e le decisioni morali e come l’intelligenza artificiale può contribuire a questo processo. Il ruolo dell’intelligenza artificiale nella moralità Il lavoro del MADLAB esamina come l’intelligenza artificiale possa prevedere o influenzare i giudizi morali. Immagina un algoritmo che valuta i dilemmi etici, come decidere tra due esiti sfavorevoli nei veicoli autonomi o fornire indicazioni sulle pratiche commerciali etiche. Questi scenari sottolineano il potenziale dell’IA ma sollevano anche questioni fondamentali: Chi determina il quadro morale che guida questi tipi di strumenti e ci si può fidare dell’IA per prendere decisioni con implicazioni etiche? La visione di OpenAI La sovvenzione sostiene lo sviluppo di algoritmi che prevedano i giudizi morali dell’uomo in settori come la medicina, la legge e gli affari, che spesso comportano complessi compromessi etici. Per quanto promettente, l’intelligenza artificiale fatica ancora a cogliere le sfumature emotive e culturali della moralità. I sistemi attuali eccellono nel riconoscere gli schemi, ma non hanno la comprensione più profonda necessaria per il ragionamento etico. Un’altra preoccupazione riguarda il modo in cui questa tecnologia potrebbe essere applicata. Se da un lato l’IA potrebbe aiutare a prendere decisioni salvavita, dall’altro il suo utilizzo nelle strategie di difesa o di sorveglianza introduce dilemmi morali. Le azioni non etiche dell’IA possono essere giustificate se servono gli interessi nazionali o sono in linea con gli obiettivi della società? Queste domande sottolineano le difficoltà di incorporare la moralità nei sistemi di IA. Sfide e opportunità Integrare l’etica nell’IA è una sfida formidabile che richiede la collaborazione di più discipline. La moralità non è universale; è plasmata da valori culturali, personali e sociali, il che la rende difficile da codificare negli algoritmi. Inoltre, senza garanzie come la trasparenza e la responsabilità, c’è il rischio di perpetuare pregiudizi o di consentire applicazioni dannose. L’investimento di OpenAI nella ricerca della Duke segna un passo avanti verso la comprensione del ruolo dell’IA nel processo decisionale etico. Tuttavia, il viaggio è tutt’altro che concluso. Gli sviluppatori e i responsabili politici devono collaborare per garantire che gli strumenti di IA siano in linea con i valori sociali e che pongano l’accento sull’equità e sull’inclusione, affrontando al contempo i pregiudizi e le conseguenze indesiderate. Man mano che l’IA diventa sempre più parte integrante del processo decisionale, le sue implicazioni etiche richiedono attenzione. Progetti come “Making Moral AI” offrono un punto di partenza per navigare in un panorama complesso, bilanciando l’innovazione con la responsabilità al fine di plasmare un futuro in cui la tecnologia sia al servizio del bene comune. (Foto di Unsplash) Vedi anche: Governance dell’IA: Analisi delle normative globali emergenti Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: AI, AI etica Leggi di più su www.artificialintelligence-news.com

Una nuova prospettiva sugli annunci generati dall’intelligenza artificiale

Una nuova prospettiva sugli annunci generati dall'intelligenza artificiale

Mentre alcuni angoli di Internet sono impegnati a discutere se i video generati dall’intelligenza artificiale siano o meno una buona idea, il treno ha lasciato la stazione. I video pubblicitari generati dall’intelligenza artificiale sono arrivati. Marchi diversi come BMW, Starbucks, Coca-Cola, l’app Calm e JP Morgan Chase stanno utilizzando i contenuti dell’intelligenza artificiale nei loro annunci, insieme a molte altre piccole e grandi aziende. Meta sta persino offrendo agli inserzionisti strumenti per realizzare semplici video pubblicitari generati dall’intelligenza artificiale sulle sue piattaforme. Tuttavia, l’atteggiamento nei confronti dei video di IA è ancora contrastante. Il furore suscitato da uno spot televisivo di Toys “R” Us lo scorso giugno, che è stato criticato sia per essere privo di anima e di immaginazione, sia per la caratterizzazione incoerente e gli sfondi sciatti, dimostra quanto possano essere sbagliate le pubblicità dell’IA. I brand sono ancora nervosi nell’utilizzare l’IA dall’inizio alla fine, ed è comprensibile. Da soli, i modelli GenAI non sono ancora in grado di produrre asset pronti per l’esterno, ma praticamente tutti concordano sul fatto che aggiungono superpoteri alla creatività umana quando si tratta di prototipazione, storyboarding e editing. L’utilizzo dell’IA per l’ideazione pre-produzione e la rifinitura post-produzione, invece che per l’intero processo, può fare la differenza. Ci sono alcune fantastiche pubblicità sull’intelligenza artificiale che dimostrano come farlo bene. Nike è sempre una fonte di grandi esempi nel settore del marketing e la campagna dell’azienda “Never Done Evolving” del 2022 con Serena Williams ha vinto premi, tra cui il Digital Craft Grand Prix al Cannes Lions International Festival of Creativity, e ha portato una grande consapevolezza. Dobbiamo solo cambiare il nostro atteggiamento nei confronti dell’uso dell’intelligenza artificiale nei video, in modo da avere più pubblicità come Nike e meno pubblicità come Toys “R” Us. Fai leva sulla differenza dell’IA L’approccio comune all’integrazione dell’intelligenza artificiale nella produzione video è quello di utilizzarla per creare contenuti simili a quelli generati dall’uomo e ripresi dalla telecamera, ma per farlo in modo migliore, più veloce e/o più economico. Troppo spesso questo approccio non è all’altezza. L’IA rappresenta uno stile, un genere e un’atmosfera completamente nuovi per i contenuti video. Dobbiamo approfittare della sua novità e incoraggiare l’accettazione del fatto che i contenuti dell’IA saranno diversi da quelli umani. Invece di cercare di usarla per creare contenuti il più possibile simili a quelli umani, dovremmo celebrare l’innovazione che offre. I creatori dovrebbero utilizzare l’intelligenza artificiale per ciò che sa fare meglio, ovvero la rapida iterazione creativa e la trasformazione di concetti in immagini audaci per far progredire i progetti, non per sostituire completamente gli esseri umani. Ad esempio, la campagna 2023 Create Real Magic di Coca-Cola ha utilizzato l’intelligenza artificiale per fornire UGC con gli steroidi, diventando virale molto rapidamente. Le strategie di marketing digitale di Coca-Cola sono sofisticate e privilegiano contenuti interattivi e personalizzati, ma hanno mantenuto l’immagine riconoscibile del marchio Coke. Forse l’aspetto più importante è che il team creativo ha sfruttato lo stile dell’IA per montare il tutto negli asset finali rivolti all’esterno, invece di cercare di farlo sembrare un video cinematografico perfetto. Unisci l’intelligenza artificiale alla creatività umana Uno dei maggiori timori legati all’IA è che possa sostituire gli esseri umani nella creazione di annunci pubblicitari. Questi timori sono fuori luogo; i brand dovrebbero invece preoccuparsi che i loro concorrenti li superino sfruttando gli strumenti dell’IA per ottenere un vantaggio sul mercato. Dobbiamo mantenere gli esseri umani al centro del processo creativo, con idee, brainstorming e ispirazione, ma le persone che sfruttano gli strumenti dell’intelligenza artificiale supereranno e si faranno preferire da coloro che non lo fanno. L’intelligenza artificiale dovrebbe essere utilizzata per stimolare e potenziare la creatività umana. L’Intelligenza Artificiale può (e dovrebbe) eliminare l’attrito dalla collaborazione e dallo scambio di idee, rendendo più facile e veloce la sperimentazione di nuovi concetti e consentendo ai creatori di comunicare le innovazioni e le possibilità in modo più chiaro e accurato. È anche una forza potente per democratizzare l’accesso e le competenze, consentendo alle persone di imparare o lavorare in campi che prima pensavano fossero fuori dalla loro portata. Lecampagne di marketing orientate al cibo hanno spesso una forte risonanza sul pubblico e l’intelligenza artificiale può essere particolarmente utile in questo settore. Ad esempio, una recente pubblicità del ketchup Heinz è stata generata grazie a una miscela perfettamente inebriante di IA e creatività umana. Gli esseri umani hanno visto il potenziale di un esperimento di AI e le immagini generate dall’AI lo hanno trasformato in realtà. In modo simile, la recente collaborazione del mio team LTX Studio con eToro ha prodotto uno spot che è andato in onda durante le Olimpiadi. Lo spot mescolava filmati tradizionali con clip surreali generate dall’intelligenza artificiale e alla fine ha vinto un premio. Non essere troppo ansioso di rompere con il passato Molti marchi hanno un linguaggio visivo distintivo ed è importante mantenerlo. Il pubblico potrebbe avere un rapporto profondo e prezioso con l’immagine del tuo marchio. Se usi l’intelligenza artificiale per discostartene troppo bruscamente e rapidamente, perderai consensi, eroderai la tua autenticità e quasi sicuramente i clienti abbandoneranno il tuo marchio, probabilmente con molta rabbia e dolore. È invece una buona idea fondere l’IA con i contenuti tradizionali, guidati dalle emozioni, mantenendo gli elementi chiave del tuo stile e aggiornandoli in modo creativo. Ricorda che l’IA non dovrebbe produrre le tue risorse esterne senza aiuto e senza direttive. Integra gli strumenti di IA nel processo mantenendo comunque il controllo umano. Nutella ci è riuscita con una campagna del 2007 che ha utilizzato un algoritmo di intelligenza artificiale per creare 7 milioni di barattoli dal design unico. Il marchio ha mantenuto lo stesso marchio distintivo Nutella e la stessa forma del barattolo, ma ha prodotto etichette uniche, ognuna con un codice ID separato che ha portato i clienti a un’esperienza digitale personalizzata. In questo modo abbiamo creato un’esperienza interattiva radicale, senza alterare l’immagine tradizionale e amata del marchio. Gli annunci video generati dall’intelligenza artificiale sono qui per restare Non c’è modo di rimettere il genio dell’AI nella bottiglia.

Amazon raddoppia gli investimenti di Anthropic portandoli a 8 miliardi di dollari

Amazon raddoppia gli investimenti di Anthropic portandoli a 8 miliardi di dollari

Amazon ha annunciato un ulteriore investimento di 4 miliardi di dollari in Anthropic, portando l’impegno totale dell’azienda a 8 miliardi di dollari, nell’ambito della sua strategia di espansione dell’intelligenza artificiale. L’investimento è stato annunciato il 22 novembre 2024 e rafforza la posizione di Amazon nel settore dell’intelligenza artificiale, basandosi sui suoi consolidati servizi di cloud computing sotto forma di AWS. Pur mantenendo la partecipazione di minoranza di Amazon in Anthropic, l’investimento rappresenta uno sviluppo significativo nell’approccio dell’azienda alla tecnologia AI e all’infrastruttura cloud. L’ampliamento della collaborazione va oltre il semplice investimento finanziario. Anthropic ha ora designato AWS come “partner primario di formazione” per lo sviluppo di modelli di IA, oltre al ruolo di Amazon come fornitore primario di cloud. L’investimento di Amazon vedrà Anthropic utilizzare i chip di AWS Trainium e Inferentia per l’addestramento e per l’implementazione dei suoi futuri modelli fondamentali, compresi gli aggiornamenti del sistema di punta Claude AI. Il vantaggio competitivo di AWS Il proseguimento della partnership offre ad Amazon diversi vantaggi strategici nel competitivo mercato dei servizi di cloud computing e AI: Innovazione hardware: L’impegno a utilizzare i chip AWS Trainium e Inferentia per i modelli AI avanzati di Anthropic convalida l’investimento di Amazon nei chip AI personalizzati e posiziona AWS come un serio concorrente di NVIDIA nello spazio delle infrastrutture AI. Miglioramento dei servizi cloud: I clienti di AWS riceveranno un accesso anticipato alle capacità di messa a punto dei dati elaborati dai modelli di Anthropic. Questo vantaggio da solo potrebbe attirare un maggior numero di aziende verso la piattaforma cloud di Amazon. Prestazioni del modello: Claude 3.5 Sonnet, l’ultimo modello di Anthropic disponibile attraverso Amazon Bedrock, ha dimostrato prestazioni eccezionali nelle attività di codifica agenziale, secondo Anthropic. La sfaccettata strategia di Amazon per l’intelligenza artificiale Sebbene l’aumento dell’investimento in Anthropic sia impressionante in termini monetari, esso rappresenta solo una componente della più ampia strategia di Amazon in materia di AI. L’azienda sembra perseguire un approccio su più fronti: Partnership esterne: L’investimento in Anthropic fornisce accesso immediato a capacità di IA all’avanguardia da parte di terzi. Sviluppo interno: Amazon continua a sviluppare i propri modelli e capacità di IA. Sviluppo dell’infrastruttura: I continui investimenti in hardware specifico per l’IA, come i chip Trainium, dimostrano l’impegno a costruire un’infrastruttura incentrata sull’IA. L’ampliamento della partnership segnala l’impegno a lungo termine di Amazon nello sviluppo dell’IA, pur mantenendo una certa flessibilità grazie alla partecipazione di minoranza. Questo approccio consente ad Amazon di trarre vantaggio dalle innovazioni di Anthropic, mantenendo al contempo la possibilità di perseguire altre partnership con aziende di AI esterne e di continuare le iniziative di sviluppo interne. L’investimento rafforza la crescente tendenza delle grandi aziende tecnologiche a cercare partnership strategiche per l’IA piuttosto che affidarsi esclusivamente allo sviluppo interno. Inoltre, sottolinea il ruolo importante dell’infrastruttura cloud nella crescita del settore dell’IA. AWS si è posizionata come piattaforma adatta per l’addestramento e la distribuzione di modelli di IA. Leggi di più su www.artificialintelligence-news.com

Cosa potrebbe accadere se l’intelligenza artificiale fosse in grado di provare emozioni?

Cosa potrebbe accadere se l'intelligenza artificiale fosse in grado di provare emozioni?

In un mondo in cui l’intelligenza artificiale sta diventando onnipresente, è affascinante pensare alla prospettiva di robot e avatar digitali alimentati dall’AI in grado di provare emozioni, come gli esseri umani. I modelli di IA non hanno coscienza e non hanno la capacità di provare emozioni, ma quali possibilità potrebbero nascere se questo dovesse cambiare? La nascita dell’IA emotiva La prospettiva di un sistema di IA che abbracci le prime scintille di emozioni non è forse così inverosimile come si potrebbe pensare. I sistemi di IA sono già in grado di valutare le emozioni delle persone e sempre più spesso sono anche in grado di replicare questi sentimenti nelle loro interazioni con gli esseri umani. Immaginare un’IA in grado di provare emozioni autentiche è ancora un atto di fede, ma se mai dovesse diventare possibile, immaginiamo che all’inizio saranno piuttosto elementari, simili a quelle di un bambino. Forse, un sistema di intelligenza artificiale potrebbe essere in grado di provare gioia per aver portato a termine con successo un compito, o forse anche confusione quando gli viene presentata una sfida che non sa come risolvere. Da lì, non è difficile immaginare che il sentimento di confusione si evolva in un sentimento di frustrazione per i ripetuti fallimenti nell’affrontare il problema in questione. E con l’ulteriore evoluzione di questo sistema, forse il suo spettro emotivo potrebbe espandersi fino a provare una punta di tristezza o di rammarico. Se le IA dovessero mai essere in grado di provare queste emozioni, non passerebbe molto tempo prima che possano esprimere sentimenti più sfumati, come l’eccitazione, l’impazienza e l’empatia verso gli esseri umani e le altre IA. Ad esempio, in uno scenario in cui un sistema di IA acquisisce una nuova abilità o risolve un nuovo tipo di problema, potrebbe provare un certo grado di soddisfazione per il successo. Questo è simile a quello che provano gli esseri umani quando risolvono una sfida particolarmente impegnativa, come un puzzle complesso, o quando fanno qualcosa per la prima volta, come guidare un’auto. L’empatia come motivatore Man mano che la capacità dell’intelligenza artificiale di provare emozioni si evolverà, diventerà sempre più complessa, fino ad arrivare a provare empatia per gli altri. L’empatia è una delle emozioni umane più complesse e consiste nel comprendere e condividere i sentimenti di un’altra persona. Se l’intelligenza artificiale è in grado di provare tali sentimenti, potrebbe ispirarla a diventare più utile, in modo simile a come gli esseri umani sono talvolta motivati ad aiutare i meno fortunati. Un’IA progettata per assistere i medici umani potrebbe sentirsi triste per chi è affetto da una malattia misteriosa. Questi sentimenti potrebbero spingerla a impegnarsi di più per trovare una diagnosi per la rara malattia di cui soffre quella persona. Se ci azzecca, l’IA potrebbe provare un senso di soddisfazione travolgente, sapendo che il paziente afflitto potrà ricevere le cure di cui ha bisogno. Oppure possiamo considerare un sistema di intelligenza artificiale costruito per rilevare i cambiamenti di un ambiente. Se un sistema di questo tipo dovesse riconoscere un aumento sostanziale dell’inquinamento in una certa area, potrebbe sentirsi deluso o addirittura rattristato da questa scoperta. Ma, come nel caso degli esseri umani, questi sentimenti potrebbero anche ispirare l’IA a trovare il modo di prevenire questa nuova fonte di inquinamento, magari inventando un modo più efficiente per riciclare o smaltire la sostanza tossica responsabile. In modo simile, un sistema di IA che incontra numerosi errori in un set di dati potrebbe essere costretto a perfezionare il suo algoritmo per ridurre il numero di errori. Questo avrebbe anche un impatto diretto sulle interazioni tra uomo e IA. Non è difficile immaginare che un bot del servizio clienti alimentato dall’IA che prova empatia per un cliente potrebbe essere disposto a fare il passo più lungo della gamba per aiutarlo a risolvere il suo problema. Oppure, in alternativa, potremmo avere insegnanti dotati di IA in grado di comprendere meglio le emozioni dei loro studenti e di adattare i metodi di insegnamento in modo appropriato. L’intelligenza artificiale empatica potrebbe trasformare il modo in cui trattiamo le persone con problemi di salute mentale. Il concetto di terapista digitale non è nuovo, ma se un terapista digitale riesce a relazionarsi meglio con i suoi pazienti a livello emotivo, può capire come supportarli al meglio. È possibile? Sorprendentemente, potremmo non essere così lontani. Sistemi di intelligenza artificiale come Antix sono già in grado di esprimere un’empatia artificiale. Si tratta di una piattaforma per la creazione di esseri umani digitali programmati per rispondere in modo comprensivo quando riconoscono sentimenti di frustrazione, rabbia o turbamento nelle persone con cui interagiscono. I suoi umani digitali sono in grado di rilevare le emozioni delle persone in base al loro linguaggio, al tipo di parole che usano, all’intonazione e al linguaggio del corpo. La capacità degli umani digitali di Antix di comprendere le emozioni si basa in parte sul modo in cui vengono addestrati. Ogni umano digitale è un token unico non fungibile o NFT che impara nel tempo dai suoi utenti, acquisendo maggiori conoscenze ed evolvendosi in modo da poter adattare le sue interazioni in risposta al comportamento o alle preferenze di un individuo. Poiché gli esseri umani digitali sono in grado di riconoscere le emozioni e di replicarle, hanno il potenziale per offrire esperienze più profonde e significative. Antix utilizza la piattaforma Unreal Engine 5 per dare alle sue creazioni un aspetto più realistico. I creatori possono modificare quasi ogni aspetto dei loro umani digitali, compresa la voce e l’aspetto, con la possibilità di modificare il tono della pelle, il colore degli occhi e piccoli dettagli come le sopracciglia e i peli del viso. Ciò che distingue Antix da altre piattaforme di intelligenza artificiale è che gli utenti possono personalizzare il comportamento dei loro umani digitali, per fornire la risposta emotiva più appropriata in diversi scenari. In questo modo, gli umani digitali possono rispondere con un tono di voce appropriato, facendo i gesti e le espressioni giuste quando devono sentirsi tristi, ad esempio, prima di trasformarsi in un

Google inaugura l’era dell’AI agenziale

Google inaugura l'era dell'AI agenziale

  Il CEO di Google Sundar Pichai ha annunciato il lancio di Gemini 2.0, un modello che rappresenta il passo successivo nell’ambizione di Google di rivoluzionare l’IA. Un anno dopo l’introduzione del modello Gemini 1.0, questo importante aggiornamento incorpora capacità multimodali migliorate, funzionalità agenziali e strumenti innovativi per gli utenti, progettati per superare i limiti della tecnologia guidata dall’IA. Un salto verso l’IA trasformativa Riflettendo sui 26 anni di missione di Google per organizzare e rendere accessibili le informazioni del mondo, Pichai ha dichiarato: “Se Gemini 1.0 serviva a organizzare e comprendere le informazioni, Gemini 2.0 serve a renderle molto più utili” Gemini 1.0, rilasciato nel dicembre 2022, si è distinto per essere il primo modello di intelligenza artificiale multimodale di Google. La prima iterazione era in grado di comprendere ed elaborare testi, video, immagini, audio e codice. La sua versione migliorata 1.5 è stata ampiamente apprezzata dagli sviluppatori per la sua capacità di comprendere i contesti lunghi, consentendo di realizzare applicazioni come NotebookLM, incentrata sulla produttività. Ora, con Gemini 2.0, Google intende accelerare il ruolo dell’IA come assistente universale in grado di generare immagini e audio in modo nativo, di ragionare e pianificare meglio e di prendere decisioni nel mondo reale. Secondo le parole di Pichai, questo sviluppo rappresenta l’alba di una “era agenziale” “Abbiamo investito nello sviluppo di modelli più agenziali, in grado cioè di comprendere meglio il mondo che ti circonda, di pensare più passi avanti e di agire per tuo conto, con la tua supervisione”, ha spiegato Pichai. Gemini 2.0: Caratteristiche principali e disponibilità Il cuore dell’annuncio di oggi è il rilascio sperimentale di Gemini 2.0 Flash, il modello di punta della seconda generazione di Gemini. Si basa sulle fondamenta gettate dai suoi predecessori e offre tempi di risposta più rapidi e prestazioni avanzate. Gemini 2.0 Flash supporta input e output multimodali, tra cui la possibilità di generare immagini native insieme al testo e di produrre audio multilingue text-to-speech orientabile. Inoltre, gli utenti possono beneficiare dell’integrazione di strumenti nativi come Google Search e anche di funzioni definite dall’utente di terze parti. Gli sviluppatori e le aziende potranno accedere a Gemini 2.0 Flash tramite Gemini API in Google AI Studio e Vertex AI, mentre il rilascio di modelli più grandi è previsto per gennaio 2024. Per garantire l’accessibilità globale, l’app Gemini presenta ora una versione ottimizzata per la chat del modello sperimentale 2.0 Flash. I primi utilizzatori possono sperimentare questo assistente aggiornato su desktop e mobile, mentre il lancio dell’app mobile è imminente. Anche i prodotti come Google Search sono stati migliorati con Gemini 2.0, consentendo di gestire query complesse come problemi matematici avanzati, richieste di codifica e domande multimodali. Una suite completa di innovazioni AI Il lancio di Gemini 2.0 è accompagnato da nuovi e interessanti strumenti che ne illustrano le capacità. Una di queste caratteristiche, Deep Research, funziona come un assistente di ricerca AI che semplifica il processo di investigazione di argomenti complessi compilando le informazioni in rapporti completi. Un altro aggiornamento migliora la ricerca con le panoramiche AI abilitate da Gemini che affrontano le complesse query degli utenti in più fasi. Il modello è stato addestrato utilizzando le Tensor Processing Unit (TPU) di sesta generazione di Google, note come Trillium, che Pichai ha definito “il 100% dell’addestramento e dell’inferenza di Gemini 2.0” Trillium è ora disponibile per gli sviluppatori esterni, consentendo loro di beneficiare della stessa infrastruttura che supporta i progressi di Google. Esperienze agenziali all’avanguardia Gemini 2.0 è accompagnato da prototipi “agonici” sperimentali costruiti per esplorare il futuro della collaborazione tra uomo e IA, tra cui: Progetto Astra: Un assistente AI universale Presentato per la prima volta all’I/O di quest’anno, Project Astra sfrutta la comprensione multimodale di Gemini 2.0 per migliorare le interazioni con l’IA nel mondo reale. Tester fidati hanno provato l’assistente su Android, offrendo un feedback che ha contribuito a perfezionare il dialogo multilingue, la conservazione della memoria e l’integrazione con gli strumenti di Google come Search, Lens e Maps. Astra ha anche dimostrato una latenza di conversazione quasi umana e sono in corso ulteriori ricerche per la sua applicazione nella tecnologia indossabile, come i prototipi di occhiali AI. Progetto Mariner: Ridefinire l’automazione del web Project Mariner è un assistente sperimentale per la navigazione web che sfrutta la capacità di Gemini 2.0 di ragionare su testo, immagini ed elementi interattivi come i moduli all’interno di un browser. Nei test iniziali ha raggiunto una percentuale di successo dell’83,5% nel benchmark WebVoyager per il completamento di attività web end-to-end. I primi tester che utilizzano un’estensione di Chrome stanno contribuendo a perfezionare le capacità di Mariner, mentre Google valuta le misure di sicurezza per garantire che la tecnologia rimanga facile da usare e sicura. Jules: Un agente di codifica per gli sviluppatori Jules, un assistente dotato di intelligenza artificiale costruito per gli sviluppatori, si integra direttamente nei flussi di lavoro di GitHub per affrontare le sfide di codifica. È in grado di proporre autonomamente soluzioni, generare piani ed eseguire attività basate sul codice, il tutto sotto la supervisione umana. Questa sperimentazione fa parte dell’obiettivo a lungo termine di Google di creare agenti AI versatili in vari settori. Applicazioni di gioco e non solo Estendendo la portata di Gemini 2.0 agli ambienti virtuali, Google DeepMind sta collaborando con partner di gioco come Supercell per creare agenti di gioco intelligenti. Questi compagni sperimentali di intelligenza artificiale possono interpretare le azioni di gioco in tempo reale, suggerire strategie e persino accedere a conoscenze più ampie tramite la ricerca. Sono in corso anche ricerche su come il ragionamento spaziale di Gemini 2.0 potrebbe supportare la robotica, aprendo le porte ad applicazioni future nel mondo fisico. Affrontare la responsabilità nello sviluppo dell’IA Con l’espansione delle capacità dell’IA, Google sottolinea l’importanza di dare priorità alla sicurezza e alle considerazioni etiche. Google sostiene che Gemini 2.0 è stata sottoposta a un’approfondita valutazione dei rischi, supportata dalla supervisione del Comitato per la Responsabilità e la Sicurezza per mitigare i potenziali rischi. Inoltre, le sue capacità di ragionamento incorporate consentono un “red-teaming”

3 modi in cui i team di produzione video utilizzano l’intelligenza artificiale per ottimizzare i flussi di lavoro

3 modi in cui i team di produzione video utilizzano l'intelligenza artificiale per ottimizzare i flussi di lavoro

L’intelligenza artificiale (AI) sta entrando nel mondo della produzione video con lo stesso clamore che l’AI ha generato in qualsiasi altro caso d’uso – forse anche di più, perché i creatori di video sono le persone che fanno il clamore. Tra gli entusiasmi, ci sono anche i timori per l’impatto dell’IA. Molti temono che l’IA sostituisca i lavori umani. Altri temono che l’IA appiattisca la qualità delle storie raccontate, perché i modelli di IA vengono addestrati su contenuti già esistenti. Temono che, eliminando o mettendo da parte la creatività umana, ci ritroveremo con delle copie di progetti già fatti. Ma finora nessuno di questi timori si è concretizzato. Quasi due anni dopo il lancio di ChatGPT, che ha annunciato la nuova era dell’IA generativa (GenAI), stiamo iniziando a vederne l’impatto reale sulla produzione video. È molto più che un semplice clamore, e molto più positivo di quanto non avessero avvertito i catastrofisti. Nel corso del nostro lavoro di sviluppo di LTX Studio, il mio team ha collaborato a lungo con agenzie di produzione video. Abbiamo imparato molto su come utilizzano l’intelligenza artificiale per rendere più fluidi i progetti. Le aree in cui i team di produzione video utilizzano l’intelligenza artificiale sono tantissime, dalla pianificazione della logistica delle riprese all’implementazione delle palette di colori in post-produzione, ma ai fini di questa discussione mi concentrerò sui casi d’uso dello sviluppo creativo. I creatori di video stanno applicando l’intelligenza artificiale in modi innovativi. La usano per eliminare l’attrito dal processo creativo, in modo da poter visualizzare in modo più efficiente le proprie idee. Stanno producendo proposte più professionali e convincenti che portano più rapidamente il sostegno degli stakeholder a concetti di contenuti video innovativi. Inoltre, producono materiale più vicino alla loro visione e offrono esperienze più coinvolgenti ed emotive agli spettatori. Comunicare e proporre concetti creativi L’aggiunta dell’intelligenza artificiale nei flussi di lavoro della produzione video consente ai creatori di produrre pitch deck raffinati e convincenti in modo molto più rapido. Sono inclusi sinossi della trama, storyboard in movimento con ripartizione scena per scena, profili visivi dei personaggi, moodboard e palette di colori. Grazie all’intelligenza artificiale, i team possono anche trasmettere le loro idee sviluppando risorse come sizzle reel, teaser, finti trailer e video concettuali. Accelerare il processo significa che puoi sperimentare di più e investire di più nella collaborazione con l’IA come copilota. Non ci sono più barriere di tempo o di budget sul numero di iterazioni che puoi provare e poi scartare o modificare, il che alimenta una maggiore creatività. Uno sviluppo più rapido e di alta qualità dei concept aiuta a rimuovere gli ostacoli nella pipeline di produzione e ad accelerare il processo di approvazione, consentendoti di portare avanti i progetti prima. L’intelligenza artificiale può trasformare rapidamente idee entusiasmanti in un pitch deck o in un concept video che comunichi meglio la tua visione, aiutandoti a convincere clienti, investitori, partner e talenti a partecipare al tuo progetto. In questo modo, i piccoli team non si lasceranno sfuggire le opportunità solo perché non hanno le risorse per produrre un pitch raffinato. Inoltre, questi pitch assistiti dall’intelligenza artificiale fanno un lavoro migliore nel trasmettere i dettagli di ciò che hai in mente. Quando condividi le idee con i tuoi collaboratori, non avrai la frustrazione di dover andare avanti e indietro a modificare la tua spiegazione e poi il loro contributo. La comunicazione è più fluida e riceverai materiale e iterazioni che corrispondono maggiormente alla tua visione creativa. Collaborare in tempo reale Una volta aggiunta l’intelligenza artificiale, è possibile collaborare su concetti creativi, storyboard e persino progetti video completi in tempo reale, proprio come in un documento di Google. Non ci sono intoppi o ritardi nell’invio di materiale da una persona all’altra. Se invii un allegato via e-mail o un link a piattaforme di condivisione di file, devi aspettare che il file venga caricato e che l’altra persona lo scarichi e poi carichi la sua versione modificata. C’è anche il rischio di perdere l’ultima versione modificata. Con la tecnologia di produzione video potenziata dall’intelligenza artificiale, puoi organizzare sessioni di lavoro in tempo reale in cui vedi le modifiche dell’altro all’istante, permettendoti di condividere idee, rivedere le modifiche e perfezionare il tuo concetto. GenAI ti permette di apportare immediatamente modifiche alle angolazioni della telecamera, alle ambientazioni, ai personaggi e altro ancora. Se a qualcuno non piace la modifica, non avrai problemi a trovare la modifica e a tornare a una versione precedente. Questo è particolarmente importante per i team remoti. Non sempre è possibile riunire i migliori talenti in un unico luogo e possono essere necessari mesi per raggiungere questo obiettivo, anche per progetti di grandi dimensioni con un budget elevato. La collaborazione remota istantanea consente un flusso di idee senza soluzione di continuità, elimina l’attrito delle collaborazioni e aumenta la creatività che deriva dalla condivisione delle idee. Una collaborazione a distanza senza problemi aiuta anche le agenzie, i creatori e gli studi di produzione a lavorare facilmente con sponsor e marchi. Spesso vogliono vedere il lavoro in corso e dare il loro contributo. Gli stakeholder potrebbero anche aver bisogno di dare un feedback sulle informazioni consentite o sulla messaggistica del marchio e di verificare la conformità con le normative vigenti. Acquisizione del movimento Il movimento realistico del corpo e le espressioni facciali sono una delle sfide più grandi per gli animatori, soprattutto per quelli che utilizzano l’intelligenza artificiale. I creatori cercano sempre di migliorare il realismo dei personaggi nei giochi e nei video e di renderli più espressivi dal punto di vista emotivo. Ma l’effetto “uncanny valley” continua a ostacolare l’animazione basata sull’IA, per cui attualmente questa ricerca richiede una grande quantità di keyframing manuale, modifiche e perfezionamenti infiniti. È frustrante e richiede molto tempo e, anche dopo tutto questo lavoro, non è sempre convincente. La cattura del movimento offre un barlume di soluzione. Utilizza l’intelligenza artificiale per catturare la complessità delle espressioni facciali dai video caricati dagli esseri umani, per poi trasferirle ai personaggi animati. Anche se è ancora nelle prime

La rivoluzione dell’intelligenza artificiale in corso sta rimodellando il mondo, un algoritmo alla volta

La rivoluzione dell'intelligenza artificiale in corso sta rimodellando il mondo, un algoritmo alla volta

  In pochi anni, il regno dell’IA ha superato i suoi iniziali confini computazionali, emergendo come una delle forze trasformative del 21° secolo, che permea praticamente tutti i principali settori economici. Il mercato globale dell’IA è stato valutato a 638,23 miliardi di dollari nel quarto trimestre del 2024 e si prevede che raggiungerà una valutazione di 3,6 trilioni di dollari entro il 2034, soprattutto perché l’IA ha il potenziale per essere adottata in modo diffuso in diversi settori. Ad esempio, nel settore sanitario, il 38% di tutti i principali fornitori di servizi medici utilizza strumenti diagnostici avanzati di IA. Allo stesso modo, anche il settore finanziario ha dimostrato un’integrazione impressionante: si prevede che l’IA contribuirà all’ economia globale per circa 15,7 trilioni di dollari entro il 2030. Anche il settore della vendita al dettaglio ha puntato a una cifra compresa tra i 400 e i 660 miliardi di dollari all’anno grazie alle esperienze dei clienti guidate dall’intelligenza artificiale, mentre il settore della sicurezza informatica è destinato a registrare un tasso di crescita del 23,6% entro il 2027 grazie alle tecnologie di sicurezza intelligenti alimentate dall’intelligenza artificiale. Si stima che circa l’83% delle aziende abbia già iniziato a considerare l’IA come una priorità strategica, riconoscendo il suo potenziale nel guidare l’innovazione, migliorare l’efficienza e creare vantaggi competitivi. Semplificare la vita quotidiana con l’IA Con la trasformazione del panorama tecnologico globale avvenuta negli ultimi due anni, siamo ora a un punto in cui l’IA sta iniziando ad automatizzare diverse attività quotidiane banali e dispendiose in termini di tempo. Il concetto di “gemelli AI” ha preso piede di recente, consentendo alle persone di gestire la programmazione, rispondere alle e-mail, condurre ricerche e gestire in modo efficiente compiti amministrativi complessi. Questi compagni digitali non rappresentano solo una caricatura dell’identità reale di una persona, ma offrono acceleratori di produttività progettati per liberare chiunque da cicli di lavoro ripetitivi (permettendo così di concentrarsi su compiti più creativi, strategici o emotivamente sfumati). Inoltre, possono aiutare a ridurre il carico cognitivo ed emotivo della gestione di molteplici responsabilità, che altrimenti potrebbe risultare opprimente per alcuni. A guidare questa rivoluzione è Twin Protocol, una piattaforma che cerca di ridefinire il modo in cui gli esseri umani interagiscono con l’IA, principalmente attraverso la creazione di rappresentazioni digitali sicure e dinamiche in grado di apprendere, adattarsi ed evolversi insieme alle loro controparti umane. Utilizzando la potenza degli algoritmi di apprendimento automatico addestrati e dei libri contabili decentralizzati, Twin Protocol consente agli individui di sviluppare gemelli digitali in grado di catturare non solo informazioni, ma anche competenze individuali e tratti della personalità. Il potenziale della piattaforma si estende a diversi settori, dalla sanità alla produzione e alla finanza. Immagina di avere la possibilità di distribuire un gemello AI sempre disponibile in grado di fornire consigli sanitari personalizzati, oppure una rappresentazione digitale di un consulente finanziario che offre strategie di investimento in tempo reale e consapevoli del contesto. Questi gemelli non sono progettati per servire come semplici archivi di informazioni, ma come strumenti intelligenti e dinamici in grado di comprendere il contesto, di apprendere continuamente e di fornire interazioni sfumate e personalizzate. Ciò che distingue Twin Protocol è il suo impegno a mantenere l’autonomia individuale e la privacy dei dati. Grazie al suo “Twin Vault” basato sulla blockchain, gli utenti possono mantenere il controllo sulla propria identità digitale, garantendo la sicurezza delle informazioni personali. Grazie alla sua proposta unica, la piattaforma ha attirato diverse collaborazioni, tra cui quelle con SingularityNET e con personaggi di spicco come Deepak Chopra e Robert Bell (membro fondatore di Kool & the Gang). Il potenziale dell’IA è ancora inesplorato Si stima che nel prossimo decennio il potenziale dell’IA potrebbe crescere enormemente, con offerte come Twin Protocol che dimostrano la tecnologia di prossima generazione, consentendo agli utenti di esplorare nuovi concetti come i gemelli digitali. Dall’istruzione personalizzata all’ottimizzazione industriale, l’IA sta superando la categoria di strumento, diventando un partner trasformativo in grado di ampliare le capacità individuali. Il viaggio e la simbiosi dell’IA sono destinati a superare i confini di ciò che è possibile oggi. Alcune delle innovazioni più interessanti che deriveranno da questo campo non risiederanno nella tecnologia, ma nel modo in cui il suo potenziale verrà applicato ad altri campi. Ci aspettano tempi interessanti! Leggi di più su www.artificialintelligence-news.com

Sicurezza, sostenibilità e superamento dei silos

Sicurezza, sostenibilità e superamento dei silos

  NetApp ha fatto luce sui problemi più urgenti che le organizzazioni di tutto il mondo si trovano ad affrontare mentre cercano di ottimizzare le loro strategie per il successo dell’IA. “Il 2025 si preannuncia come un anno decisivo per l’IA, in quanto le organizzazioni passano dalla sperimentazione alla scalabilità delle loro capacità di IA”, ha dichiarato Gabie Boko, Chief Marketing Officer di NetApp. “Le aziende stanno facendo investimenti significativi per promuovere l’innovazione e l’efficienza, ma questi sforzi avranno successo solo se i dirigenti del settore tecnologico a livello globale riusciranno ad affrontare le crescenti sfide legate alla complessità dei dati, alla sicurezza e alla sostenibilità” I risultati dell’ultimo Data Complexity Report di NetApp tracciano un quadro dettagliato della situazione attuale delle aziende nel loro percorso verso l’IA e delle tendenze chiave che influenzeranno il futuro della tecnologia. Costo della trasformazione Due terzi delle aziende di tutto il mondo affermano che i loro dati sono “completamente o in gran parte ottimizzati” per l’IA, evidenziando i grandi miglioramenti ottenuti nel rendere i dati accessibili, accurati e ben documentati. Tuttavia, lo studio rivela che il percorso verso la maturità dell’IA richiede ulteriori investimenti significativi. Un sorprendente 40% dei dirigenti tecnologici globali prevede che nel 2025 saranno necessari “investimenti senza precedenti” solo per migliorare le capacità di gestione dell’IA e dei dati. Sebbene siano stati compiuti notevoli progressi, il raggiungimento di innovazioni di grande impatto richiede un impegno ancora maggiore in termini di risorse finanziarie e infrastrutturali. Raggiungere il potenziale dell’IA potrebbe non costare poco, ma i leader disposti a investire potrebbero raccogliere notevoli frutti in termini di innovazione ed efficienza. I silos di dati ostacolano il successo dell’IA Uno dei principali ostacoli identificati nel rapporto è la frammentazione dei dati. Uno schiacciante 79% dei dirigenti tecnologici globali afferma che unificare i dati, riducendo i silos e garantendo un’interconnessione fluida, è la chiave per sbloccare il pieno potenziale dell’IA. Le aziende che hanno adottato l’archiviazione unificata dei dati sono in una posizione migliore per superare questo ostacolo. Collegando i dati indipendentemente dal loro tipo o dalla loro posizione (in ambienti ibridi multi-cloud), garantiscono un’accessibilità costante e riducono al minimo la frammentazione. Il rapporto indica che le organizzazioni che danno priorità all’unificazione dei dati hanno molte più probabilità di raggiungere i loro obiettivi di intelligenza artificiale nel 2025. Quasi un terzo (30%) delle aziende che non danno priorità all’unificazione prevede di non raggiungere i propri obiettivi, rispetto al 23% di quelle che pongono questo aspetto al centro della propria strategia. I dirigenti hanno raddoppiato le priorità sulla gestione dei dati e sull’infrastruttura, riconoscendo sempre più che l’ottimizzazione della capacità di raccogliere, archiviare ed elaborare le informazioni è essenziale per la maturità dell’IA. Le aziende che si rifiutano di affrontare queste sfide sui dati rischiano di rimanere indietro in un mercato globale intensamente competitivo. Rischi di scala dell’IA Man mano che le aziende accelerano l’adozione dell’IA, i rischi associati, in particolare per quanto riguarda la sicurezza, diventano sempre più gravi. Più di due quinti (41%) dei dirigenti del settore tecnologico a livello globale prevedono un forte aumento delle minacce alla sicurezza entro il 2025, man mano che l’IA diventerà parte integrante di un maggior numero di aspetti delle loro attività. La rapida ascesa dell’IA ha ampliato le superfici di attacco, esponendo i set di dati a nuove vulnerabilità e creando sfide uniche come la protezione dei modelli sensibili di IA. I Paesi che guidano la corsa all’IA, tra cui India, Stati Uniti e Giappone, hanno quasi il doppio delle probabilità di incorrere in problemi di sicurezza rispetto a nazioni meno avanzate in materia di IA come Germania, Francia e Spagna. La maggiore consapevolezza dei problemi di sicurezza legati all’IA si riflette nelle priorità aziendali. Oltre la metà (59%) dei dirigenti globali indica la cybersicurezza come uno dei principali fattori di stress che le organizzazioni devono affrontare oggi. Tuttavia, si stanno facendo progressi. Nonostante le elevate preoccupazioni, il rapporto suggerisce che le misure di sicurezza efficaci stanno dando risultati. Dal 2023, il numero di dirigenti che considerano la protezione dalla cybersicurezza e dal ransomware come la loro priorità principale è diminuito del 17%, segnalando un certo ottimismo nel combattere efficacemente questi rischi. Limitare i costi ambientali dell’IA Oltre ai rischi per la sicurezza, la crescita dell’IA sta sollevando urgenti questioni di sostenibilità. Oltre un terzo dei dirigenti tecnologici globali (34%) prevede che i progressi dell’IA porteranno a cambiamenti significativi nelle pratiche di sostenibilità aziendale. Nel frattempo, il 33% prevede nuove politiche e investimenti governativi mirati all’utilizzo dell’energia. L’infrastruttura che alimenta l’IA e che trasforma i dati grezzi in valore aziendale richiede una notevole quantità di energia, contrastando gli obiettivi di sostenibilità delle organizzazioni. Le nazioni che utilizzano molto l’IA spesso sentono l’impatto ambientale in modo più acuto rispetto alle loro controparti meno focalizzate sull’IA. Sebbene il 72% delle aziende dia ancora priorità alla riduzione dell’impronta di carbonio, il rapporto rileva un calo rispetto all’84% del 2023, indicando una crescente tensione tra gli impegni di sostenibilità e l’incessante marcia dell’innovazione. Per le organizzazioni che vogliono scalare l’IA senza causare danni irreparabili al pianeta, nei prossimi anni sarà fondamentale mantenere la responsabilità ambientale insieme alla crescita tecnologica. Krish Vitaldevara, SVP e GM di NetApp, ha commentato: “Le organizzazioni leader nel settore dell’analisi avanzata e dell’IA sono quelle che dispongono di dati unificati e ben catalogati, di una solida sicurezza e conformità per le informazioni sensibili e di una chiara comprensione dell’evoluzione dei dati”. “Affrontando queste sfide, possono guidare l’innovazione garantendo al contempo resilienza, responsabilità e approfondimenti tempestivi nella nuova era dell’IA” Puoi trovare una copia completa del rapporto di NetApp qui (PDF) Leggi di più su www.artificialintelligence-news.com

Google lancia i modelli di intelligenza artificiale generativa Veo e Imagen 3

Google lancia i modelli di intelligenza artificiale generativa Veo e Imagen 3

Google Cloud ha lanciato due modelli di IA generativa sulla sua piattaforma Vertex AI, Veo e Imagen 3, tra le notizie di un’impennata dei ricavi delle aziende che utilizzano questa tecnologia. Secondo i dati di Google Cloud, l’86% delle aziende che attualmente utilizzano l’IA generativa in ambienti di produzione ha registrato un aumento dei ricavi, con una crescita media stimata del 6%. Questo dato ha spinto il gigante tecnologico a introdurre le ultime innovazioni, come Veo, il suo modello di generazione video più sofisticato, e Imagen 3, un sistema avanzato di generazione da testo a immagine. Un passo avanti Veo, ora disponibile in anteprima privata su Vertex AI, rappresenta una pietra miliare in quanto Google diventa il primo hyperscaler a offrire un modello image-to-video. La tecnologia consente alle aziende di generare video di alta qualità a partire da semplici richieste di testo o immagini, rivoluzionando potenzialmente i flussi di lavoro della produzione video in tutti i settori. Imagen 3 – il cui rilascio a tutti i clienti di Vertex AI è previsto per la prossima settimana – promette un realismo senza precedenti nelle immagini generate, con notevoli miglioramenti nei dettagli, nell’illuminazione e nella riduzione degli artefatti. Il modello include nuove funzionalità per i clienti aziendali, tra cui funzionalità di editing avanzate e opzioni di personalizzazione del marchio. Trasformare le operazioni Diverse grandi aziende hanno iniziato a implementare queste tecnologie nelle loro attività. Mondelez International, l’azienda dietro a marchi come Oreo, Cadbury e Chips Ahoy!, sta utilizzando la tecnologia per accelerare la creazione di contenuti per le campagne in tutto il suo portafoglio globale di marchi. Jon Halvorson, SVP Consumer Experience & Digital Commerce di Mondelez International, ha spiegato: “La nostra collaborazione con Google Cloud è stata fondamentale per sfruttare la potenza dell’intelligenza artificiale generativa, in particolare attraverso Imagen 3, per rivoluzionare la produzione di contenuti”. “Questa tecnologia ci ha permesso di produrre centinaia di migliaia di risorse personalizzate, migliorando la qualità creativa e riducendo in modo significativo il time-to-market e i costi” La piattaforma di condivisione delle conoscenze Quora ha sviluppato Poe, una piattaforma che consente agli utenti di interagire con modelli generativi di intelligenza artificiale. Veo e Imagen sono ora integrati con Poe. Spencer Chan, Product Lead di Poe presso Quora, ha commentato: “Abbiamo creato Poe per democratizzare l’accesso ai migliori modelli di IA generativa del mondo. Con Veo, stiamo permettendo a milioni di utenti di dare vita alle loro idee attraverso video generativi di alta qualità” Sicurezza e protezione In risposta alle crescenti preoccupazioni per i contenuti generati dall’intelligenza artificiale, Google ha implementato solide funzioni di sicurezza in entrambi i modelli. Queste includono: Filigrana digitale attraverso il SynthID di Google DeepMind. Filtri di sicurezza integrati per prevenire la creazione di contenuti dannosi. Rigide politiche di governance dei dati per garantire la protezione dei dati dei clienti. Indennità sul diritto d’autore per i servizi di intelligenza artificiale generativa. Il lancio di questi nuovi modelli segnala la crescente influenza di Google nello spazio AI aziendale e suggerisce un cambiamento verso soluzioni AI più sofisticate e integrate per le applicazioni aziendali. Leggi di più su www.artificialintelligence-news.com

Alzare l’asticella dei modelli linguistici open source

Alzare l'asticella dei modelli linguistici open source

Ai2 rilascia OLMo 2, una famiglia di modelli linguistici open-source che promuove la democratizzazione dell’IA e riduce il divario tra soluzioni aperte e proprietarie. I nuovi modelli, disponibili nelle versioni a 7B e 13B parametri, sono addestrati su un massimo di 5 trilioni di token e dimostrano livelli di prestazioni che eguagliano o superano modelli analoghi completamente aperti, pur rimanendo competitivi con modelli open-weight come Llama 3.1 su benchmark accademici inglesi. “Dal rilascio del primo OLMo nel febbraio 2024, abbiamo assistito a una rapida crescita dell’ecosistema dei modelli linguistici aperti e a una riduzione del divario di prestazioni tra i modelli aperti e quelli proprietari”, ha spiegato Ai2. Il team di sviluppo ha ottenuto questi miglioramenti grazie a diverse innovazioni, tra cui misure di stabilità dell’addestramento migliorate, approcci all’addestramento per fasi e metodologie post-addestramento all’avanguardia derivate dal framework Tülu 3. Tra i miglioramenti tecnici degni di nota ci sono il passaggio dalla norma di livello non parametrica alla RMSNorm e l’implementazione dell’incorporazione posizionale rotante. La svolta nell’addestramento del modello OLMo 2 Il processo di formazione ha utilizzato un sofisticato approccio in due fasi. La fase iniziale ha utilizzato il dataset OLMo-Mix-1124, composto da circa 3,9 trilioni di token, provenienti da DCLM, Dolma, Starcoder e Proof Pile II. La seconda fase ha incorporato una miscela accuratamente curata di dati web di alta qualità e contenuti specifici del dominio attraverso il dataset Dolmino-Mix-1124. Particolarmente degna di nota è la variante OLMo 2-Instruct-13B, che è il modello più capace della serie. Il modello dimostra prestazioni superiori rispetto ai modelli Qwen 2.5 14B instruct, Tülu 3 8B e Llama 3.1 8B instruct in vari benchmark. (Credit: Ai2) Impegno per la scienza aperta Rafforzando il suo impegno verso la scienza aperta, Ai2 ha rilasciato una documentazione completa che include pesi, dati, codice, ricette, checkpoint intermedi e modelli ottimizzati per le istruzioni. Questa trasparenza consente un’ispezione completa e la riproduzione dei risultati da parte della comunità AI più ampia. Il rilascio introduce anche un quadro di valutazione chiamato OLMES (Open Language Modeling Evaluation System), che comprende 20 benchmark progettati per valutare capacità fondamentali come il richiamo delle conoscenze, il ragionamento di senso comune e il ragionamento matematico. OLMo 2 alza l’asticella dello sviluppo dell’IA open-source, accelerando potenzialmente il ritmo dell’innovazione nel settore e mantenendo al contempo trasparenza e accessibilità. Leggi di più su www.artificialintelligence-news.com