ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Il modello SAM 2 di Meta consente una segmentazione video accurata in pochi secondi

Il modello SAM 2 di Meta consente una segmentazione video accurata in pochi secondi

La divisione di ricerca di Meta ha presentato SAM 2 (Segment Anything Model 2), un sistema di intelligenza artificiale che segna un enorme progresso nell’analisi dei video. Questo nuovo modello espande le capacità di segmentazione delle immagini del suo predecessore SAM, avventurandosi nel dominio più complesso dei video. La segmentazione dei video – la capacità di identificare e seguire oggetti specifici in una scena in movimento – è da tempo una sfida per l’intelligenza artificiale. Mentre gli esseri umani possono seguire senza sforzo un’auto che si muove nel traffico o una persona che cammina in mezzo alla folla, i sistemi di intelligenza artificiale tendono a fare fatica. Questo è un problema enorme per le auto senza conducente e altri veicoli autonomi (AV), che devono seguire gli oggetti 3D in movimento nei loro ambienti. SAM 2 mira a colmare questo divario, avvicinando la comprensione dei video da parte dell’intelligenza artificiale alla percezione umana. Il sistema è in grado di identificare e tracciare virtualmente qualsiasi oggetto in un video con un input minimo da parte dell’utente, a volte anche con un solo clic. Questo apre un mondo di possibilità in campi che vanno dall’editing cinematografico alla ricerca scientifica. Ecco come Meta ha creato e testato SAM 2: Il team ha creato una tecnica chiamata Promptable Visual Segmentation (PVS), che consente agli utenti di guidare l’intelligenza artificiale con semplici indicazioni su qualsiasi fotogramma del video. Ciò significa che il sistema può adattarsi a un’ampia gamma di scenari, dal seguire una persona specifica in mezzo alla folla al seguire il movimento delle ali di un uccello in volo. Hanno costruito un modello di architettura che comprende componenti per l’elaborazione di singoli fotogrammi, la memorizzazione di informazioni sugli oggetti nel tempo e la generazione di segmentazioni precise. Un elemento chiave è il modulo di memoria, che permette a SAM 2 di mantenere un tracking coerente anche quando gli oggetti scompaiono temporaneamente dalla vista. È stato creato un nuovo enorme set di dati, che contiene oltre 50.000 video e 35 milioni di fotogrammi etichettati, superando i precedenti set di dati di segmentazione video. T questo set di dati, denominato SA-V, copre un ampio spettro di tipi di oggetti, dimensioni e scenari, migliorando la capacità del modello di generalizzarsi a nuove situazioni. Il modello è stato sottoposto a un addestramento e a test approfonditi su 17 diversi set di dati video, dai filmati delle telecamere da cruscotto alle immagini mediche. SAM 2 ha superato i metodi più avanzati in compiti di segmentazione di oggetti video semi-supervisionati, ottenendo un miglioramento medio del 7,5% nei punteggi J&F (una metrica standard per la qualità della segmentazione). Sopra: La segmentazione di immagini per videoclip complessi segmenta forme diverse in pochi secondi. Nella produzione cinematografica, SAM 2 potrebbe semplificare il lavoro sugli effetti visivi, risparmiando tempo nella post-produzione Gli scienziati potrebbero tracciare le cellule nei filmati di microscopia o monitorare i cambiamenti ambientali nelle immagini satellitari Per gli AV, comprese le auto senza conducente, SAM 2 potrebbe migliorare il rilevamento degli oggetti in scenari di traffico complessi Gli ambientalisti potrebbero utilizzare SAM 2 per monitorare le popolazioni animali in vaste aree In ambito AR/VR, potrebbe consentire interazioni più accurate con oggetti virtuali in video live Fedele all’impegno di Meta per la ricerca aperta, SAM 2 viene rilasciato come software open-source. Questo include non solo il modello, ma anche il set di dati utilizzato per addestrarlo. I ricercatori stanno già esplorando modi per gestire video più lunghi, migliorare le prestazioni sui dettagli fini e ridurre la potenza di calcolo necessaria per eseguire il modello. La maturazione della tecnologia di segmentazione delle immagini trasformerà sicuramente il modo in cui interagiamo con i contenuti video e li analizziamo. Dal rendere più accessibili complesse attività di editing al consentire nuove forme di analisi visiva, SAM 2 si spinge oltre i confini della manipolazione visiva. Leggi di più su dailyai.com

Ogni azienda avrà un’intelligenza artificiale

Ogni azienda avrà un'intelligenza artificiale

  Nel corso di una chiacchierata al SIGGRAPH 2024, il fondatore e CEO di NVIDIA Jensen Huang e il fondatore e CEO di Meta Mark Zuckerberg hanno condiviso le loro opinioni sul potenziale dell’IA open source e degli assistenti virtuali. La conversazione è iniziata con l’annuncio da parte di Zuckerberg del lancio di AI Studio, una nuova piattaforma progettata per democratizzare la creazione di AI. Questo strumento consente agli utenti di creare, condividere e scoprire personaggi AI, aprendo potenzialmente lo sviluppo dell’AI a milioni di creatori e piccole imprese. Huang ha sottolineato l’ubiquità dell’IA in futuro, affermando: “Ogni singolo ristorante, ogni singolo sito web probabilmente, in futuro, avrà queste IA…” Zuckerberg ha concordato, aggiungendo: “… proprio come ogni azienda ha un indirizzo e-mail, un sito web e un account sui social media, penso che in futuro ogni azienda avrà un’intelligenza artificiale” Questa visione è in linea con i recenti sviluppi di NVIDIA presentati al SIGGRAPH. L’azienda ha presentato in anteprima “James”, un umano digitale interattivo basato sul progetto di riferimento NVIDIA ACE (Avatar Cloud Engine). James – un assistente virtuale in grado di fornire risposte contestualmente accurate – dimostra il potenziale delle aziende nel creare avatar personalizzati e iperrealistici per le interazioni con i clienti. La discussione ha evidenziato i contributi significativi di Meta allo sviluppo dell’intelligenza artificiale. Huang ha elogiato il lavoro di Meta dicendo: “Avete fatto un lavoro incredibile sull’IA” e ha citato i progressi nella computer vision, nei modelli linguistici e nella traduzione in tempo reale. Ha anche riconosciuto l’uso diffuso di PyTorch, un framework open-source per l’apprendimento automatico sviluppato da Meta. Entrambi i CEO hanno sottolineato l’importanza dell’open source per il progresso dell’IA. Meta si è posizionata come leader in questo campo, implementando l’IA su tutte le sue piattaforme e rilasciando modelli open-source come Llama 3.1. Quest’ultimo modello, con 405 miliardi di parametri, ha richiesto l’addestramento di oltre 16.000 GPU NVIDIA H100, il che rappresenta un notevole investimento in termini di risorse. Zuckerberg ha condiviso la sua visione di modelli di intelligenza artificiale sempre più integrati, affermando: “Sogno che un giorno tutto Facebook o Instagram sia come un unico modello di intelligenza artificiale che abbia unificato tutti questi diversi tipi di contenuti e sistemi” Ritiene che la collaborazione sia fondamentale per ulteriori progressi nell’IA. La conversazione ha toccato il potenziale dell’IA per migliorare la produttività umana. Huang ha descritto un futuro in cui l’IA potrebbe generare immagini in tempo reale mentre gli utenti digitano, consentendo una collaborazione fluida tra gli esseri umani e gli assistenti IA. Questo concetto si riflette negli ultimi progressi della piattaforma NVIDIA Maxine AI, tra cui Maxine 3D e Audio2Face-2D, che mirano a creare esperienze di telepresenza coinvolgenti. Guardando al futuro, Zuckerberg ha espresso entusiasmo per la combinazione dell’intelligenza artificiale con gli occhiali a realtà aumentata, menzionando la collaborazione di Meta con il produttore di occhiali Luxottica. Immagina che questa tecnologia possa trasformare l’istruzione, l’intrattenimento e il lavoro. Huang ha parlato dell’evoluzione delle interazioni con l’intelligenza artificiale, passando da conversazioni a turni a simulazioni più complesse e con più opzioni. “L’IA di oggi è di tipo turnistico. Tu dici qualcosa e lei ti risponde”, ha spiegato Huang. “In futuro, l’IA potrebbe considerare più opzioni o creare un albero di opzioni e simulare i risultati, diventando molto più potente” L’importanza di questa evoluzione è evidente nell’adozione delle tecnologie NVIDIA da parte di aziende di tutti i settori. HTC, Looking Glass, Reply e UneeQ sono tra le ultime aziende che utilizzano NVIDIA ACE e Maxine per applicazioni che vanno dagli agenti del servizio clienti alle esperienze di telepresenza nei settori dell’intrattenimento, della vendita al dettaglio e dell’ospitalità. Mentre l’intelligenza artificiale continua a evolversi e a integrarsi in vari aspetti della nostra vita, le intuizioni condivise da questi leader del settore lasciano intravedere un futuro in cui gli assistenti AI saranno comuni come i siti web e gli account dei social media. Gli sviluppi presentati al SIGGRAPH 2024 da NVIDIA e da altre aziende dimostrano che questo futuro si sta avvicinando rapidamente, con esseri umani digitali sempre più sofisticati e capaci di interazioni naturali e coinvolgenti. Leggi di più su www.artificialintelligence-news.com

OpenResearch rivela i potenziali impatti del reddito di base universale

OpenResearch rivela i potenziali impatti del reddito di base universale

Uno studio condotto da OpenResearch ha fatto luce sul potenziale trasformativo del reddito di base universale (UBI). La ricerca mirava a “imparare dalle esperienze dei partecipanti e a comprendere meglio sia il potenziale che i limiti dei trasferimenti di denaro incondizionati” Lo studio – che ha fornito ai partecipanti 1.000 dollari in più al mese – ha rivelato impatti significativi su vari aspetti della vita dei beneficiari, tra cui la salute, le abitudini di spesa, l’occupazione, l’autonomia personale e la mobilità abitativa. Per quanto riguarda l’assistenza sanitaria, l’analisi ha evidenziato un maggiore utilizzo dei servizi medici, in particolare delle cure dentistiche e specialistiche. Un partecipante ha dichiarato: “Mi sono fatto mettere l’apparecchio… credo che le persone sottovalutino l’importanza di avere dei bei denti, perché non influisce solo sul senso di sé, ma anche sul modo in cui le persone ti guardano” Sebbene non siano stati osservati effetti immediati e misurabili sulla salute fisica, i ricercatori suggeriscono che un maggiore utilizzo delle cure mediche potrebbe portare a benefici a lungo termine per la salute. Lo studio ha anche evidenziato interessanti modelli di spesa tra i beneficiari dell’UBI. In media, i partecipanti hanno aumentato la loro spesa mensile complessiva di 310 dollari, con un’allocazione significativa verso i bisogni primari come cibo, trasporti e affitto. In particolare, si è registrato un aumento del 26% del sostegno finanziario fornito ad altri, evidenziando l’effetto a catena dell’UBI sulle comunità. In termini di occupazione, lo studio ha rivelato risultati sfumati. Sebbene si sia registrata una leggera diminuzione dei tassi di occupazione e delle ore di lavoro dei beneficiari, lo studio ha rilevato che l’UBI ha fornito agli individui una maggiore flessibilità nel prendere decisioni occupazionali in linea con le loro circostanze e i loro obiettivi. Un partecipante ha spiegato: “Grazie a quei soldi e alla possibilità di accumulare risparmi, per una volta sono in grado di essere esigente… non devo accettare un lavoro di merda solo perché ho bisogno di un reddito in questo momento” La ricerca ha anche evidenziato miglioramenti significativi per quanto riguarda l’autonomia personale e la pianificazione del futuro. I beneficiari dell’UBI avevano il 14% in più di probabilità di seguire un corso di istruzione o di formazione professionale e il 5% in più di probabilità di avere un budget rispetto al gruppo di controllo. I beneficiari neri al terzo anno del programma avevano il 26% in più di probabilità di avviare o aiutare ad avviare un’attività. Infine, l’analisi dello studio ha rivelato una maggiore mobilità abitativa tra i beneficiari dell’UBI. I partecipanti avevano l’11% in più di probabilità di cambiare quartiere e il 23% in più di cercare attivamente un nuovo alloggio rispetto al gruppo di controllo. il team di openresearch pubblica il primo risultato del suo studio sull’UBI:https://t.co/8YXBwVeQeW un grande e diligente lavoro negli ultimi anni. orgoglioso del team! – Sam Altman (@sama) 22 luglio 2024 Lo studio fornisce preziose indicazioni sui potenziali impatti dell’UBI, offrendo a politici e ricercatori una base di dati per le future decisioni sui programmi di welfare sociale. Questa importante conversazione a livello sociale potrebbe essere necessaria se gli scenari peggiori relativi al trasferimento di posti di lavoro indotto dall’intelligenza artificiale dovessero realizzarsi. Leggi di più su www.artificialintelligence-news.com

Anche se i cookie di terze parti fossero spariti, saremmo stati a posto

Anche se i cookie di terze parti fossero spariti, saremmo stati a posto

L’Adtech non è estranea al clamore e all’isteria. In un settore che si muove così velocemente come quello della pubblicità digitale, i marketer sono comprensibilmente in guardia contro i cambiamenti di politica e tecnologia che potrebbero sconvolgere il loro status quo, per non parlare del loro ROI. Il continuo rinvio – e ora la completa scomparsa –dei cookie di terze parti in Chrome è un esempio perfetto di come l’industria pubblicitaria si sia fatta prendere da una frenesia esagerata, e non solo perché l’evento non si sta più verificando. Anche se i cookie di terze parti dovessero essere deprecati, il livello di ansia del settore indotto da questa idea era semplicemente eccessivo. Il percorso che ci ha portato al punto in cui ci troviamo oggi ha dato al settore molto tempo per agitarsi, sia nelle sale conferenze che nelle rubriche di opinione. Ma in mezzo a questo agitarsi, molti all’interno del nostro settore non hanno riconosciuto che il nostro settore ha superato la sua giusta dose di scossoni negli ultimi due decenni e ha continuato ad andare avanti più forte che mai. Per non dimenticare: I cookie di terze parti sono uno strumento, non una strategia. Influenzano il modo in cui il marketing viene erogato e misurato, ma non sono mai stati un sostituto di un solido piano di marketing o di solide pratiche di raccolta dati. La loro scomparsa avrebbe richiesto un riorientamento, non un abbandono totale del modo in cui i marketer svolgono il loro lavoro. Per avere una prospettiva, diamo un’occhiata ad alcuni degli eventi e delle tendenze più importanti degli ultimi vent’anni di pubblicità digitale e al modo in cui hanno perfezionato, anziché devastato, il nostro settore. Legge CAN-SPAM (2003) Il Controlling the Assault of Non-Solicited Pornography And Marketing Act è stato emanato negli Stati Uniti per stabilire delle regole per le e-mail commerciali. Stabilisce i requisiti per i messaggi commerciali, dà ai destinatari il diritto di non ricevere più email e stabilisce le sanzioni in caso di violazione. Il CAN-SPAM Act ha cambiato le pratiche di marketing via e-mail imponendo meccanismi di opt-out e righe di oggetto veritiere. Ma ha forse eliminato l’email come canale di marketing efficace? Difficile. Due decenni dopo, il 18% delle aziende dichiara che il ROI dell’email marketing è superiore a 70 dollari per 1 dollaro investito. Blocco degli annunci (anni 2000-oggi) L’ascesa dei software di blocco degli annunci ha provocato un’ondata significativa nel settore del marketing digitale. Gli ad blocker, che impediscono la visualizzazione di annunci pubblicitari sui siti web, riducono la portata degli annunci digitali e aumentano la necessità per i marketer di integrare gli acquisti pubblicitari con canali e tattiche alternative. Detto questo, invece di segnare il destino della pubblicità display, il settore ha continuato a evolversi e a crescere, anche con l’aumento dell’adozione degli ad blocker. Nel 2024, la spesa pubblicitaria digitale programmatica negli Stati Uniti ammonterà a 157,35 miliardi di dollari, con una crescita del 15,9% rispetto all’anno precedente. Guide di approvazione della FTC (2009, aggiornamento 2023) Nel 2009, la Federal Trade Commission ha pubblicato delle linee guida (successivamente riviste) che richiedono ai blogger e agli influencer dei social media di rivelare qualsiasi legame materiale che hanno con i marchi che promuovono. L’iniziativa è stata pensata per aumentare la trasparenza e ridurre la possibilità di ingannare i consumatori. Sebbene all’epoca gli esperti di marketing fossero preoccupati che le nuove regole avrebbero ridotto l’efficacia delle relazioni con gli influencer, la mossa ha finito per aumentare la sofisticazione dello spazio dell’influencer marketing, che ha suscitato una maggiore fiducia. Uno studio del 2023 ha rilevato che il 69% dei consumatori è propenso a fidarsi delle raccomandazioni di un amico, di un familiare o di un influencer rispetto alle informazioni provenienti direttamente da un marchio. GDPR (2018) e CCPA (2020) Il Regolamento Generale sulla Protezione dei Dati, implementato nell’Unione Europea, ha rappresentato una delle leggi più severe al mondo in materia di privacy e sicurezza. Richiede alle aziende di proteggere i dati personali e la privacy dei cittadini dell’UE: Le aziende devono ottenere un consenso esplicito prima di raccogliere dati personali e gli individui hanno il diritto di accedere e cancellare i propri dati. Successivamente, negli Stati Uniti, il California Consumer Privacy Act ha dato ai residenti della California un maggiore controllo sulle informazioni personali raccolte dalle aziende. Creando un precedente da seguire per altri stati, il CCPA prevede il diritto di sapere quali dati vengono raccolti, il diritto di cancellare i dati personali e il diritto di rinunciare alla vendita dei propri dati. Queste norme hanno influenzato in modo significativo il modo in cui le aziende raccolgono, archiviano ed elaborano i dati, portando a pratiche più trasparenti. Tuttavia, non hanno frenato gli investimenti o l’efficacia della pubblicità digitale. Il settore continua a crescere a livello globale e in modo più sostenibile e rispettoso della privacy. Trasparenza del tracciamento delle app di Apple (2021) L’aggiornamento iOS 14.5 di Apple ha introdotto l’ATT, che richiede alle app di ottenere il permesso dell’utente prima di tracciare i suoi dati in altre app e siti web. Questo aggiornamento ha sconvolto la pubblicità mobile limitando l’accesso ai dati degli utenti iPhone per personalizzare gli annunci e misurarne l’efficacia. Tuttavia, non ha cambiato di molto l’importanza del mobile nel panorama pubblicitario generale. Piuttosto, il settore si è orientato verso l’adozione di SKAdNetwork-Appleper misurare l’efficacia delle campagne senza raccogliere i dati a livello di dispositivo o di utente:modelli di marketingmix, studi di lift e altro ancora.   Nel complesso, questi eventi e sviluppi hanno spinto il settore del marketing digitale verso pratiche più etiche, trasparenti e incentrate sulla privacy – e l’eliminazione dei cookie di terze parti in Chrome avrebbe fatto lo stesso. Certo, avrebbe interrotto il “business as usual” Ma avrebbe anche spinto il settore ad abbracciare soluzioni più sostenibili e ad approfondire gli investimenti in dati e approcci di alta qualità. I marketer non dovrebbero fermarsi nel loro percorso verso un futuro più sostenibile. Indipendentemente dal piano di Google per i cookie, ci

Da Anthropic a Google: Chi sta vincendo contro le allucinazioni dell’AI?

Da Anthropic a Google: Chi sta vincendo contro le allucinazioni dell'AI?

Galileo, azienda leader nello sviluppo di IA generativa per applicazioni aziendali, ha pubblicato il suo ultimo Hallucination Index. Il quadro di valutazione – che si concentra sulla Retrieval Augmented Generation (RAG) – ha valutato 22 LLM Gen AI di spicco di attori importanti come OpenAI, Anthropic, Google e Meta. L’indice di quest’anno si è ampliato in modo significativo, con l’aggiunta di 11 nuovi modelli che riflettono la rapida crescita dei LLM open-source e closed-source negli ultimi otto mesi. Vikram Chatterji, CEO e co-fondatore di Galileo, ha dichiarato: “Nell’attuale panorama dell’IA in rapida evoluzione, gli sviluppatori e le aziende si trovano di fronte a una sfida cruciale: come sfruttare la potenza dell’IA generativa bilanciando costi, precisione e affidabilità”. Gli attuali benchmark sono spesso basati su casi d’uso accademici, piuttosto che su applicazioni reali”. L’indice ha utilizzato la metrica di valutazione proprietaria di Galileo, l’aderenza al contesto, per verificare le imprecisioni di output su diverse lunghezze di input, da 1.000 a 100.000 token. Questo approccio mira ad aiutare le aziende a prendere decisioni informate sul bilanciamento tra prezzo e prestazioni nelle loro implementazioni di IA. I risultati principali dell’indice includono: Claude 3.5 Sonnetdi Anthropic è risultato il modello con le migliori prestazioni complessive, ottenendo un punteggio quasi perfetto negli scenari di breve, medio e lungo periodo. Gemini 1.5 Flashdi Google si è classificato come il modello più performante in termini di economicità, offrendo ottime prestazioni in tutti i compiti. Qwen2-72B-Instruct di Alibaba si è distinto come il miglior modello open-source, eccellendo in particolare negli scenari di breve e medio contesto. L’indice ha inoltre evidenziato diverse tendenze nel panorama degli LLM: Imodelli open-source stanno rapidamente colmando il divario con le loro controparti closed-source, offrendo migliori prestazioni di allucinazione a costi inferiori. Gli attuali LLM RAG dimostrano miglioramenti significativi nella gestione di contesti di lunghezza elevata senza sacrificare la qualità o l’accuratezza. Imodelli più piccoli a volte superano quelli più grandi, suggerendo che una progettazione efficiente può essere più importante della scala. L’emergere di modelli di grande successo al di fuori degli Stati Uniti, come Mistral-large di Mistral e qwen2-72b-instruct di Alibaba, indica una crescente competizione globale nello sviluppo di LLM. Mentre i modelli closed-source come Claude 3.5 Sonnet e Gemini 1.5 Flash mantengono il loro vantaggio grazie ai dati di formazione proprietari, l’indice rivela che il panorama si sta evolvendo rapidamente. La performance di Google è stata particolarmente degna di nota: il suo modello open-source Gemma-7b ha ottenuto scarsi risultati, mentre il suo Gemini 1.5 Flash, closed-source, si è sempre posizionato vicino ai primi posti. Poiché l’industria dell’IA continua a confrontarsi con le allucinazioni, che rappresentano un ostacolo importante per i prodotti di IA Gen pronti per la produzione, l’Hallucination Index di Galileo fornisce indicazioni preziose per le aziende che cercano di adottare il modello giusto per le loro esigenze specifiche e i loro vincoli di budget. Vedi anche: I senatori interrogano OpenAI su sicurezza e pratiche di lavoro Vuoi saperne di più sull’AI e sui Big Data dai leader del settore? Scopri l’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi e i webinar sulla tecnologia aziendale organizzati da TechForge qui. The post Da Anthropic a Google: Chi sta vincendo contro le allucinazioni dell’AI? appeared first on AI News. Leggi di più su www.artificialintelligence-news.com

Trasformare la produzione audio e video per i professionisti del marketing

Trasformare la produzione audio e video per i professionisti del marketing

Con le tendenze dei consumatori in continua evoluzione, insieme all’avvento della tecnologia AI, il marketing digitale è stato sull’orlo di una trasformazione storica, con nuove tecnologie che hanno rimodellato il modo in cui creiamo e consumiamo i contenuti. Questi cambiamenti nel settore sono proprio il motivo per cui Podcastle, una piattaforma leader nella creazione di contenuti basati sull’AI, ha recentemente pubblicato un eBook che esplora il modo in cui l’AI può trasformare la produzione di audio e video in modo approfondito, offrendo preziosi spunti sul futuro della creazione di contenuti per i team di marketing. Analizziamo alcuni punti salienti del loro ebook e scopriamo come queste innovazioni sono destinate a cambiare le strategie di marketing nel prossimo anno. L’ascesa dell’intelligenza artificiale nella creazione di contenuti Con quasi il 90% dei responsabili marketing che prevede di aumentare i contenuti audio e il 70% che considera il video lo strumento di conversione più efficace, è chiaro che questi formati stanno dominando la sfera del content marketing. Tuttavia, meno del 20% degli esperti di marketing ritiene di avere le risorse necessarie per creare contenuti audio/video di alta qualità. Perché? Molti citano i vincoli di tempo, la larghezza di banda limitata e gli ostacoli tecnici come ostacoli significativi. Ma è qui che l’intelligenza artificiale interviene per colmare il divario. Diamo quindi un’occhiata ai cinque modi in cui l’intelligenza artificiale sta trasformando il modo in cui i creatori di contenuti registrano, modificano e pubblicano il loro lavoro. 1) Processo di produzione semplificato Gli strumenti basati sull’intelligenza artificiale stanno semplificando la creazione di contenuti dall’inizio alla fine, riducendo le richieste tecniche e accelerando le tempistiche di produzione. In passato, i team che si occupano di contenuti dovevano destreggiarsi tra più piattaforme per la registrazione e l’editing, con conseguenti inefficienze e problemi di collaborazione. Oggi le soluzioni di intelligenza artificiale offrono dashboard complete e facili da usare che consolidano tutti gli aspetti di un progetto in un unico luogo. Questi sistemi intelligenti possono automatizzare le attività ripetitive, come la generazione di intro o segmenti pubblicitari, semplicemente convertendo gli script scritti in parlato – un’automazione che non solo fa risparmiare tempo ma garantisce anche la coerenza tra i vari contenuti. 2) Qualità migliorata grazie all’editing automatico Mantenere standard elevati rispettando le scadenze è stata una sfida costante per i marketer. Questo potrebbe essere un ricordo del passato, dato che esistono una serie di funzioni di editing automatico guidate dall’intelligenza artificiale che eliminano le congetture dal processo. Queste funzioni possono suggerire e incorporare automaticamente miglioramenti quali: Riduzione del rumore per offrire un audio professionale di qualità da studio Livellamento automatico per normalizzare le tracce audio per migliorare l’esperienza dell’ascoltatore Sfocatura cinematografica per un effetto più fluido e cinematografico nei video Miglioramento video per trasformare i filmati sgranati in immagini nitide di qualità HD Nel complesso, ci sono una manciata di miglioramenti basati sull’intelligenza artificiale che non solo fanno risparmiare ore di tempo per l’editing, ma garantiscono anche un prodotto finale curato e professionale. 3. Creazione di contenuti a costi contenuti Con una tariffa media per l’editing di podcast che raggiungerà i 73 dollari l’ora nel 2023, l’esternalizzazione della produzione può essere costosa per molti team di marketing. È qui che il software di intelligenza artificiale emerge come un’opzione conveniente per coloro che si trovano ad affrontare vincoli di budget e limitazioni di risorse, in quanto la tecnologia consente agli addetti al marketing di creare contenuti di qualità professionale senza dover ricorrere ad attrezzature costose o a competenze esterne. Fornendo funzioni intuitive e funzionalità automatizzate, l’AI consente ai team interni di produrre contenuti audio e video di alta qualità con una formazione minima. Uno scenario da sogno: gli addetti al marketing beneficiano di una riduzione dei costi, ma anche di un maggiore controllo creativo e di tempi di realizzazione più rapidi. 4. Collaborazione scalabile Solo il 25% dei marketer afferma che le configurazioni ibride hanno reso più difficile la collaborazione. Fortunatamente, per questo gruppo di marketer, le piattaforme di creazione di contenuti AI come Podcastle consentono di collaborare in tempo reale ai progetti, di connettersi facilmente con gli ospiti per le interviste e di condividere facilmente lo schermo per la creazione di contenuti video. Inoltre, la versatilità dell’AI nel gestire diversi tipi di media rende più facile per i marketer ampliare la propria offerta di contenuti e scalare le proprie strategie. Da un’unica piattaforma, i team possono riproporre i contenuti per diversi canali di marketing, come i social media, senza ulteriori investimenti in nuove tecnologie o formazione. 5. Portata e accessibilità globali Grazie a funzioni innovative come la trascrizione automatica, la traduzione e la sintesi vocale, l’intelligenza artificiale sta abbattendo le barriere linguistiche e di accessibilità, consentendo agli operatori del marketing di raggiungere un pubblico diversificato e globale e aprendo nuove possibilità ai creatori di contenuti. Alcune caratteristiche chiave che consentono di ampliare il raggio d’azione sono: Trascrizione e traduzione automatizzate: L’intelligenza artificiale può trascrivere i contenuti audio in testo e tradurli in più lingue, consentendo ai contenuti di raggiungere un pubblico globale. Sottotitoli e didascalie chiuse: Sottotitoli e didascalie facili da implementare rendono i contenuti accessibili agli spettatori con problemi di udito e a coloro che preferiscono guardare i video senza audio. Sintesi vocale: Le voci generate dall’intelligenza artificiale in varie lingue e accenti consentono ai creatori di contenuti di produrre audio in più lingue senza dover ricorrere a madrelingua. Il futuro del marketing con l’intelligenza artificiale È chiaro che l’IA sta rivoluzionando la produzione di audio e video e l’ebook di Podcastle mostra ai marketer come cavalcare quest’onda. Abbracciando l’intelligenza artificiale, le aziende possono creare contenuti interessanti in modo più rapido e conveniente che mai. Sei interessato a ridurre significativamente i tempi e i costi di produzione dei tuoi contenuti? Puoi trovare e scaricare l’ebook gratuito di Podcastle, “AI-Powered Content: 5 Ways AI is Transforming Audio and Video Production“, qui e scopri come l’AI può semplificare il tuo flusso di lavoro mantenendo una produzione di alta qualità.   Leggi di più su digitalagencynetwork.com

OpenAI annuncia “SearchGPT” per cercare di rimanere in testa alla cosa per le AI

OpenAI annuncia "SearchGPT" per cercare di rimanere in testa alla cosa per le AI

OpenAI ha annunciato un prototipo del suo nuovo motore di ricerca alimentato dall’intelligenza artificiale, SearchGPT. SearchGPT mira a fornire “risposte veloci e tempestive con fonti chiare e pertinenti” per trasformare il modo in cui interagiamo con le informazioni online. Il CEO di OpenAI Sam Altman ha espresso fiducia nel nuovo prodotto, dichiarando su X: “Pensiamo che ci sia spazio per rendere la ricerca molto migliore di quella attuale” L’azienda prevede di integrare SearchGPT, attualmente in fase di test con un piccolo gruppo di utenti, nella sua ChatGPT. ChatGPT ha già un’integrazione con Bing, ma SearchGPT combinerà l’intelligenza artificiale generativa con l’indice di ricerca in tempo reale per un’esperienza di ricerca AI molto più complessa. Secondo leparole diOpenAI, SearchGPT promette agli utenti la possibilità di “effettuare ricerche in modo più naturale e intuitivo” e di porre domande di approfondimento “proprio come in una conversazione ” pensiamo che ci sia spazio per rendere la ricerca molto migliore di quella attuale. stiamo lanciando un nuovo prototipo chiamato SearchGPT: https://t.co/A28Y03X1So impareremo dal prototipo, lo miglioreremo e poi integreremo la tecnologia in ChatGPT per renderla in tempo reale e massimamente utile. – Sam Altman (@sama) 25 luglio 2024 Perplexity AI sta già effettuando ricerche di intelligenza artificiale, ma di recente è stata coinvolta in una controversia per aver effettuato lo scraping di dati da siti web senza il loro permesso. Un altro punto interessante è che circa il 15% dei principali siti web blocca già i web crawler di OpenAI, e il pool di informazioni disponibili per i browser AI potrebbe essere limitato, incidendo potenzialmente sulla qualità dei risultati di ricerca generati dall’AI. Quindi, SearchGPT non ha la garanzia di accedere ai siti di cui ha bisogno per fornire informazioni di alta qualità. Sarà interessante vedere come OpenAI intende aggirare questo problema. Sappiamo che l’azienda sta lavorando duramente per assicurarsi partnership con le aziende giornalistiche, che aiuteranno l’AI a cercare informazioni aggiornate senza infrangere le regole come ha fatto Perplexity. Robert Thomson, CEO di News Corp, ha detto in modo piuttosto poetico su questo argomento: “Sam e il team di OpenAI, davvero talentuoso, capiscono innanzitutto che, per essere efficace, la ricerca alimentata dall’intelligenza artificiale deve basarsi su informazioni di altissima qualità e affidabilità fornite da fonti fidate. Affinché il cielo sia in equilibrio, il rapporto tra tecnologia e contenuti deve essere simbiotico e la provenienza deve essere protetta” Google subisce un colpo Anche nella sua forma prototipale, SearchGPT ha avuto un impatto su Google: le azioni di Alphabet sono scese di oltre il 3% giovedì per chiudere a 167,28 dollari, mentre l’indice Nasdaq più ampio è sceso di meno dell’1%. L’annuncio segue le incursioni di Google nella ricerca potenziata dall’intelligenza artificiale. A maggio, Google ha lanciato AI Overview, che il CEO Sundar Pichai ha definito l’aggiunta più importante alla ricerca nei 25 anni di storia dell’azienda. Tuttavia, SGE è stata presto oggetto di critiche dopo che gli utenti hanno notato che le query a volte restituivano risultati insensati o imprecisi all’interno della funzione di intelligenza artificiale, senza la possibilità di escluderla. OpenAI cerca di rimanere al centro dell’attenzione L’annuncio di SearchGPT fa parte di una spinta più ampia da parte di OpenAI per rimanere all’avanguardia nel mercato dell’IA generativa. La scorsa settimana, l’azienda ha lanciato un nuovo modello di IA chiamato “GPT-4o mini“, una derivazione del suo modello più veloce e più potente fino ad oggi, GPT-4o. Nell’ambito della sua strategia di rafforzamento della posizione, OpenAI ha recentemente annunciato l’assunzione di due dirigenti di alto livello: Sarah Friar, in precedenza CEO di Nextdoor e responsabile finanziario di Square, è entrata a far parte dell’azienda in qualità di Chief Financial Officer, mentre Kevin Weil, ex Planet Labs, Twitter, Facebook e Instagram, è entrato a far parte dell’azienda in qualità di Chief Product Officer. La concorrenza nel mercato dell’IA generativa è senza dubbio molto più intensa rispetto a quando ChatGPT ha cambiato il settore alla fine del 2022. Mentre ChatGPT è ancora lo strumento di chatbot più utilizzato, i progressi della brigata open-source di Meta (che ha recentemente rilasciato Llama 3.1, il modello di pesi aperto più grande al mondo), Mistral e molti altri, stanno rendendo più difficile estrarre denaro dai progetti closed-source. SearchGPT è l’ultimo tiro di dadi di OpenAI per rimanere al passo con i tempi. Dopo i ritardi nel rilascio delle tanto pubblicizzate funzioni di sintesi vocale di GPT-4o, tuttavia, la domanda che molti si pongono riguardo a SearchGPT è: quando uscirà davvero? Leggi di più su dailyai.com

L’intelligenza artificiale di Google prevede il tempo utilizzando una frazione della potenza di calcolo

L'intelligenza artificiale di Google prevede il tempo utilizzando una frazione della potenza di calcolo

Google ha presentato NeuralGCM, un modello ibrido di previsione meteorologica che combina l’apprendimento automatico con le tecniche di previsione tradizionali e che presenta vantaggi sorprendenti. Le previsioni meteorologiche hanno registrato notevoli miglioramenti nell’accuratezza delle previsioni, ma le tecniche tradizionali richiedono grandi risorse di calcolo per eseguire algoritmi sempre più complessi. I modelli di circolazione generale (GCM) sono alla base delle previsioni climatiche e meteorologiche che ti permettono di sapere se domani avrai bisogno di un ombrello. I GCM sono simulatori fisici che utilizzano equazioni matematiche basate sulle leggi della fisica per simulare come l’aria, l’acqua e l’energia si muovono sul pianeta. I tipici GCM dividono la superficie terrestre in una griglia di celle fino a 100 chilometri, come una gigantesca scacchiera. L’algoritmo elabora ogni casella con un approccio graduale per prevedere il probabile cambiamento delle condizioni atmosferiche. Le equazioni alla base dei GCM sono incredibilmente complesse e impegnano alcuni dei più grandi supercomputer del mondo. I modelli di apprendimento automatico (ML) per la previsione del tempo hanno mostrato un notevole potenziale, ma sono principalmente basati sui dati. Un modello di previsione meteorologica ML ha un’ottima idea dei dati meteorologici storici, ma non ha la comprensione intrinseca delle leggi fisiche che governano l’atmosfera e che sono modellate in un GCM. I modelli ML sono veloci e possono fornire previsioni accurate a breve termine, ma spesso hanno difficoltà con la stabilità a lungo termine e con i rari eventi meteorologici estremi o gli scenari climatici futuri. NeuralGCM, sviluppato da un team di Google Research, combina l’accuratezza e le capacità di previsione a lungo termine dei GCM tradizionali con la migliore risoluzione, efficienza e velocità dei modelli ML. NeuralGCM è disponibile gratuitamente e non vediamo l’ora di vedere come gli scienziati lo svilupperanno. Per maggiori dettagli, consulta il mio post sul blog che descrive il lavoro e il nostro codice open source:https://t.co/AfqLagoYDshttps://t.co/MSlFg6pgfj – Stephan Hoyer (@shoyer) 22 luglio 2024 Il documento afferma che l’accuratezza di NeuralGCM è paragonabile o superiore a quella degli attuali modelli GCM all’avanguardia. Il documento afferma che NeuralGCM è “il primo modello basato sull’apprendimento automatico a fare previsioni meteorologiche d’insieme accurate, con un CRPS migliore rispetto ai modelli basati sulla fisica più avanzati”. Il CRPS è un punteggio che confronta le previsioni del tempo con il tempo effettivo che si verifica. I ricercatori affermano che “NeuralGCM è competitivo con i modelli ad apprendimento automatico per le previsioni da uno a dieci giorni e con l’ensemble di previsioni dell’European Centre for Medium-Range Weather Forecasts per le previsioni da uno a quindici giorni” Sebbene NeuralGCM ottenga risultati di previsione paragonabili a quelli dei GCM, è di ordini di grandezza meno intensivo dal punto di vista computazionale e molto meno complesso. Ildocumento non dice quanto sia grande NeuralGCM, ma propone il modello di previsione meteorologica ML GraphCast di Google come termine di paragone. GraphCast è composto da circa 5.417 righe, mentre il modello atmosferico FV3 della National Oceanic and Atmospheric Administration (NOAA) ha circa 376.578 righe di codice. I ricercatori affermano che NeuralGCM consente “un risparmio di risorse computazionali da 3 a 5 ordini di grandezza” Per contestualizzare questo dato, il documento spiega che “NeuralGCM-1.4° simula 70.000 giorni di simulazione in 24 ore utilizzando una singola unità di elaborazione tensoriale rispetto a 19 giorni di simulazione su 13.824 core di unità di elaborazione centrale con X-SHiELD”, che è un modello di previsione meteorologica ad alta risoluzione. I ricercatori affermano che i risultati dimostrano che il loro modello ha notevoli capacità di modellazione del clima. Nel documento si legge che “i modelli NeuralGCM addestrati su previsioni di 72 ore sono in grado di effettuare simulazioni realistiche su più anni” Combinare l’apprendimento automatico con i modelli fisici tradizionali, come ha fatto Google con le previsioni del tempo, “ha il potenziale di trasformare la simulazione per una vasta gamma di applicazioni, come la scoperta dei materiali, il ripiegamento delle proteine e la progettazione ingegneristica multifisica” L’IA affamata di risorse ha visto i centri di elaborazione dati essere oggetto di numerose critiche per le loro emissioni di carbonio e il potenziale impatto sul clima. NeuralGCM è un buon esempio di come l’IA potrebbe avere un impatto positivo sull’ambiente sostituendo, o aumentando, i processi tradizionali inefficienti per ridurre il consumo di energia informatica. Leggi di più su dailyai.com

Mistral Large 2: il Davide contro il Golia delle Big Tech

Mistral Large 2: il Davide contro il Golia delle Big Tech

L’ultimo modello di Mistral AI, il Mistral Large 2 (ML2), sembra competere con i modelli di grandi dimensioni di leader del settore come OpenAI, Meta e Anthropic, pur essendo una frazione delle loro dimensioni. Il tempismo di questo rilascio è degno di nota: arriva nella stessa settimana in cui Meta lancia il suo colossale modello Llama 3.1 da 405 miliardi di parametri. Sia ML2 che Llama 3 vantano capacità impressionanti, tra cui una finestra di contesto da 128.000 token per una maggiore “memoria” e il supporto di più lingue. Mistral AI si è da tempo differenziata per la sua attenzione alla diversità linguistica e ML2 continua questa tradizione. Il modello supporta “decine” di lingue e più di 80 linguaggi di codifica, rendendolo uno strumento versatile per gli sviluppatori e le aziende di tutto il mondo. Secondo i benchmark di Mistral, ML2 si comporta in modo competitivo rispetto a modelli di alto livello come GPT-4o di OpenAI, Claude 3.5 Sonnet di Anthropic e Llama 3.1 405B di Meta in vari test di linguaggio, codifica e matematica. Nel benchmark Massive Multitask Language Understanding (MMLU), ampiamente riconosciuto, ML2 ha ottenuto un punteggio dell’84%. Sebbene sia leggermente indietro rispetto ai suoi concorrenti (GPT-4o con l’88,7%, Claude 3.5 Sonnet con l’88,3% e Llama 3.1 405B con l’88,6%), vale la pena notare che si stima che gli esperti di dominio umani ottengano circa l’89,8% in questo test. Efficienza: Un vantaggio fondamentale Ciò che distingue ML2 è la sua capacità di ottenere prestazioni elevate con un numero di risorse significativamente inferiore rispetto ai suoi rivali. Con 123 miliardi di parametri, ML2 è meno di un terzo delle dimensioni del modello più grande di Meta e circa un quattordicesimo delle dimensioni di GPT-4. Questa efficienza ha importanti implicazioni per la distribuzione e le applicazioni commerciali. Con la massima precisione a 16 bit, ML2 richiede circa 246 GB di memoria. Sebbene sia ancora troppo grande per una singola GPU, può essere facilmente implementato su un server con quattro o otto GPU senza ricorrere alla quantizzazione – un’impresa non necessariamente realizzabile con modelli più grandi come GPT-4 o Llama 3.1 405B. Mistral sottolinea che l’ingombro ridotto di ML2 si traduce in un throughput più elevato, poiché le prestazioni di LLM sono in gran parte dettate dalla larghezza di banda della memoria. In termini pratici, ciò significa che ML2 può generare risposte più velocemente rispetto a modelli più grandi sullo stesso hardware. Affrontare le sfide principali Mistral ha dato priorità alla lotta contro le allucinazioni, un problema comune in cui i modelli di intelligenza artificiale generano informazioni convincenti ma imprecise. L’azienda sostiene che ML2 è stato perfezionato per essere più “cauto e perspicace” nelle sue risposte e per riconoscere meglio quando non ha informazioni sufficienti per rispondere a una domanda. Inoltre, ML2 è stato progettato per eccellere nel seguire istruzioni complesse, soprattutto nelle conversazioni più lunghe. Questo miglioramento delle capacità di seguire i messaggi potrebbe rendere il modello più versatile e facile da usare in diverse applicazioni. Per venire incontro alle esigenze pratiche delle aziende, Mistral ha ottimizzato ML2 in modo da generare risposte concise, ove opportuno. Sebbene i risultati verbosi possano portare a punteggi di benchmark più elevati, spesso comportano un aumento dei tempi di calcolo e dei costi operativi: una considerazione che potrebbe rendere ML2 più interessante per l’uso commerciale. Rispetto al precedente Mistral Large, sono stati dedicati molti più sforzi alle funzionalità di allineamento e di istruzione. Su WildBench, ArenaHard e MT Bench, le prestazioni sono pari a quelle dei modelli migliori, pur essendo significativamente meno verbose. (4/N) pic.twitter.com/fvPOqfLZSq- Guillaume Lample @ ICLR 2024 (@GuillaumeLample) 24 luglio 2024 Licenze e disponibilità Sebbene ML2 sia disponibile gratuitamente su repository popolari come Hugging Face, i suoi termini di licenza sono più restrittivi rispetto ad alcune delle offerte precedenti di Mistral. A differenza della licenza open-source Apache 2 utilizzata per il modello Mistral-NeMo-12B, ML2 è rilasciato sotto la Mistral Research License. Questa licenza consente un uso non commerciale e di ricerca, ma richiede una licenza commerciale separata per le applicazioni aziendali. Mentre la corsa all’intelligenza artificiale si fa sempre più accesa, ML2 di Mistral rappresenta un significativo passo avanti nel bilanciamento tra potenza, efficienza e praticità. Resta da vedere se potrà davvero sfidare il dominio dei giganti tecnologici, ma il suo rilascio è sicuramente un’aggiunta entusiasmante al campo dei modelli linguistici di grandi dimensioni. Leggi di più su www.artificialintelligence-news.com

Meta fa avanzare l’intelligenza artificiale open source con Llama 3.1, un modello “frontier level”

Meta fa avanzare l'intelligenza artificiale open source con Llama 3.1, un modello "frontier level"

  Meta ha presentato Llama 3.1, segnando una tappa significativa nell’impegno dell’azienda verso l’IA open source. Questa versione, che il CEO di Meta Mark Zuckerberg definisce “il primo modello di AI open source di frontiera”, mira a sfidare il dominio dei sistemi di AI chiusi e a democratizzare l’accesso alla tecnologia AI avanzata. La release Llama 3.1 include tre modelli: 405B, 70B e 8B. Zuckerberg afferma che il modello 405B è in grado di competere con i modelli chiusi più avanzati, offrendo al contempo una migliore efficienza in termini di costi. Da oggi, l’open source è in prima linea. Ecco Llama 3.1: I nostri modelli più performanti. Oggi rilasciamo una collezione di nuovi modelli Llama 3.1, tra cui il tanto atteso 405B. Questi modelli offrono migliori capacità di ragionamento, un contesto più ampio di 128K token… pic.twitter.com/1iKpBJuReD – AI at Meta (@AIatMeta) 23 luglio 2024 “A partire dal prossimo anno, ci aspettiamo che i futuri modelli di Llama diventino i più avanzati del settore”, prevede Zuckerberg. Zuckerberg fa un parallelo tra l’evoluzione dell’IA e il passaggio storico dai sistemi Unix chiusi a Linux open source. Sostiene che l’IA open source seguirà una traiettoria simile, diventando alla fine lo standard del settore grazie alla sua adattabilità, all’economicità e all’ampio supporto dell’ecosistema. Puoi iniziare a costruire con Llama 3.1 fin da ora. Stai pensando a quale provider scegliere? Ecco una panoramica di tutti i prezzi attuali a partire da oggi pomeriggio. Stiamo aggiornando il tutto con una matrice delle funzionalità disponibili e una guida rapida: https://t.co/lGNIfLUR0T pic.twitter.com/blIIMvWUZO – Ahmad Al-Dahle (@Ahmad_Al_Dahle) 23 luglio 2024 Zuckerberg sottolinea diversi vantaggi chiave dell’IA open source: Personalizzazione: Le organizzazioni possono addestrare e mettere a punto i modelli con i loro dati specifici. Indipendenza: Evita il lock-in a fornitori chiusi o a specifici fornitori di cloud. Sicurezza dei dati: Consente l’implementazione di modelli locali, migliorando la protezione dei dati. Efficienza dei costi: Llama 3.1 405B può essere eseguito a circa la metà del costo dei modelli chiusi come GPT-4. Crescita dell’ecosistema: Incoraggia l’innovazione e la collaborazione nel settore. Per quanto riguarda i problemi di sicurezza, Zuckerberg sostiene che l’IA open source è intrinsecamente più sicura grazie alla maggiore trasparenza e al controllo. Afferma: “L’open source dovrebbe essere significativamente più sicuro perché i sistemi sono più trasparenti e possono essere ampiamente controllati” Per sostenere l’ecosistema dell’IA open source, Meta sta collaborando con importanti aziende tecnologiche come Amazon, Databricks e NVIDIA per fornire servizi di sviluppo. I modelli saranno disponibili sulle principali piattaforme cloud e aziende come Scale.AI, Dell e Deloitte sono pronte a fornire assistenza per l’adozione da parte delle aziende. 🦙 I nuovi modelli @AIatMeta Llama 3.1 più le nostre nuove NIM NVIDIA NeMo Retriever creano un potente duo di #generativeai 🙌 ➡️ Approfondimento tecnico su come costruire una pipeline RAG agenziale con i nuovi microservizi NeMo Retriever embedding e reraking NIM. https://t.co/OjQN8rcHi0 ✨ – NVIDIA AI Developer (@NVIDIAAIDev) 23 luglio 2024 “L’open source garantirà che un maggior numero di persone in tutto il mondo abbia accesso ai benefici e alle opportunità dell’IA, che il potere non sia concentrato nelle mani di un numero ristretto di aziende e che la tecnologia possa essere distribuita in modo più uniforme e sicuro in tutta la società”, afferma Zuckerberg. Il CEO considera questo rilascio come un punto di svolta, prevedendo che la maggior parte degli sviluppatori si orienterà verso l’utilizzo di modelli di IA open source. Invita la comunità tecnologica a unirsi a Meta in “questo viaggio per portare i benefici dell’IA a tutti nel mondo” I modelli Llama 3.1 sono ora accessibili all’indirizzo llama.meta.com. (Foto di Dima Solomin) Vedi anche: Meta si unisce ad Apple nel rifiutare i modelli di intelligenza artificiale agli utenti dell’UE Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: ai, intelligenza artificiale, sviluppo, llama, llama 3.1, mark zuckerberg, meta, open source Leggi di più su www.artificialintelligence-news.com