Da Anthropic a Google: Chi sta vincendo contro le allucinazioni dell’AI?

Galileo, azienda leader nello sviluppo di IA generativa per applicazioni aziendali, ha pubblicato il suo ultimo Hallucination Index. Il quadro di valutazione – che si concentra sulla Retrieval Augmented Generation (RAG) – ha valutato 22 LLM Gen AI di spicco di attori importanti come OpenAI, Anthropic, Google e Meta. L’indice di quest’anno si è ampliato in modo significativo, con l’aggiunta di 11 nuovi modelli che riflettono la rapida crescita dei LLM open-source e closed-source negli ultimi otto mesi. Vikram Chatterji, CEO e co-fondatore di Galileo, ha dichiarato: “Nell’attuale panorama dell’IA in rapida evoluzione, gli sviluppatori e le aziende si trovano di fronte a una sfida cruciale: come sfruttare la potenza dell’IA generativa bilanciando costi, precisione e affidabilità”. Gli attuali benchmark sono spesso basati su casi d’uso accademici, piuttosto che su applicazioni reali”. L’indice ha utilizzato la metrica di valutazione proprietaria di Galileo, l’aderenza al contesto, per verificare le imprecisioni di output su diverse lunghezze di input, da 1.000 a 100.000 token. Questo approccio mira ad aiutare le aziende a prendere decisioni informate sul bilanciamento tra prezzo e prestazioni nelle loro implementazioni di IA. I risultati principali dell’indice includono: Claude 3.5 Sonnetdi Anthropic è risultato il modello con le migliori prestazioni complessive, ottenendo un punteggio quasi perfetto negli scenari di breve, medio e lungo periodo. Gemini 1.5 Flashdi Google si è classificato come il modello più performante in termini di economicità, offrendo ottime prestazioni in tutti i compiti. Qwen2-72B-Instruct di Alibaba si è distinto come il miglior modello open-source, eccellendo in particolare negli scenari di breve e medio contesto. L’indice ha inoltre evidenziato diverse tendenze nel panorama degli LLM: Imodelli open-source stanno rapidamente colmando il divario con le loro controparti closed-source, offrendo migliori prestazioni di allucinazione a costi inferiori. Gli attuali LLM RAG dimostrano miglioramenti significativi nella gestione di contesti di lunghezza elevata senza sacrificare la qualità o l’accuratezza. Imodelli più piccoli a volte superano quelli più grandi, suggerendo che una progettazione efficiente può essere più importante della scala. L’emergere di modelli di grande successo al di fuori degli Stati Uniti, come Mistral-large di Mistral e qwen2-72b-instruct di Alibaba, indica una crescente competizione globale nello sviluppo di LLM. Mentre i modelli closed-source come Claude 3.5 Sonnet e Gemini 1.5 Flash mantengono il loro vantaggio grazie ai dati di formazione proprietari, l’indice rivela che il panorama si sta evolvendo rapidamente. La performance di Google è stata particolarmente degna di nota: il suo modello open-source Gemma-7b ha ottenuto scarsi risultati, mentre il suo Gemini 1.5 Flash, closed-source, si è sempre posizionato vicino ai primi posti. Poiché l’industria dell’IA continua a confrontarsi con le allucinazioni, che rappresentano un ostacolo importante per i prodotti di IA Gen pronti per la produzione, l’Hallucination Index di Galileo fornisce indicazioni preziose per le aziende che cercano di adottare il modello giusto per le loro esigenze specifiche e i loro vincoli di budget. Vedi anche: I senatori interrogano OpenAI su sicurezza e pratiche di lavoro Vuoi saperne di più sull’AI e sui Big Data dai leader del settore? Scopri l’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi e i webinar sulla tecnologia aziendale organizzati da TechForge qui. The post Da Anthropic a Google: Chi sta vincendo contro le allucinazioni dell’AI? appeared first on AI News. Leggi di più su www.artificialintelligence-news.com
Le 5 migliori directory di strumenti di IA: Scoprire e presentare le innovazioni dell’IA

Ehilà, appassionati di intelligenza artificiale! Se sei come me, sei sempre alla ricerca delle migliori risorse per scoprire le ultime novità in fatto di intelligenza artificiale. Che tu sia uno sviluppatore desideroso di mostrare il tuo strumento all’avanguardia o semplicemente affascinato dai rapidi progressi dell’IA, sapere dove trovare e promuovere questi strumenti è fondamentale. Ecco perché ho messo insieme questa guida con le cinque migliori directory di strumenti per l’IA che devi assolutamente visitare. Queste piattaforme non sono semplici elenchi: sono comunità vivaci e scrigni di informazioni che possono aiutarti a navigare nel mondo in continua evoluzione dell’IA. Quindi, prendi una tazza di caffè, mettiti comodo e tuffati in queste fantastiche risorse che renderanno il tuo viaggio nell’IA molto più facile ed emozionante! Come ho scelto questi elenchi di strumenti per l’IA Quando si tratta di trovare i migliori elenchi, ho adottato un approccio multiforme. Ho setacciato il web alla ricerca di elenchi non solo popolari, ma anche molto rispettati dalla comunità tecnologica. Ho cercato piattaforme che offrissero un mix di recensioni degli utenti, coinvolgimento della comunità e facilità d’uso. Dopo un’accurata ricerca, ho ristretto il campo a queste cinque opzioni stellari. Ognuno di questi elenchi ha i suoi punti di forza e le sue caratteristiche, che li rendono risorse preziose per chiunque sia coinvolto nello spazio dell’intelligenza artificiale. Quindi, senza ulteriori indugi, esploriamo queste fantastiche piattaforme. I cinque migliori elenchi di strumenti per l’IA 1. AI Parabellum AI Parabellum è una fantastica risorsa dedicata esclusivamente agli strumenti di IA. È come un tesoro per chiunque sia interessato all’intelligenza artificiale. La piattaforma è facile da usare e ti permette di esplorare, inviare e promuovere strumenti di AI senza alcuno sforzo. Caratteristiche principali: Focus sull’intelligenza artificiale: garantisce che gli strumenti elencati siano rilevanti e all’avanguardia. Design user-friendly: Facile da navigare e trovare esattamente quello che stai cercando. Raccomandazioni degli esperti: Elenchi di strumenti di IA selezionati da esperti del settore. Filtri dettagliati: Restringi la ricerca per categorie, caratteristiche, prezzi e altro ancora. Ricerca potenziata dall’intelligenza artificiale: Utilizza algoritmi di apprendimento automatico per fornire i risultati più pertinenti. Se stai cercando strumenti di analisi basati sull’intelligenza artificiale, framework di apprendimento automatico o strumenti di elaborazione del linguaggio naturale, AI Parabellum ti copre. Questo rende AI Parabellum non solo una directory, ma anche una vivace comunità di appassionati e professionisti dell’AI. 2. SaaSHub SaaSHub è un’altra eccellente piattaforma che funge da directory per alternative software, acceleratori e startup. Pur coprendo un’ampia gamma di categorie di software, la sua sezione dedicata agli strumenti di intelligenza artificiale è particolarmente solida. Caratteristiche principali: Ampia gamma di categorie di software: Copre un ampio spettro, compresi gli strumenti di intelligenza artificiale. Coinvolgimento della comunità: Discussioni e recensioni approfondite per aiutarti a valutare l’efficacia e la popolarità dei diversi strumenti di IA. Interfaccia facile da usare: Funzionalità di ricerca completa per trovare esattamente ciò che stai cercando. L’attenzione di SaaSHub per le alternative significa che spesso mette in evidenza strumenti innovativi e meno conosciuti, dando loro la possibilità di brillare. 3. G2 G2 è una delle piattaforme di recensioni software più complete in circolazione. Copre un’ampia gamma di categorie di software, compresi gli strumenti di intelligenza artificiale. Caratteristiche principali: Recensioni approfondite degli utenti: Confronto dettagliato dei prodotti e feedback degli utenti. Analisi robuste: Ti aiuta a capire come si comporta il tuo strumento sul mercato. Comunità altamente coinvolta: Fornisce recensioni e valutazioni dettagliate per aiutarti a prendere decisioni informate. L’attenzione di G2 alla trasparenza e al feedback degli utenti lo rende una risorsa affidabile per chiunque voglia scoprire o presentare strumenti di IA. 4. AlternativeTo AlternativeTo è una piattaforma unica nel suo genere che si concentra sulla fornitura di alternative ai software più diffusi. È una risorsa eccellente per scoprire nuovi strumenti di intelligenza artificiale che potresti non trovare altrove. Caratteristiche principali: Focus sulle alternative: Assicura che gli strumenti innovativi e meno conosciuti abbiano il loro tempo sotto i riflettori. Piattaforma basata sulla comunità: Gli utenti possono proporre strumenti e lasciare recensioni. Interfaccia facile da usare: Funzionalità di ricerca completa per trovare esattamente ciò che stai cercando. Se il tuo strumento di intelligenza artificiale offre un tocco unico o rappresenta un’alternativa migliore a uno strumento esistente, AlternativeTo è il posto giusto. 5. Product Hunt Product Hunt è uno dei siti preferiti dagli appassionati di tecnologia per scoprire le ultime novità in fatto di prodotti tecnologici, compresi gli strumenti di intelligenza artificiale. Caratteristiche principali: Voti della comunità: Più voti vengono assegnati al tuo strumento, più questo compare nell’elenco, aumentando la sua visibilità. Feedback immediato: Particolarmente utile per il lancio di nuovi strumenti di intelligenza artificiale e per ottenere un feedback immediato da un pubblico esperto di tecnologia. Comunità altamente coinvolta: Fornisce recensioni e valutazioni dettagliate per aiutare a prendere decisioni informate. L’attenzione di Product Hunt all’innovazione e al coinvolgimento della comunità lo rende una risorsa affidabile per chiunque voglia scoprire o presentare strumenti di IA. Conclusioni Bene, gente, abbiamo visitato alcuni dei migliori elenchi di strumenti per l’intelligenza artificiale e spero che siate entusiasti quanto me delle possibilità che offrono. Queste piattaforme sono molto più che semplici elenchi: sono porte d’accesso all’innovazione, alla collaborazione e alla crescita nel settore dell’IA. Se stai cercando di scoprire nuovi strumenti, di ricevere consigli da esperti o di entrare in contatto con una comunità di persone che la pensano allo stesso modo, questi elenchi ti coprono. Ricorda, il mondo dell’IA è in continua evoluzione e rimanere aggiornati sugli ultimi strumenti e tecnologie è fondamentale per rimanere al passo con i tempi. Quindi, approfitta di queste risorse, immergiti nelle discussioni della comunità, esplora gli elenchi curati e non esitare a provare nuovi strumenti che potrebbero rivoluzionare il tuo lavoro o i tuoi progetti. Leggi di più su www.artificialintelligence-news.com
Trasformare la produzione audio e video per i professionisti del marketing

Con le tendenze dei consumatori in continua evoluzione, insieme all’avvento della tecnologia AI, il marketing digitale è stato sull’orlo di una trasformazione storica, con nuove tecnologie che hanno rimodellato il modo in cui creiamo e consumiamo i contenuti. Questi cambiamenti nel settore sono proprio il motivo per cui Podcastle, una piattaforma leader nella creazione di contenuti basati sull’AI, ha recentemente pubblicato un eBook che esplora il modo in cui l’AI può trasformare la produzione di audio e video in modo approfondito, offrendo preziosi spunti sul futuro della creazione di contenuti per i team di marketing. Analizziamo alcuni punti salienti del loro ebook e scopriamo come queste innovazioni sono destinate a cambiare le strategie di marketing nel prossimo anno. L’ascesa dell’intelligenza artificiale nella creazione di contenuti Con quasi il 90% dei responsabili marketing che prevede di aumentare i contenuti audio e il 70% che considera il video lo strumento di conversione più efficace, è chiaro che questi formati stanno dominando la sfera del content marketing. Tuttavia, meno del 20% degli esperti di marketing ritiene di avere le risorse necessarie per creare contenuti audio/video di alta qualità. Perché? Molti citano i vincoli di tempo, la larghezza di banda limitata e gli ostacoli tecnici come ostacoli significativi. Ma è qui che l’intelligenza artificiale interviene per colmare il divario. Diamo quindi un’occhiata ai cinque modi in cui l’intelligenza artificiale sta trasformando il modo in cui i creatori di contenuti registrano, modificano e pubblicano il loro lavoro. 1) Processo di produzione semplificato Gli strumenti basati sull’intelligenza artificiale stanno semplificando la creazione di contenuti dall’inizio alla fine, riducendo le richieste tecniche e accelerando le tempistiche di produzione. In passato, i team che si occupano di contenuti dovevano destreggiarsi tra più piattaforme per la registrazione e l’editing, con conseguenti inefficienze e problemi di collaborazione. Oggi le soluzioni di intelligenza artificiale offrono dashboard complete e facili da usare che consolidano tutti gli aspetti di un progetto in un unico luogo. Questi sistemi intelligenti possono automatizzare le attività ripetitive, come la generazione di intro o segmenti pubblicitari, semplicemente convertendo gli script scritti in parlato – un’automazione che non solo fa risparmiare tempo ma garantisce anche la coerenza tra i vari contenuti. 2) Qualità migliorata grazie all’editing automatico Mantenere standard elevati rispettando le scadenze è stata una sfida costante per i marketer. Questo potrebbe essere un ricordo del passato, dato che esistono una serie di funzioni di editing automatico guidate dall’intelligenza artificiale che eliminano le congetture dal processo. Queste funzioni possono suggerire e incorporare automaticamente miglioramenti quali: Riduzione del rumore per offrire un audio professionale di qualità da studio Livellamento automatico per normalizzare le tracce audio per migliorare l’esperienza dell’ascoltatore Sfocatura cinematografica per un effetto più fluido e cinematografico nei video Miglioramento video per trasformare i filmati sgranati in immagini nitide di qualità HD Nel complesso, ci sono una manciata di miglioramenti basati sull’intelligenza artificiale che non solo fanno risparmiare ore di tempo per l’editing, ma garantiscono anche un prodotto finale curato e professionale. 3. Creazione di contenuti a costi contenuti Con una tariffa media per l’editing di podcast che raggiungerà i 73 dollari l’ora nel 2023, l’esternalizzazione della produzione può essere costosa per molti team di marketing. È qui che il software di intelligenza artificiale emerge come un’opzione conveniente per coloro che si trovano ad affrontare vincoli di budget e limitazioni di risorse, in quanto la tecnologia consente agli addetti al marketing di creare contenuti di qualità professionale senza dover ricorrere ad attrezzature costose o a competenze esterne. Fornendo funzioni intuitive e funzionalità automatizzate, l’AI consente ai team interni di produrre contenuti audio e video di alta qualità con una formazione minima. Uno scenario da sogno: gli addetti al marketing beneficiano di una riduzione dei costi, ma anche di un maggiore controllo creativo e di tempi di realizzazione più rapidi. 4. Collaborazione scalabile Solo il 25% dei marketer afferma che le configurazioni ibride hanno reso più difficile la collaborazione. Fortunatamente, per questo gruppo di marketer, le piattaforme di creazione di contenuti AI come Podcastle consentono di collaborare in tempo reale ai progetti, di connettersi facilmente con gli ospiti per le interviste e di condividere facilmente lo schermo per la creazione di contenuti video. Inoltre, la versatilità dell’AI nel gestire diversi tipi di media rende più facile per i marketer ampliare la propria offerta di contenuti e scalare le proprie strategie. Da un’unica piattaforma, i team possono riproporre i contenuti per diversi canali di marketing, come i social media, senza ulteriori investimenti in nuove tecnologie o formazione. 5. Portata e accessibilità globali Grazie a funzioni innovative come la trascrizione automatica, la traduzione e la sintesi vocale, l’intelligenza artificiale sta abbattendo le barriere linguistiche e di accessibilità, consentendo agli operatori del marketing di raggiungere un pubblico diversificato e globale e aprendo nuove possibilità ai creatori di contenuti. Alcune caratteristiche chiave che consentono di ampliare il raggio d’azione sono: Trascrizione e traduzione automatizzate: L’intelligenza artificiale può trascrivere i contenuti audio in testo e tradurli in più lingue, consentendo ai contenuti di raggiungere un pubblico globale. Sottotitoli e didascalie chiuse: Sottotitoli e didascalie facili da implementare rendono i contenuti accessibili agli spettatori con problemi di udito e a coloro che preferiscono guardare i video senza audio. Sintesi vocale: Le voci generate dall’intelligenza artificiale in varie lingue e accenti consentono ai creatori di contenuti di produrre audio in più lingue senza dover ricorrere a madrelingua. Il futuro del marketing con l’intelligenza artificiale È chiaro che l’IA sta rivoluzionando la produzione di audio e video e l’ebook di Podcastle mostra ai marketer come cavalcare quest’onda. Abbracciando l’intelligenza artificiale, le aziende possono creare contenuti interessanti in modo più rapido e conveniente che mai. Sei interessato a ridurre significativamente i tempi e i costi di produzione dei tuoi contenuti? Puoi trovare e scaricare l’ebook gratuito di Podcastle, “AI-Powered Content: 5 Ways AI is Transforming Audio and Video Production“, qui e scopri come l’AI può semplificare il tuo flusso di lavoro mantenendo una produzione di alta qualità. Leggi di più su digitalagencynetwork.com
OpenAI annuncia “SearchGPT” per cercare di rimanere in testa alla cosa per le AI

OpenAI ha annunciato un prototipo del suo nuovo motore di ricerca alimentato dall’intelligenza artificiale, SearchGPT. SearchGPT mira a fornire “risposte veloci e tempestive con fonti chiare e pertinenti” per trasformare il modo in cui interagiamo con le informazioni online. Il CEO di OpenAI Sam Altman ha espresso fiducia nel nuovo prodotto, dichiarando su X: “Pensiamo che ci sia spazio per rendere la ricerca molto migliore di quella attuale” L’azienda prevede di integrare SearchGPT, attualmente in fase di test con un piccolo gruppo di utenti, nella sua ChatGPT. ChatGPT ha già un’integrazione con Bing, ma SearchGPT combinerà l’intelligenza artificiale generativa con l’indice di ricerca in tempo reale per un’esperienza di ricerca AI molto più complessa. Secondo leparole diOpenAI, SearchGPT promette agli utenti la possibilità di “effettuare ricerche in modo più naturale e intuitivo” e di porre domande di approfondimento “proprio come in una conversazione ” pensiamo che ci sia spazio per rendere la ricerca molto migliore di quella attuale. stiamo lanciando un nuovo prototipo chiamato SearchGPT: https://t.co/A28Y03X1So impareremo dal prototipo, lo miglioreremo e poi integreremo la tecnologia in ChatGPT per renderla in tempo reale e massimamente utile. – Sam Altman (@sama) 25 luglio 2024 Perplexity AI sta già effettuando ricerche di intelligenza artificiale, ma di recente è stata coinvolta in una controversia per aver effettuato lo scraping di dati da siti web senza il loro permesso. Un altro punto interessante è che circa il 15% dei principali siti web blocca già i web crawler di OpenAI, e il pool di informazioni disponibili per i browser AI potrebbe essere limitato, incidendo potenzialmente sulla qualità dei risultati di ricerca generati dall’AI. Quindi, SearchGPT non ha la garanzia di accedere ai siti di cui ha bisogno per fornire informazioni di alta qualità. Sarà interessante vedere come OpenAI intende aggirare questo problema. Sappiamo che l’azienda sta lavorando duramente per assicurarsi partnership con le aziende giornalistiche, che aiuteranno l’AI a cercare informazioni aggiornate senza infrangere le regole come ha fatto Perplexity. Robert Thomson, CEO di News Corp, ha detto in modo piuttosto poetico su questo argomento: “Sam e il team di OpenAI, davvero talentuoso, capiscono innanzitutto che, per essere efficace, la ricerca alimentata dall’intelligenza artificiale deve basarsi su informazioni di altissima qualità e affidabilità fornite da fonti fidate. Affinché il cielo sia in equilibrio, il rapporto tra tecnologia e contenuti deve essere simbiotico e la provenienza deve essere protetta” Google subisce un colpo Anche nella sua forma prototipale, SearchGPT ha avuto un impatto su Google: le azioni di Alphabet sono scese di oltre il 3% giovedì per chiudere a 167,28 dollari, mentre l’indice Nasdaq più ampio è sceso di meno dell’1%. L’annuncio segue le incursioni di Google nella ricerca potenziata dall’intelligenza artificiale. A maggio, Google ha lanciato AI Overview, che il CEO Sundar Pichai ha definito l’aggiunta più importante alla ricerca nei 25 anni di storia dell’azienda. Tuttavia, SGE è stata presto oggetto di critiche dopo che gli utenti hanno notato che le query a volte restituivano risultati insensati o imprecisi all’interno della funzione di intelligenza artificiale, senza la possibilità di escluderla. OpenAI cerca di rimanere al centro dell’attenzione L’annuncio di SearchGPT fa parte di una spinta più ampia da parte di OpenAI per rimanere all’avanguardia nel mercato dell’IA generativa. La scorsa settimana, l’azienda ha lanciato un nuovo modello di IA chiamato “GPT-4o mini“, una derivazione del suo modello più veloce e più potente fino ad oggi, GPT-4o. Nell’ambito della sua strategia di rafforzamento della posizione, OpenAI ha recentemente annunciato l’assunzione di due dirigenti di alto livello: Sarah Friar, in precedenza CEO di Nextdoor e responsabile finanziario di Square, è entrata a far parte dell’azienda in qualità di Chief Financial Officer, mentre Kevin Weil, ex Planet Labs, Twitter, Facebook e Instagram, è entrato a far parte dell’azienda in qualità di Chief Product Officer. La concorrenza nel mercato dell’IA generativa è senza dubbio molto più intensa rispetto a quando ChatGPT ha cambiato il settore alla fine del 2022. Mentre ChatGPT è ancora lo strumento di chatbot più utilizzato, i progressi della brigata open-source di Meta (che ha recentemente rilasciato Llama 3.1, il modello di pesi aperto più grande al mondo), Mistral e molti altri, stanno rendendo più difficile estrarre denaro dai progetti closed-source. SearchGPT è l’ultimo tiro di dadi di OpenAI per rimanere al passo con i tempi. Dopo i ritardi nel rilascio delle tanto pubblicizzate funzioni di sintesi vocale di GPT-4o, tuttavia, la domanda che molti si pongono riguardo a SearchGPT è: quando uscirà davvero? Leggi di più su dailyai.com
L’intelligenza artificiale di Google prevede il tempo utilizzando una frazione della potenza di calcolo

Google ha presentato NeuralGCM, un modello ibrido di previsione meteorologica che combina l’apprendimento automatico con le tecniche di previsione tradizionali e che presenta vantaggi sorprendenti. Le previsioni meteorologiche hanno registrato notevoli miglioramenti nell’accuratezza delle previsioni, ma le tecniche tradizionali richiedono grandi risorse di calcolo per eseguire algoritmi sempre più complessi. I modelli di circolazione generale (GCM) sono alla base delle previsioni climatiche e meteorologiche che ti permettono di sapere se domani avrai bisogno di un ombrello. I GCM sono simulatori fisici che utilizzano equazioni matematiche basate sulle leggi della fisica per simulare come l’aria, l’acqua e l’energia si muovono sul pianeta. I tipici GCM dividono la superficie terrestre in una griglia di celle fino a 100 chilometri, come una gigantesca scacchiera. L’algoritmo elabora ogni casella con un approccio graduale per prevedere il probabile cambiamento delle condizioni atmosferiche. Le equazioni alla base dei GCM sono incredibilmente complesse e impegnano alcuni dei più grandi supercomputer del mondo. I modelli di apprendimento automatico (ML) per la previsione del tempo hanno mostrato un notevole potenziale, ma sono principalmente basati sui dati. Un modello di previsione meteorologica ML ha un’ottima idea dei dati meteorologici storici, ma non ha la comprensione intrinseca delle leggi fisiche che governano l’atmosfera e che sono modellate in un GCM. I modelli ML sono veloci e possono fornire previsioni accurate a breve termine, ma spesso hanno difficoltà con la stabilità a lungo termine e con i rari eventi meteorologici estremi o gli scenari climatici futuri. NeuralGCM, sviluppato da un team di Google Research, combina l’accuratezza e le capacità di previsione a lungo termine dei GCM tradizionali con la migliore risoluzione, efficienza e velocità dei modelli ML. NeuralGCM è disponibile gratuitamente e non vediamo l’ora di vedere come gli scienziati lo svilupperanno. Per maggiori dettagli, consulta il mio post sul blog che descrive il lavoro e il nostro codice open source:https://t.co/AfqLagoYDshttps://t.co/MSlFg6pgfj – Stephan Hoyer (@shoyer) 22 luglio 2024 Il documento afferma che l’accuratezza di NeuralGCM è paragonabile o superiore a quella degli attuali modelli GCM all’avanguardia. Il documento afferma che NeuralGCM è “il primo modello basato sull’apprendimento automatico a fare previsioni meteorologiche d’insieme accurate, con un CRPS migliore rispetto ai modelli basati sulla fisica più avanzati”. Il CRPS è un punteggio che confronta le previsioni del tempo con il tempo effettivo che si verifica. I ricercatori affermano che “NeuralGCM è competitivo con i modelli ad apprendimento automatico per le previsioni da uno a dieci giorni e con l’ensemble di previsioni dell’European Centre for Medium-Range Weather Forecasts per le previsioni da uno a quindici giorni” Sebbene NeuralGCM ottenga risultati di previsione paragonabili a quelli dei GCM, è di ordini di grandezza meno intensivo dal punto di vista computazionale e molto meno complesso. Ildocumento non dice quanto sia grande NeuralGCM, ma propone il modello di previsione meteorologica ML GraphCast di Google come termine di paragone. GraphCast è composto da circa 5.417 righe, mentre il modello atmosferico FV3 della National Oceanic and Atmospheric Administration (NOAA) ha circa 376.578 righe di codice. I ricercatori affermano che NeuralGCM consente “un risparmio di risorse computazionali da 3 a 5 ordini di grandezza” Per contestualizzare questo dato, il documento spiega che “NeuralGCM-1.4° simula 70.000 giorni di simulazione in 24 ore utilizzando una singola unità di elaborazione tensoriale rispetto a 19 giorni di simulazione su 13.824 core di unità di elaborazione centrale con X-SHiELD”, che è un modello di previsione meteorologica ad alta risoluzione. I ricercatori affermano che i risultati dimostrano che il loro modello ha notevoli capacità di modellazione del clima. Nel documento si legge che “i modelli NeuralGCM addestrati su previsioni di 72 ore sono in grado di effettuare simulazioni realistiche su più anni” Combinare l’apprendimento automatico con i modelli fisici tradizionali, come ha fatto Google con le previsioni del tempo, “ha il potenziale di trasformare la simulazione per una vasta gamma di applicazioni, come la scoperta dei materiali, il ripiegamento delle proteine e la progettazione ingegneristica multifisica” L’IA affamata di risorse ha visto i centri di elaborazione dati essere oggetto di numerose critiche per le loro emissioni di carbonio e il potenziale impatto sul clima. NeuralGCM è un buon esempio di come l’IA potrebbe avere un impatto positivo sull’ambiente sostituendo, o aumentando, i processi tradizionali inefficienti per ridurre il consumo di energia informatica. Leggi di più su dailyai.com
Mistral Large 2: il Davide contro il Golia delle Big Tech

L’ultimo modello di Mistral AI, il Mistral Large 2 (ML2), sembra competere con i modelli di grandi dimensioni di leader del settore come OpenAI, Meta e Anthropic, pur essendo una frazione delle loro dimensioni. Il tempismo di questo rilascio è degno di nota: arriva nella stessa settimana in cui Meta lancia il suo colossale modello Llama 3.1 da 405 miliardi di parametri. Sia ML2 che Llama 3 vantano capacità impressionanti, tra cui una finestra di contesto da 128.000 token per una maggiore “memoria” e il supporto di più lingue. Mistral AI si è da tempo differenziata per la sua attenzione alla diversità linguistica e ML2 continua questa tradizione. Il modello supporta “decine” di lingue e più di 80 linguaggi di codifica, rendendolo uno strumento versatile per gli sviluppatori e le aziende di tutto il mondo. Secondo i benchmark di Mistral, ML2 si comporta in modo competitivo rispetto a modelli di alto livello come GPT-4o di OpenAI, Claude 3.5 Sonnet di Anthropic e Llama 3.1 405B di Meta in vari test di linguaggio, codifica e matematica. Nel benchmark Massive Multitask Language Understanding (MMLU), ampiamente riconosciuto, ML2 ha ottenuto un punteggio dell’84%. Sebbene sia leggermente indietro rispetto ai suoi concorrenti (GPT-4o con l’88,7%, Claude 3.5 Sonnet con l’88,3% e Llama 3.1 405B con l’88,6%), vale la pena notare che si stima che gli esperti di dominio umani ottengano circa l’89,8% in questo test. Efficienza: Un vantaggio fondamentale Ciò che distingue ML2 è la sua capacità di ottenere prestazioni elevate con un numero di risorse significativamente inferiore rispetto ai suoi rivali. Con 123 miliardi di parametri, ML2 è meno di un terzo delle dimensioni del modello più grande di Meta e circa un quattordicesimo delle dimensioni di GPT-4. Questa efficienza ha importanti implicazioni per la distribuzione e le applicazioni commerciali. Con la massima precisione a 16 bit, ML2 richiede circa 246 GB di memoria. Sebbene sia ancora troppo grande per una singola GPU, può essere facilmente implementato su un server con quattro o otto GPU senza ricorrere alla quantizzazione – un’impresa non necessariamente realizzabile con modelli più grandi come GPT-4 o Llama 3.1 405B. Mistral sottolinea che l’ingombro ridotto di ML2 si traduce in un throughput più elevato, poiché le prestazioni di LLM sono in gran parte dettate dalla larghezza di banda della memoria. In termini pratici, ciò significa che ML2 può generare risposte più velocemente rispetto a modelli più grandi sullo stesso hardware. Affrontare le sfide principali Mistral ha dato priorità alla lotta contro le allucinazioni, un problema comune in cui i modelli di intelligenza artificiale generano informazioni convincenti ma imprecise. L’azienda sostiene che ML2 è stato perfezionato per essere più “cauto e perspicace” nelle sue risposte e per riconoscere meglio quando non ha informazioni sufficienti per rispondere a una domanda. Inoltre, ML2 è stato progettato per eccellere nel seguire istruzioni complesse, soprattutto nelle conversazioni più lunghe. Questo miglioramento delle capacità di seguire i messaggi potrebbe rendere il modello più versatile e facile da usare in diverse applicazioni. Per venire incontro alle esigenze pratiche delle aziende, Mistral ha ottimizzato ML2 in modo da generare risposte concise, ove opportuno. Sebbene i risultati verbosi possano portare a punteggi di benchmark più elevati, spesso comportano un aumento dei tempi di calcolo e dei costi operativi: una considerazione che potrebbe rendere ML2 più interessante per l’uso commerciale. Rispetto al precedente Mistral Large, sono stati dedicati molti più sforzi alle funzionalità di allineamento e di istruzione. Su WildBench, ArenaHard e MT Bench, le prestazioni sono pari a quelle dei modelli migliori, pur essendo significativamente meno verbose. (4/N) pic.twitter.com/fvPOqfLZSq- Guillaume Lample @ ICLR 2024 (@GuillaumeLample) 24 luglio 2024 Licenze e disponibilità Sebbene ML2 sia disponibile gratuitamente su repository popolari come Hugging Face, i suoi termini di licenza sono più restrittivi rispetto ad alcune delle offerte precedenti di Mistral. A differenza della licenza open-source Apache 2 utilizzata per il modello Mistral-NeMo-12B, ML2 è rilasciato sotto la Mistral Research License. Questa licenza consente un uso non commerciale e di ricerca, ma richiede una licenza commerciale separata per le applicazioni aziendali. Mentre la corsa all’intelligenza artificiale si fa sempre più accesa, ML2 di Mistral rappresenta un significativo passo avanti nel bilanciamento tra potenza, efficienza e praticità. Resta da vedere se potrà davvero sfidare il dominio dei giganti tecnologici, ma il suo rilascio è sicuramente un’aggiunta entusiasmante al campo dei modelli linguistici di grandi dimensioni. Leggi di più su www.artificialintelligence-news.com
Come lo strumento di intelligenza artificiale granulare del New York Times guida le performance delle campagne

Negli ultimi tre mesi, il New York Times ha utilizzato l’intelligenza artificiale generativa per allineare il messaggio della campagna di un marchio agli articoli più rilevanti e al pubblico interessato, hanno dichiarato i dirigenti ad ADWEEK. E i risultati della campagna sono promettenti. Lo strumento pubblicitario alimentato dall’intelligenza artificiale generativa, chiamato BrandMatch, utilizza modelli linguistici di grandi dimensioni per decodificare il brief di un inserzionista, scoprire segmenti di pubblico più specifici e abbinare il brief agli articoli più rilevanti su cui pubblicare gli annunci. L’editore non ha voluto fornire informazioni specifiche su come definisce il proprio pubblico. “I prodotti pubblicitari premium e proprietari come [BrandMatch] hanno contribuito al successo della nostra attività pubblicitaria”, ha dichiarato Joy Robins, global chief advertising officer del New York Times Advertising. “Ci permettono di risolvere problemi per i quali gli inserzionisti in precedenza non avevano soluzioni. Come possiamo aiutarli a raggiungere il pubblico perfetto se non è possibile definirlo con i segmenti di targeting esistenti?” Il Times ha condotto dei test BrandMatch tra aprile e giugno con sei marchi, tra cui Paramount e Ferragamo, nei settori della tecnologia, della finanza e del lusso. Queste campagne hanno superato le medie di performance e i benchmark dell’editore, ottenendo un tasso medio di click-through dello 0,40%, mentre le unità native display hanno registrato un CTR ancora più alto, pari allo 0,72%. L’editore ha dichiarato che questo dato è significativamente più alto rispetto alle campagne che non utilizzano il targeting BrandMatch. Il brand lift è aumentato in media dell’8,4%, mentre la considerazione e la preferenza hanno registrato un aumento del 3,1%. Ibrand e gli editori stanno sperimentando sempre più spesso l’intelligenza artificiale per migliorare le capacità di targettizzazione degli annunci. L’anno scorso il Times ha assunto Zach Seward, cofondatore di Quartz, come direttore editoriale delle iniziative di AI per testare la gen AI all’interno della sua redazione. Lo scorso agosto, l’editore ha aggiornato i suoi termini di servizio per impedire ai bot dell’IA di scrapare i suoi contenuti e attualmente è impegnato in una battaglia sul copyright con OpenAI. Il Times ha oltre 10 milioni di abbonati a pagamento e più di 100 milioni di lettori registrati. Secondo Robins, raggiunge settimanalmente dai 50 ai 100 milioni di persone. Evoluzione degli strumenti di targeting per categorie preimpostate L’editore offre già soluzioni di targeting del pubblico di prima parte e di targeting contestuale. Tuttavia, con queste soluzioni, gli inserzionisti scelgono da una serie limitata di opzioni di targeting predefinite come il sesso, la fascia d’età o il reddito familiare, ottenendo così “risorse molto limitate e investibili”, ha dichiarato Robins. Il nuovo strumento di intelligenza artificiale rappresenta un’evoluzione dei tradizionali metodi di targeting basati sulle categorie. Ad esempio, i marchi di investimenti finanziari come Robinhood e Fidelity Investments probabilmente si rivolgono a segmenti di pubblico simili interessati al trading, che di solito si trovano accanto a contenuti commerciali. BrandMatch diventa più granulare con gli interessi del pubblico. “Quando si aggiunge il brief a BrandMatch, gli articoli suggeriti vanno oltre i tradizionali allineamenti di business, verso la cultura, l’intrattenimento e lo sport, e trovano un pubblico ricettivo a quel messaggio”, ha detto Robins. Un targeting più granulare Paramount è stato un partner di lancio di BrandMatch e ha utilizzato lo strumento per promuovere l’ultima stagione del suo show, Evil. L’obiettivo era quello di raggiungere due pubblici distinti: i fan che avevano già visto le stagioni precedenti di Evil e le persone che non avevano visto lo show ma erano fan del soprannaturale. Secondo Mohit Lohia, vicepresidente senior e responsabile della pubblicità digitale del Times, il targeting tradizionale non era in grado di raggiungere questo livello di sfumature e Paramount doveva utilizzare criteri di targeting simili per entrambi i gruppi. Tuttavia, utilizzando BrandMatch, Paramount ha presentato due brief separati per descrivere le differenze tra i pubblici. Uno descriveva i motivi per cui i fan di Evil amano la serie, mentre l’altro descriveva le preferenze dei fan del genere soprannaturale. BrandMatch ha individuato gli articoli che potevano avere una certa risonanza su ciascun pubblico e ha modellato due segmenti di pubblico in base ai lettori di quegli articoli. Lohia non ha voluto condividere i dettagli degli articoli. La campagna ha ottenuto un CTR superiore di oltre il 20% rispetto ad annunci di intrattenimento simili. Uno dei CTR più alti si è registrato nel segmento di pubblico di prima parte definito come “abbonati all’intrattenimento” Il brand lift ha mostrato una tendenza positiva, con un aumento del 2,2% delle preferenze. In particolare, l’audience esistente di Evil ha superato i benchmark di CTR di oltre il 35%, ha dichiarato l’editore. Il Times ha registrato dei picchi di CTR guidati da un pubblico definito come “abbonato al cinema” e “abbonato all’intrattenimento” Uno degli ambienti di contenuto migliori per i fan del Male sono stati gli articoli taggati con l’emozione “Avventuroso”, ha dichiarato l’editore. Un punteggio di adiacenza più alto indica una corrispondenza BrandMatch utilizza un punteggio di adiacenza per analizzare il brief dell’inserzionista e identificare i contenuti più rilevanti, ha spiegato Lohia. Un punteggio di adiacenza più alto indica un allineamento più stretto tra l’articolo e il messaggio del marchio. Una volta identificato il contenuto più in linea con il brief, l’editore determina il pubblico più coinvolto all’interno di quel contenuto, ha dichiarato Lohia, ma l’azienda non ha voluto entrare nello specifico di come definisce il suo pubblico. Le prime campagne che utilizzano il targeting BrandMatch dovrebbero essere attive nella seconda metà di settembre. Il Times prevede di rendere disponibile lo strumento per l’acquisto ad altri clienti nel quarto trimestre di quest’anno, offrendolo come parte della sua suite di soluzioni pubblicitarie. Leggi di più su www.adweek.com
Meta fa avanzare l’intelligenza artificiale open source con Llama 3.1, un modello “frontier level”

Meta ha presentato Llama 3.1, segnando una tappa significativa nell’impegno dell’azienda verso l’IA open source. Questa versione, che il CEO di Meta Mark Zuckerberg definisce “il primo modello di AI open source di frontiera”, mira a sfidare il dominio dei sistemi di AI chiusi e a democratizzare l’accesso alla tecnologia AI avanzata. La release Llama 3.1 include tre modelli: 405B, 70B e 8B. Zuckerberg afferma che il modello 405B è in grado di competere con i modelli chiusi più avanzati, offrendo al contempo una migliore efficienza in termini di costi. Da oggi, l’open source è in prima linea. Ecco Llama 3.1: I nostri modelli più performanti. Oggi rilasciamo una collezione di nuovi modelli Llama 3.1, tra cui il tanto atteso 405B. Questi modelli offrono migliori capacità di ragionamento, un contesto più ampio di 128K token… pic.twitter.com/1iKpBJuReD – AI at Meta (@AIatMeta) 23 luglio 2024 “A partire dal prossimo anno, ci aspettiamo che i futuri modelli di Llama diventino i più avanzati del settore”, prevede Zuckerberg. Zuckerberg fa un parallelo tra l’evoluzione dell’IA e il passaggio storico dai sistemi Unix chiusi a Linux open source. Sostiene che l’IA open source seguirà una traiettoria simile, diventando alla fine lo standard del settore grazie alla sua adattabilità, all’economicità e all’ampio supporto dell’ecosistema. Puoi iniziare a costruire con Llama 3.1 fin da ora. Stai pensando a quale provider scegliere? Ecco una panoramica di tutti i prezzi attuali a partire da oggi pomeriggio. Stiamo aggiornando il tutto con una matrice delle funzionalità disponibili e una guida rapida: https://t.co/lGNIfLUR0T pic.twitter.com/blIIMvWUZO – Ahmad Al-Dahle (@Ahmad_Al_Dahle) 23 luglio 2024 Zuckerberg sottolinea diversi vantaggi chiave dell’IA open source: Personalizzazione: Le organizzazioni possono addestrare e mettere a punto i modelli con i loro dati specifici. Indipendenza: Evita il lock-in a fornitori chiusi o a specifici fornitori di cloud. Sicurezza dei dati: Consente l’implementazione di modelli locali, migliorando la protezione dei dati. Efficienza dei costi: Llama 3.1 405B può essere eseguito a circa la metà del costo dei modelli chiusi come GPT-4. Crescita dell’ecosistema: Incoraggia l’innovazione e la collaborazione nel settore. Per quanto riguarda i problemi di sicurezza, Zuckerberg sostiene che l’IA open source è intrinsecamente più sicura grazie alla maggiore trasparenza e al controllo. Afferma: “L’open source dovrebbe essere significativamente più sicuro perché i sistemi sono più trasparenti e possono essere ampiamente controllati” Per sostenere l’ecosistema dell’IA open source, Meta sta collaborando con importanti aziende tecnologiche come Amazon, Databricks e NVIDIA per fornire servizi di sviluppo. I modelli saranno disponibili sulle principali piattaforme cloud e aziende come Scale.AI, Dell e Deloitte sono pronte a fornire assistenza per l’adozione da parte delle aziende. 🦙 I nuovi modelli @AIatMeta Llama 3.1 più le nostre nuove NIM NVIDIA NeMo Retriever creano un potente duo di #generativeai 🙌 ➡️ Approfondimento tecnico su come costruire una pipeline RAG agenziale con i nuovi microservizi NeMo Retriever embedding e reraking NIM. https://t.co/OjQN8rcHi0 ✨ – NVIDIA AI Developer (@NVIDIAAIDev) 23 luglio 2024 “L’open source garantirà che un maggior numero di persone in tutto il mondo abbia accesso ai benefici e alle opportunità dell’IA, che il potere non sia concentrato nelle mani di un numero ristretto di aziende e che la tecnologia possa essere distribuita in modo più uniforme e sicuro in tutta la società”, afferma Zuckerberg. Il CEO considera questo rilascio come un punto di svolta, prevedendo che la maggior parte degli sviluppatori si orienterà verso l’utilizzo di modelli di IA open source. Invita la comunità tecnologica a unirsi a Meta in “questo viaggio per portare i benefici dell’IA a tutti nel mondo” I modelli Llama 3.1 sono ora accessibili all’indirizzo llama.meta.com. (Foto di Dima Solomin) Vedi anche: Meta si unisce ad Apple nel rifiutare i modelli di intelligenza artificiale agli utenti dell’UE Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: ai, intelligenza artificiale, sviluppo, llama, llama 3.1, mark zuckerberg, meta, open source Leggi di più su www.artificialintelligence-news.com
Meta rilascia i modelli di Llama 3.1, mantenendo una strategia open

Meta ha rilasciato i suoi modelli Llama 3.1 aggiornati nelle versioni 8B, 70B e 405B e si è impegnata a rispettare la visione open source di Mark Zuckerberg per il futuro dell’intelligenza artificiale. Le nuove aggiunte alla famiglia di modelli Llama di Meta sono dotate di una lunghezza di contesto estesa a 128k e del supporto di otto lingue. Meta afferma che l’attesissimo modello 405B dimostra “flessibilità, controllo e capacità all’avanguardia senza pari, in grado di rivaleggiare con i migliori modelli closed source” Meta sostiene inoltre che Llama 3.1 405B è “il modello di fondazione open source più grande e più capace al mondo” Con i costi di calcolo da capogiro spesi per addestrare modelli sempre più grandi, si è speculato molto sul fatto che il modello di punta 405B di Meta potrebbe essere il suo primo modello a pagamento. Llama 3.1 405B è stato addestrato su oltre 15 trilioni di token utilizzando 16.000 NVIDIA H100, con un probabile costo di centinaia di milioni di dollari. In un post sul blog, il CEO di Meta, Mark Zuckerberg, ha ribadito che l’AI open source è la strada da seguire e che il rilascio di Llama 3.1 è il passo successivo “verso l’AI open source che diventa lo standard del settore” I modelli di Llama 3.1 sono liberi di essere scaricati e modificati o perfezionati con una suite di servizi di Amazon, Databricks e NVIDIA. I modelli sono disponibili anche su fornitori di servizi cloud come AWS, Azure, Google e Oracle. Da oggi, l’open source è in prima linea. Presentazione di Llama 3.1: I nostri modelli più performanti. Oggi rilasciamo una serie di nuovi modelli Llama 3.1, tra cui il tanto atteso 405B. Questi modelli offrono migliori capacità di ragionamento, un contesto più ampio di 128K token… pic.twitter.com/1iKpBJuReD – AI at Meta (@AIatMeta) 23 luglio 2024 Prestazioni Meta afferma di aver testato i suoi modelli su oltre 150 set di dati di riferimento e ha pubblicato i risultati dei benchmark più comuni per mostrare come i suoi nuovi modelli si posizionano rispetto ad altri modelli leader. Non c’è molto che separa Llama 3.1 405B da GPT-4o e Claude 3.5 Sonnet. Ecco i dati relativi al modello 405B e alle versioni più piccole 8B e 70B. Confronto tra il benchmark di Llama 3.1 405B e gli altri modelli principali. Fonte: Meta: Meta Confronto tra Llama 3.1 405B e altri modelli di punta. Fonte: Meta Meta Meta ha anche effettuato “valutazioni umane approfondite che confrontano Llama 3.1 con i modelli concorrenti in scenari reali” Questi dati si basano sul fatto che gli utenti decidono se preferiscono la risposta di un modello o di un altro. La valutazione umana di Llama 3.1 405B riflette una parità simile a quella rivelata dai dati di benchmark. Risultati della valutazione umana di Llama 3.1 405B rispetto a GPT-4, GPT-4o e Claude 3.5 Sonnet. Fonte: Meta: Meta Meta afferma che il suo modello è veramente aperto: i pesi del modello Llama 3.1 sono disponibili per il download, anche se i dati di addestramento non sono stati condivisi. L’azienda ha inoltre modificato la licenza per consentire l’utilizzo dei modelli Llama per migliorare altri modelli di intelligenza artificiale. La libertà di perfezionare, modificare e utilizzare i modelli di Llama senza restrizioni farà suonare un campanello d’allarme per i critici dell’ IA open source. Zuckerberg sostiene che un approccio open source è il modo migliore per evitare danni involontari. Se un modello di intelligenza artificiale è aperto al controllo, secondo Zuckerberg, è meno probabile che sviluppi comportamenti emergenti pericolosi che altrimenti sfuggirebbero a modelli chiusi. Per quanto riguarda il potenziale di danno intenzionale, Zuckerberg afferma: “Finché tutti avranno accesso a generazioni simili di modelli – cosa che l’open source promuove – i governi e le istituzioni con maggiori risorse di calcolo saranno in grado di controllare i cattivi attori con meno calcolo” Per quanto riguarda il rischio che avversari statali come la Cina accedano ai modelli di Meta, Zuckerberg afferma che gli sforzi per tenerli fuori dalle mani dei cinesi non funzioneranno. “I nostri avversari sono bravissimi nello spionaggio, rubare modelli che stanno in una chiavetta è relativamente facile, e la maggior parte delle aziende tecnologiche non opera in modo tale da rendere questo più difficile”, ha spiegato. L’entusiasmo per un modello di intelligenza artificiale open source come Llama 3.1 405B che sfida i grandi modelli chiusi è giustificato. Ma con i sussurri di GPT-5 e Claude 3.5 Opus che aspettano dietro le quinte, i risultati di questi benchmark potrebbero non invecchiare molto bene. Leggi di più su dailyai.com
Il caso CrowdStrike è una lezione di comunicazione di crisi

Sono stati giorni difficili per CrowdStrike e per i marchi dei suoi clienti più importanti. Microsoft, Delta e altri sono stati direttamente colpiti dall’interruzione globale del 18 luglio, con molti che hanno citato la schermata blu della morte come un segno che l’anno 2000 è finalmente arrivato nel 2024. L’incidente si è verificato quando un aggiornamento difettoso di CrowdStrike ha compromesso 8,5 milioni di dispositivi Windows a livello globale. Sebbene Microsoft abbia sottolineato che si trattava di meno dell’1% di tutti i dispositivi Windows, la percentuale ha avuto conseguenze significative a causa del tipo di organizzazioni servite da CrowdStrike: compagnie aeree, ospedali, banche e società di telecomunicazioni, centri di infrastrutture critiche. Le ripercussioni finanziarie per CrowdStrike sono state immediate e gravi: un crollo del 22% del valore delle azioni, che ha cancellato quasi 16 miliardi di dollari dalla capitalizzazione di mercato dell’azienda. L’effetto a catena di questo colpo finanziario si è fatto sentire in tutti i settori, suscitando preoccupazioni sulla solidità delle infrastrutture digitali e sui contesti legali che regolano questi fallimenti su larga scala. Marchi come Delta e Microsoft hanno subito ripercussioni per la loro comunicazione (o mancanza di comunicazione). Ma il team di CrowdStrike, nonostante le conseguenze che hanno avuto sulle azioni e sulla percezione del marchio, ha dato a tutti noi una lezione sulla comunicazione di crisi. Che cosa ha fatto sì che alcune comunicazioni del marchio abbiano avuto successo mentre altre hanno fallito? Passi falsi del marchio e caos conseguente Delta Airlines è emersa come marchio chiave per il sentimento negativo, in quanto il vettore ha dovuto affrontare numerose cancellazioni di voli e ritardi. Il Segretario ai Trasporti degli Stati Uniti Pete Buttigieg ha dovuto ricordare a Delta le leggi che tutelano i clienti delle compagnie aeree, sottolineando la volatilità e l’insoddisfazione dell’opinione pubblica durante la vicenda. Delta è stata criticata per la sua mancanza di comunicazione immediata e trasparente. I passeggeri di vari aeroporti sono stati lasciati nel limbo, come dimostrano gli innumerevoli post sui social media che immortalano scene di esasperazione e attese di ore. Gli esperti del settore hanno poi sostenuto che la gestione di Delta avrebbe potuto essere notevolmente migliorata gestendo e distribuendo in modo proattivo informazioni più accurate e rassicurazioni attraverso vari canali per mantenere la fiducia dei clienti e mitigare la frustrazione. Per molti viaggiatori, la frustrazione per le lune di miele e le riunioni di famiglia perse è stata solo peggiorata dalla sensazione di essere abbandonati dagli agenti al gate e dal personale negli aeroporti. Microsoft ha dovuto affrontare anche le reazioni dell’opinione pubblica. Sebbene l’azienda abbia chiarito la portata dell’interruzione e abbia fornito indicazioni sulle soluzioni da adottare, l’interruzione prolungata ha evidenziato le vulnerabilità dell’affidarsi a soluzioni di cybersicurezza di terze parti. Le aziende, dai media agli uffici governativi, ne hanno risentito, dovendo affrontare tempi di inattività e perdite finanziarie che, secondo gli esperti, potrebbero raggiungere i miliardi di dollari. A differenza della reazione di Delta, quella di Microsoft è stata un misto di frustrazione e meme, con molti che scherzavano sul fatto che mentre i prodotti Windows non funzionavano, in qualche modo Microsoft Teams funzionava ancora. Questo, oltre ai numerosi meme sulla schermata blu della morte, ha reso assolutamente impossibile nascondersi dall’interruzione del servizio. La risposta di CrowdStrike L’amministratore delegato di CrowdStrike, George Kurtz, ha dovuto affrontare un notevole scrutinio per aver presentato delle scuse che, secondo alcuni, non erano sufficientemente schiette o empatiche. Le critiche sono emerse quasi immediatamente, con persone come Lulu Cheng Meservey dell’azienda di PR Rostra che si sono rivolte a Twitter per riscrivere la sua risposta. Queste critiche hanno evidenziato la necessità di un riconoscimento più sincero e trasparente del disagio causato. Domenica, il responsabile della sicurezza di CrowdStrike, Shawn Henry, ha rilasciato delle scuse personali e sentite che racchiudono la gravità della situazione e l’impegno dell’azienda a correggere il proprio errore: Questa dichiarazione è un modello di come dovrebbe essere una comunicazione di crisi efficace. Il messaggio di Henry è efficace perché: Riconosce il problema: Henry inizia ammettendo apertamente il fallimento, un primo passo fondamentale per riconquistare la fiducia. Esprime scuse sincere: Le scuse sono genuine e sentite e rafforzano la responsabilità dell’azienda. Fa riferimento all’autorità del passato: Evidenziando i precedenti successi e la dedizione sua e dell’azienda, Henry ricorda agli stakeholder i contributi che hanno consolidato la loro fiducia nel corso degli anni. Crea un legame personale: Il messaggio è personale e riflessivo, il che aiuta a creare un legame emotivo con il pubblico. Impegna all’azione: Promettendo di imparare e di crescere dall’incidente, Henry posiziona CrowdStrike come impegnata nel miglioramento continuo e nell’affidabilità. Questa risposta non può essere e non sarà l’ultima; la risposta principale deve riguardare il modo in cui è stata risolta la situazione e le misure che si stanno adottando per evitare che si ripeta. La fiducia deve essere ricostruita dalle fondamenta e, sebbene le scuse siano un ottimo inizio, devono essere seguite da azioni per assicurarsi che i clienti rimangano. Andare avanti L’aspetto più importante che emerge da questa disfatta è l’importanza cruciale di elaborare strutture di gestione del rischio resilienti. L’interconnessione dei moderni ecosistemi digitali richiede misure di cybersecurity che non solo proteggano, ma anche si adattino rapidamente alle vulnerabilità e le correggano. Una comunicazione efficace, piani d’azione rapidi e approcci incentrati sul cliente saranno fondamentali per gestire e mitigare tali interruzioni in futuro. Sebbene questo tipo di incidenti sia difficile da prevedere, è necessario che i brand costruiscano una cultura dell’azione e dell’empatia per mantenere un senso di fiducia nei confronti dei clienti che si aspettano che non accada il peggio. Una pianificazione d’emergenza con il cuore è il modo in cui si vince e si corregge la rotta. Leggi di più su www.adweek.com
