L’Oracle intelligente di YeagerAI: costruito sulla blockchain GenLayer per l’accesso ai dati in tempo reale

Il laboratorio di ricerca sull’AI della blockchain YeagerAI ha annunciato il lancio dell’Intelligent Oracle, un oracolo alimentato dall’AI che mira a fornire alle applicazioni decentralizzate (DApps) dati online sulla catena. L’Oracle può cambiare il modo in cui vengono raccolti i dati, offrendo nuove possibilità e casi d’uso per le DApps blockchain. È costruito sulla blockchain GenLayer, anch’essa nata da un’idea di YeagerAI, e progettato per supportare una nuova generazione di DApp. È in grado di recuperare qualsiasi tipo di dati online e di consegnarli sulla catena. L’Intelligent Oracle verrà inizialmente lanciato su una rete locale autorizzata, mentre la GenLayer Testnet dovrebbe essere operativa entro la fine del 2024. Eliminando la dipendenza dai sistemi di risoluzione a comando umano e offrendo compatibilità tra le catene, l’Intelligent Oracle mira a fornire una soluzione scalabile, efficiente e a prova di futuro per il processo decisionale. L’Intelligent Oracle è alimentato da LLM integrati nel meccanismo di consenso Optimistic Democracy di GenLayer. Il meccanismo di consenso è “governato” da validatori che si connettono agli LLM, verificando e proteggendo i dati che l’Oracle recupera da fonti interne ed esterne alla catena. I validatori permettono alla rete di elaborare transazioni non deterministiche recuperando dati da internet. Quando viene effettuata una richiesta, un validatore principale genera un risultato proposto, mentre gli altri validatori verificano in modo indipendente il risultato rispetto ai criteri di equivalenza preimpostati. La Democrazia Ottimista garantisce che tutte le decisioni siano accurate, affidabili e sicure. Sebbene gli oracoli blockchain si siano evoluti rapidamente negli ultimi anni, rimangono ancora diverse questioni irrisolte. Tra questi, l’impossibilità per le blockchain di accedere a dati esterni e la capacità delle blockchain di accedere solo a ciò che è disponibile sulla catena. Gli usi emergenti delle blockchain risentono della mancanza di oracoli più ampi: la maggior parte delle DApp futuristiche richiede dati immediati, accurati e talvolta soggettivi da internet. Fino ad oggi, la soluzione è stata quella di utilizzare oracoli tradizionali, che forniscono solo set di dati predefiniti o richiedono un intervento manuale, rendendoli lenti, costosi e poco flessibili. L’Intelligent Oracle offre una soluzione autonoma, offrendo una gamma virtualmente illimitata di tipi di dati ai costruttori di dApp. Diamo il benvenuto all’Intelligent Oracle: Un nuovo mondo di casi d’uso della blockchain L’Intelligent Oracle si basa sugli Intelligent Contracts che operano sulla blockchain GenLayer. L’oracolo opera nell’ecosistema GenLayer, consentendo agli utenti di ottenere dati decentralizzati, trasparenti e sicuri per le loro DApp o piattaforme. Offre una compatibilità cross-chain che gli consente di integrarsi con diversi ecosistemi blockchain. In seguito al lancio, gli sviluppatori di DApp blockchain avranno a disposizione molte più possibilità. Il lancio dell’Intelligent Oracle potrebbe rappresentare un passo avanti per le applicazioni decentralizzate nei mercati di previsione, nelle assicurazioni e nei derivati finanziari, ad esempio. L’Oracolo consente una risoluzione dei dati rapida ed economica. Mentre gli oracoli tradizionali possono impiegare giorni per risolvere i mercati di previsione, con conseguenti ritardi e costi, l’Intelligent Oracle raggiunge il risultato finale della transazione in meno di un’ora, a un costo inferiore a 1 dollaro per mercato. YeagerAI ha visto una rapida adozione del suo nuovo servizio Oracle da parte di diversi partner e alcune piattaforme si sono già impegnate a integrare Intelligent Oracle. I primi partner che si sono impegnati a costruire con la tecnologia includono Radix DLT, Etherisc, PredX, Delphi Bets e Provably. Leggi di più su www.artificialintelligence-news.com
Il nuovo modello o1 di LLM OpenAI potrebbe cambiare il mercato dell’hardware

OpenAI e altre aziende leader nel settore dell’intelligenza artificiale stanno sviluppando nuove tecniche di formazione per superare i limiti dei metodi attuali. Affrontando ritardi e complicazioni impreviste nello sviluppo di modelli linguistici più grandi e potenti, queste nuove tecniche si concentrano su un comportamento simile a quello umano per insegnare agli algoritmi a “pensare”. Secondo quanto riferito da una dozzina di ricercatori, scienziati e investitori nel campo dell’intelligenza artificiale, le nuove tecniche di formazione, che sono alla base del recente modello “o1” di OpenAI (precedentemente Q* e Strawberry), hanno il potenziale di trasformare il panorama dello sviluppo dell’intelligenza artificiale. I progressi riportati potrebbero influenzare i tipi o le quantità di risorse di cui le aziende di IA hanno continuamente bisogno, tra cui hardware specializzato ed energia per favorire lo sviluppo dei modelli di IA. Il modello o1 è progettato per affrontare i problemi in modo da imitare il ragionamento e il pensiero umano, suddividendo numerosi compiti in fasi. Il modello utilizza anche dati specializzati e feedback forniti da esperti del settore AI per migliorare le sue prestazioni. Da quando ChatGPT è stato presentato da OpenAI nel 2022, c’è stata un’impennata nell’innovazione dell’IA e molte aziende tecnologiche sostengono che i modelli di IA esistenti necessitano di un’espansione, sia attraverso una maggiore quantità di dati che attraverso migliori risorse di calcolo. Solo così i modelli di IA potranno migliorare costantemente. Ora, gli esperti di IA hanno segnalato dei limiti nella scalabilità dei modelli di IA. Gli anni 2010 sono stati un periodo rivoluzionario per la scalabilità, ma Ilya Sutskever, cofondatore dei laboratori di AI Safe Superintelligence (SSI) e OpenAI, afferma che la formazione dei modelli di AI, in particolare per quanto riguarda la comprensione delle strutture e dei modelli linguistici, si è stabilizzata. “Gli anni 2010 sono stati l’era della scalabilità, ora siamo di nuovo nell’era della meraviglia e della scoperta. Ora è più importante scalare le cose giuste”, hanno dichiarato. Negli ultimi tempi, i ricercatori dei laboratori di intelligenza artificiale hanno riscontrato ritardi e difficoltà nello sviluppo e nel rilascio di modelli linguistici di grandi dimensioni (LLM) più potenti del modello GPT-4 di OpenAI. In primo luogo, c’è il costo dell’addestramento di modelli di grandi dimensioni, che spesso si aggira intorno alle decine di milioni di dollari. Inoltre, a causa delle complicazioni che si presentano, come il malfunzionamento dell’hardware dovuto alla complessità del sistema, l’analisi finale del funzionamento di questi modelli può richiedere mesi. Oltre a queste sfide, le sessioni di formazione richiedono notevoli quantità di energia, che spesso si traducono in carenze di energia che possono interrompere i processi e avere un impatto sulla rete elettrica in generale. Un altro problema è la quantità colossale di dati che i modelli linguistici di grandi dimensioni utilizzano, tanto che i modelli di intelligenza artificiale avrebbero esaurito tutti i dati accessibili in tutto il mondo. I ricercatori stanno esplorando una tecnica nota come “test-time compute” per migliorare gli attuali modelli di IA durante l’addestramento o le fasi di inferenza. Il metodo può prevedere la generazione di più risposte in tempo reale per decidere una serie di soluzioni migliori. Di conseguenza, il modello può allocare maggiori risorse di elaborazione a compiti difficili che richiedono un processo decisionale e di ragionamento simile a quello umano. L’obiettivo è rendere il modello più preciso e capace. Noam Brown, un ricercatore di OpenAI che ha contribuito allo sviluppo del modello o1, ha condiviso un esempio di come un nuovo approccio possa raggiungere risultati sorprendenti. Alla conferenza TED AI tenutasi a San Francisco il mese scorso, Brown ha spiegato che “far pensare un bot per soli 20 secondi in una mano di poker ha ottenuto lo stesso incremento di prestazioni di un modello scalato di 100.000 volte e addestrato per 100.000 volte in più” Invece di aumentare semplicemente le dimensioni del modello e il tempo di addestramento, questo può cambiare il modo in cui i modelli di IA elaborano le informazioni e portare a sistemi più potenti ed efficienti. È stato riferito che altri laboratori di IA hanno sviluppato versioni della tecnica o1. Tra questi ci sono xAI, Google DeepMind e Anthropic. La concorrenza nel mondo dell’IA non è una novità, ma potremmo assistere a un impatto significativo sul mercato dell’hardware dell’IA grazie alle nuove tecniche. Aziende come Nvidia, che attualmente domina l’offerta di chip per l’IA grazie all’elevata domanda dei suoi prodotti, potrebbero essere particolarmente colpite dalle nuove tecniche di formazione dell’IA. Nvidia è diventata l’azienda di maggior valore al mondo nel mese di ottobre e la sua ascesa è in gran parte attribuibile all’utilizzo dei suoi chip negli array di intelligenza artificiale. Le nuove tecniche potrebbero avere un impatto sulla posizione di mercato di Nvidia, costringendo l’azienda ad adattare i suoi prodotti per soddisfare l’evoluzione della domanda di hardware AI. Potenzialmente, questo potrebbe aprire nuove strade a nuovi concorrenti nel mercato dell’inferenza. Una nuova era dello sviluppo dell’IA potrebbe essere all’orizzonte, guidata dall’evoluzione della domanda di hardware e da metodi di addestramento più efficienti come quelli impiegati nel modello o1. Il futuro dei modelli di IA e delle aziende che li producono potrebbe essere ridisegnato, aprendo possibilità senza precedenti e una maggiore concorrenza. Leggi di più su www.artificialintelligence-news.com
Alibaba Marco-o1: Far progredire le capacità di ragionamento degli LLM

Alibaba ha annunciato Marco-o1, un modello linguistico di grandi dimensioni (LLM) progettato per affrontare compiti di risoluzione di problemi sia convenzionali che aperti. Marco-o1, realizzato dal team MarcoPolo di Alibaba, rappresenta un altro passo avanti nella capacità dell’IA di gestire sfide di ragionamento complesse, in particolare nei settori della matematica, della fisica, del coding e in aree in cui possono mancare standard chiari. Basandosi sui progressi di OpenAI nel campo del ragionamento con il suo modello o1, Marco-o1 si distingue per l’integrazione di diverse tecniche avanzate, tra cui il Chain-of-Thought (CoT) fine-tuning, il Monte Carlo Tree Search (MCTS) e nuovi meccanismi di riflessione. Questi componenti lavorano di concerto per migliorare le capacità di risoluzione dei problemi del modello in vari ambiti. Il team di sviluppo ha implementato una strategia di fine-tuning completa utilizzando diversi dataset, tra cui una versione filtrata del dataset Open-O1 CoT, un dataset sintetico Marco-o1 CoT e un dataset specializzato in istruzioni Marco. In totale, il corpus di addestramento comprende oltre 60.000 campioni attentamente curati. Il modello ha ottenuto risultati particolarmente impressionanti nelle applicazioni multilingue. Nei test, Marco-o1 ha ottenuto notevoli miglioramenti di accuratezza del 6,17% sul dataset MGSM inglese e del 5,60% sulla sua controparte cinese. Il modello ha dimostrato una particolare forza nei compiti di traduzione, soprattutto quando gestisce espressioni colloquiali e sfumature culturali. Una delle caratteristiche più innovative del modello è l’implementazione di diverse granularità di azione all’interno del framework MCTS. Questo approccio permette al modello di esplorare percorsi di ragionamento a diversi livelli di dettaglio, da passi ampi a “mini-passi” più precisi di 32 o 64 token. Il team ha anche introdotto un meccanismo di riflessione che spinge il modello ad autovalutarsi e a riconsiderare il proprio ragionamento, migliorando l’accuratezza in scenari di risoluzione di problemi complessi. L’integrazione dell’MCTS si è dimostrata particolarmente efficace: tutte le versioni potenziate dell’MCTS del modello hanno mostrato miglioramenti significativi rispetto alla versione base di Marco-o1-CoT. Gli esperimenti condotti dal team con diverse granularità di azioni hanno rivelato schemi interessanti, anche se si sottolinea che la determinazione della strategia ottimale richiede ulteriori ricerche e modelli di ricompensa più precisi. (Credit: MarcoPolo Team, AI Business, Alibaba International Digital Commerce) Il team di sviluppo è stato trasparente riguardo agli attuali limiti del modello, riconoscendo che, sebbene Marco-o1 presenti forti caratteristiche di ragionamento, non è ancora un modello “o1” pienamente realizzato. Sottolineano che questa versione rappresenta un impegno continuo per il miglioramento piuttosto che un prodotto finito. In prospettiva, il team di Alibaba ha annunciato l’intenzione di incorporare modelli di ricompensa, tra cui Outcome Reward Modeling (ORM) e Process Reward Modeling (PRM), per migliorare le capacità decisionali di Marco-o1. Si stanno inoltre esplorando tecniche di apprendimento rinforzato per affinare ulteriormente le capacità di risoluzione dei problemi del modello. Il modello Marco-o1 e i set di dati associati sono stati messi a disposizione della comunità di ricerca attraverso il repository GitHub di Alibaba, completi di documentazione completa e guide all’implementazione. Il rilascio include istruzioni per l’installazione e script di esempio sia per l’utilizzo diretto del modello che per l’implementazione tramite FastAPI. Leggi di più su www.artificialintelligence-news.com
L’uso dell’intelligenza artificiale generativa è in aumento tra gli inglesi, ma è sostenibile?

Un sondaggio condotto da CloudNine PR mostra che l’83% degli adulti del Regno Unito conosce gli strumenti di IA generativa e il 45% di coloro che li conoscono vuole che le aziende siano trasparenti sui costi ambientali associati a queste tecnologie. Con i centri dati che consumano grandi quantità di energia, la crescente domanda di IA generativa ha suscitato un dibattito sulla sua sostenibilità. Il costo dell’intelligenza: L’impronta di carbonio dell’IA generativa Dietro ogni email, idea o raccomandazione generata dall’IA ci sono centri dati che gestiscono migliaia di server affamati di energia. I centri dati sono responsabili sia dell’addestramento dei grandi modelli linguistici che alimentano l’IA generativa, sia dell’elaborazione delle singole richieste degli utenti. A differenza di una semplice ricerca su Google, che consuma relativamente poca energia, una singola richiesta di IA generativa può consumare fino a dieci volte più elettricità. I numeri sono sbalorditivi. Se tutti i nove miliardi di ricerche giornaliere su Google in tutto il mondo venissero sostituiti con attività di IA generativa, la domanda di elettricità aggiuntiva corrisponderebbe al consumo energetico annuale di 1,5 milioni di abitanti dell’UE. Secondo la società di consulenza Morgan Stanley, la richiesta di energia da parte dell’IA generativa dovrebbe crescere del 70% all’anno fino al 2027. A quel punto, l’energia necessaria per supportare i sistemi di IA generativa potrebbe rivaleggiare con il fabbisogno di energia elettrica di un intero Paese, ad esempio la Spagna, in base al suo utilizzo nel 2022. I consumatori del Regno Unito vogliono pratiche di IA più ecologiche L’indagine evidenzia anche la crescente consapevolezza dei consumatori britannici riguardo alle implicazioni ambientali dell’IA generativa. Quasi un intervistato su cinque ha dichiarato di non fidarsi dei fornitori di IA generativa per quanto riguarda la gestione responsabile del loro impatto ambientale. Tra gli utenti abituali di questi strumenti, il 10% ha espresso la volontà di pagare un premio per prodotti o servizi che danno priorità all’efficienza energetica e alla sostenibilità. È interessante notare che oltre un terzo (35%) degli intervistati ritiene che gli strumenti di IA generativa dovrebbero “ricordare attivamente” agli utenti il loro impatto ambientale. Sebbene questo sembri un piccolo passo, ha il potenziale di incoraggiare un uso più consapevole e di fare pressione sulle aziende affinché adottino tecnologie più ecologiche. Gli sforzi per affrontare la sfida ambientale Fortunatamente, alcune aziende e politici stanno iniziando ad affrontare questi problemi. Negli Stati Uniti, all’inizio di quest’anno è stato presentato l’Artificial Intelligence Environmental Impacts Act. La legge mira a standardizzare il modo in cui le aziende di intelligenza artificiale misurano e segnalano le emissioni di carbonio. Fornisce inoltre un quadro volontario per gli sviluppatori per valutare e divulgare l’impatto ambientale dei loro sistemi, spingendo il settore verso una maggiore trasparenza. Anche i principali attori dell’industria tecnologica si stanno facendo avanti. Aziende come Salesforce si sono espresse a favore di una legislazione che richieda metodi standardizzati per misurare e riportare l’impronta di carbonio dell’IA. Gli esperti indicano diversi modi pratici per ridurre l’impatto ambientale dell’IA generativa, tra cui l’adozione di hardware ad alta efficienza energetica, l’utilizzo di metodi di raffreddamento sostenibili nei data center e la transizione verso fonti di energia rinnovabili. Nonostante questi sforzi, l’urgenza di affrontare l’impatto ambientale dell’IA generativa rimane fondamentale. Come dice Uday Radia, proprietario di CloudNine PR: “L’IA generativa ha un enorme potenziale per migliorare le nostre vite, ma c’è una corsa contro il tempo per renderla più sostenibile prima che vada fuori controllo” Leggi di più su www.artificialintelligence-news.com
Prepararsi oggi alle normative sull’IA di domani

L’intelligenza artificiale sta rapidamente diventando onnipresente nei sistemi aziendali e negli ecosistemi IT, con un’adozione e uno sviluppo più rapidi di quanto ci si potesse aspettare. Oggi sembra che ovunque ci giriamo, gli ingegneri del software stiano costruendo modelli personalizzati e integrando l’IA nei loro prodotti, mentre i leader aziendali incorporano soluzioni alimentate dall’IA nei loro ambienti di lavoro. Tuttavia, l’incertezza sul modo migliore di implementare l’IA impedisce ad alcune aziende di agire. L’ultimo Digital Acceleration Index (DAI) di Boston Consulting Group, un’indagine globale condotta su 2.700 dirigenti, ha rivelato che solo il 28% afferma che la propria organizzazione è pienamente preparata alle nuove normative sull’IA. L’incertezza è esacerbata dalle normative sull’IA che arrivano in fretta e furia: la legge sull’IA dell’UE è in arrivo; l’Argentina ha pubblicato una bozza di piano sull’IA; il Canada ha emanato la legge sull’IA e sui dati; la Cina ha emanato una serie di normative sull’IA e i paesi del G7 hanno lanciato il “processo Hiroshima sull’IA” Le linee guida abbondano: l’OCSE sta sviluppando dei principi sull’IA, l’ONU ha proposto un nuovo organo consultivo sull’IA e l’amministrazione Biden ha pubblicato un progetto per una Carta dei Diritti dell’IA (anche se questo potrebbe cambiare rapidamente con la seconda amministrazione Trump). La legislazione è in arrivo anche nei singoli stati americani e compare in molti quadri industriali. Ad oggi, 21 Stati hanno emanato leggi per regolamentare in qualche modo l’uso dell’IA, tra cui il Colourado AI Act e le clausole del CCPA della California, mentre altri 14 Stati hanno leggi in attesa di approvazione. Nel frattempo, ci sono voci forti da entrambe le parti del dibattito sulla regolamentazione dell’IA. Un nuovo sondaggio di SolarWinds mostra che l ‘88% dei professionisti IT è favorevole a una regolamentazione più severa e una ricerca separata rivela che il 91% dei britannici vuole che il governo faccia di più per ritenere le aziende responsabili dei loro sistemi di IA. D’altra parte, i leader di oltre 50 aziende tecnologiche hanno recentemente scritto una lettera aperta in cui chiedono una riforma urgente delle pesanti normative dell’UE in materia di IA, sostenendo che esse soffocano l’innovazione. Si tratta certamente di un periodo difficile per i leader aziendali e gli sviluppatori di software, in quanto le autorità di regolamentazione si affannano per mettersi al passo con la tecnologia. È ovvio che vuoi approfittare dei vantaggi che l’IA può offrire, ma puoi farlo in modo da essere conforme a qualsiasi requisito normativo in arrivo e non ostacolare inutilmente il tuo utilizzo dell’IA mentre i tuoi rivali sono in vantaggio. Non abbiamo la sfera di cristallo, quindi non possiamo prevedere il futuro. Tuttavia, possiamo condividere alcune best practice per la creazione di sistemi e procedure che preparino il terreno per la conformità normativa dell’IA. Mappare l’utilizzo dell’IA nel tuo ecosistema più ampio Non puoi gestire l’utilizzo dell’IA da parte del tuo team se non ne sei a conoscenza, ma già questo può rappresentare una sfida significativa. Lo Shadow IT è già la piaga dei team di cybersecurity: I dipendenti si iscrivono a strumenti SaaS all’insaputa dei dipartimenti IT, lasciando un numero imprecisato di soluzioni e piattaforme con accesso ai dati e/o ai sistemi aziendali. Ora i team di sicurezza devono fare i conti anche con l’AI ombra. Molte app, chatbot e altri strumenti incorporano l’IA, l’apprendimento automatico (ML) o la programmazione del linguaggio naturale (NLP), senza che queste soluzioni siano necessariamente soluzioni di IA evidenti. Quando i dipendenti accedono a queste soluzioni senza un’autorizzazione ufficiale, introducono l’AI nei tuoi sistemi a tua insaputa. Come ha spiegato Henrique Fabretti Moraes, esperto di privacy di Opice Blum, “La mappatura degli strumenti in uso – o di quelli destinati all’uso – è fondamentale per comprendere e perfezionare le politiche di utilizzo accettabile e le potenziali misure di mitigazione per diminuire i rischi legati al loro utilizzo” Alcune normative ti ritengono responsabile dell’utilizzo dell’IA da parte dei fornitori. Per avere il pieno controllo della situazione, devi mappare tutta l’IA presente nei tuoi ambienti e in quelli delle tue organizzazioni partner. A questo proposito, l’utilizzo di uno strumento come Harmonic può essere utile per individuare l’utilizzo dell’IA nella catena di fornitura. Verifica la governance dei dati La privacy e la sicurezza dei dati sono le principali preoccupazioni di tutte le normative sull’IA, sia quelle già in vigore che quelle in procinto di essere approvate. L’utilizzo dell’IA deve già essere conforme alle leggi sulla privacy esistenti, come il GDPR e il CCPR, che richiedono di sapere a quali dati l’IA può accedere e cosa fa con i dati, e di dimostrare di avere delle linee guida per proteggere i dati utilizzati dall’IA. Per garantire la conformità, è necessario che la tua organizzazione si doti di solide regole di governance dei dati, gestite da un team definito e supportate da verifiche periodiche. Le tue politiche dovrebbero includere una due diligence per valutare la sicurezza dei dati e le fonti di tutti i tuoi strumenti, compresi quelli che utilizzano l’IA, per identificare le aree di potenziale pregiudizio e rischio per la privacy. “Le organizzazioni devono adottare misure proattive migliorando l’igiene dei dati, applicando una solida etica dell’IA e creando i team giusti per guidare questi sforzi”, ha dichiarato Rob Johnson, VP e Global Head of Solutions Engineering di SolarWinds. “Questo atteggiamento proattivo non solo aiuta a rispettare le normative in evoluzione, ma massimizza anche il potenziale dell’IA” Stabilisci un monitoraggio continuo per i tuoi sistemi di IA Un monitoraggio efficace è fondamentale per gestire qualsiasi area della tua azienda. Quando si tratta di IA, come per altre aree della cybersecurity, è necessario un monitoraggio continuo per assicurarsi di sapere cosa stanno facendo gli strumenti di IA, come si comportano e a quali dati stanno accedendo. È inoltre necessario sottoporli a verifiche periodiche per tenere sotto controllo l’utilizzo dell’IA nella propria organizzazione. “L’idea di utilizzare l’IA per monitorare e regolare altri sistemi di IA è uno sviluppo cruciale per garantire che questi sistemi siano efficaci ed etici”, ha dichiarato Cache Merrill, fondatore della società
Samsung presenta il modello Gauss2 AI alla SDC24 Corea

Samsung ha svelato Gauss2, il modello di AI proprietario di seconda generazione destinato a migliorare in modo significativo l’esperienza degli utenti. Paul Kyungwhoon Cheun, Presidente e CTO della divisione Device eXperience (DX), ha commentato: “Samsung Electronics è impegnata nello sviluppo di software all’avanguardia, tra cui l’intelligenza artificiale e l’analisi dei dati, per migliorare le esperienze degli utenti”. “Con tre modelli distinti, Samsung Gauss2 sta già incrementando la nostra produttività interna e abbiamo intenzione di integrarlo nei prodotti per offrire livelli più elevati di convenienza e personalizzazione” Samsung Gauss2: AI multimodale Gauss2 si basa sul modello interno di intelligenza artificiale generativa dello scorso anno e presenta progressi nella gestione del linguaggio, del codice e delle immagini. È disponibile in tre varianti: Compact, Balanced e Supreme, adatte alle diverse esigenze di calcolo. Compatto: Ottimizzato per ambienti con risorse di calcolo limitate, garantisce prestazioni efficaci anche sul dispositivo. Bilanciato: Raggiunge un equilibrio tra prestazioni, velocità ed efficienza; è adatto a una varietà di compiti. Supreme: incorpora la tecnologia Mixture of Experts (MoE) per ridurre al minimo i costi di calcolo e massimizzare l’efficienza e le prestazioni. Gauss2 è progettato per supportare da nove a quattordici lingue, a seconda del modello, e una serie di linguaggi di programmazione. Le tecniche di formazione personalizzate e il tokenizzatore di Samsung mirano a garantire la massima efficienza in tutte le lingue supportate. I nuovi modelli promettono una velocità di generazione delle risposte da 1,5 a 3 volte superiore rispetto alle principali alternative open-source, facilitando l’interazione immediata con l’intelligenza artificiale e riducendo al minimo i tempi di attesa. Personalizzazione e implementazione Il modello di intelligenza artificiale generativa di Samsung consente una più facile personalizzazione per applicazioni specifiche. Gauss2 supporta diverse attività di produttività ed è ampiamente adottato dagli sviluppatori Samsung. L’assistente di codifica “code.i”, potenziato da Gauss2, è ampiamente utilizzato all’interno della Divisione DX e dai team di ricerca internazionali, con il 60% degli sviluppatori che lo utilizzano regolarmente. Il Gauss Portal, un altro servizio di intelligenza artificiale alimentato da Gauss, migliora la produttività grazie a funzioni quali la sintesi e la traduzione dei documenti. Dal suo lancio, questo servizio di intelligenza artificiale si è espanso a livello internazionale, aiutando diverse attività d’ufficio. Da agosto, anche le operazioni dei call center beneficiano della categorizzazione e della sintesi guidata dall’intelligenza artificiale. In futuro, Samsung intende incrementare ulteriormente la produttività interna, migliorando servizi come code.i e potenziando le funzionalità di domande e risposte in linguaggio naturale del portale Gauss. Le funzionalità future includeranno operazioni multimodali, come l’analisi dei grafici e la creazione di immagini. aI per tutti La strategia di Samsung, “AI per tutti”, prevede l’incorporazione diffusa di servizi basati sull’AI in tutte le sue linee di prodotti. Combinando l’AI con la tecnologia dei grafi di conoscenza, Samsung prevede di offrire una personalizzazione ancora maggiore. Oltre a Gauss2, la conferenza ha ospitato presentazioni sullo sviluppo del software, tra cui i miglioramenti della piattaforma SmartThings. I partecipanti hanno partecipato a 29 sessioni tecniche che hanno riguardato: Il futuro dell’assistenza sanitaria all’interno dell’ecosistema sanitario di Samsung. Miglioramenti dell’esperienza SmartThings attraverso l’AI generativa. Approfondimenti sull’assistente di codifica Code.i AI. Innovazioni dei contenuti lifestyle per la TV. Soluzioni AI per gli elettrodomestici Samsung. La DSC24 Corea ha sottolineato la visione di Samsung di integrare l’AI in tutto il suo ecosistema. Leggi di più su www.artificialintelligence-news.com
OpenAI migliora la sicurezza dell’IA con nuovi metodi di red teaming

Una parte fondamentale del processo di salvaguardia di OpenAI è il “red teaming”, una metodologia strutturata che prevede l’impiego di partecipanti umani e AI per esplorare i potenziali rischi e le vulnerabilità dei nuovi sistemi. Storicamente, OpenAI si è impegnata in attività di red teaming prevalentemente attraverso test manuali, che prevedono l’impiego di persone che sondano i punti deboli. Questo metodo è stato utilizzato in particolare durante il test del modello di generazione di immagini DALL-E 2 all’inizio del 2022, dove esperti esterni sono stati invitati a identificare i potenziali rischi. Da allora, OpenAI ha ampliato e perfezionato le sue metodologie, incorporando approcci automatizzati e misti per una valutazione dei rischi più completa. “Siamo ottimisti sul fatto di poter utilizzare un’IA più potente per scalare la scoperta degli errori dei modelli”, ha dichiarato OpenAI. Questo ottimismo si basa sull’idea che i processi automatizzati possano aiutare a valutare i modelli e ad addestrarli a essere più sicuri, riconoscendo schemi ed errori su scala più ampia. Nella sua ultima iniziativa, OpenAI sta condividendo due importanti documenti sul red teaming: un white paper che illustra le strategie di coinvolgimento esterno e uno studio di ricerca che introduce un nuovo metodo per il red teaming automatizzato. Questi contributi mirano a rafforzare il processo e i risultati del red teaming, portando in ultima analisi a implementazioni di IA più sicure e responsabili. Con la continua evoluzione dell’IA, la comprensione delle esperienze degli utenti e l’identificazione di rischi come l’abuso e l’uso improprio sono fondamentali per i ricercatori e gli sviluppatori. Il red teaming fornisce un metodo proattivo per valutare questi rischi, soprattutto se integrato con le opinioni di una serie di esperti esterni indipendenti. Questo approccio non solo aiuta a stabilire dei parametri di riferimento, ma facilita anche il miglioramento delle valutazioni di sicurezza nel tempo. Il tocco umano Nel suo white paper “ OpenAI ‘s Approach to External Red Teaming for AI Models and Systems”, OpenAI ha condiviso quattro passi fondamentali per progettare campagne di red teaming efficaci: Composizione dei team rossi: La selezione dei membri del team si basa sugli obiettivi della campagna. Spesso si tratta di persone con prospettive diverse, come ad esempio esperti in scienze naturali, sicurezza informatica e politica regionale, per garantire che le valutazioni coprano l’ampiezza necessaria. Accesso alle versioni del modello: Chiarire a quali versioni di un modello avranno accesso i red team può influenzare i risultati. I modelli in fase iniziale possono rivelare i rischi intrinseci, mentre le versioni più sviluppate possono aiutare a identificare le lacune nelle misure di sicurezza previste. Guida e documentazione: Le interazioni efficaci durante le campagne si basano su istruzioni chiare, interfacce adeguate e una documentazione strutturata. Ciò comporta la descrizione dei modelli, delle protezioni esistenti, delle interfacce di test e delle linee guida per la registrazione dei risultati. Sintesi e valutazione dei dati: Dopo la campagna, i dati vengono valutati per determinare se gli esempi sono in linea con le politiche esistenti o se richiedono nuove modifiche comportamentali. I dati valutati informano poi le valutazioni ripetibili per gli aggiornamenti futuri. Una recente applicazione di questa metodologia ha riguardato la preparazione della famiglia di modelli OpenAI o1 per l’uso pubblico, testando la loro resistenza a potenziali abusi e valutando la loro applicazione in vari campi, come la pianificazione di attacchi reali, le scienze naturali e la ricerca sull’intelligenza artificiale. Red teaming automatizzato Il red teaming automatizzato cerca di identificare i casi in cui l’IA può fallire, in particolare per quanto riguarda le questioni legate alla sicurezza. Questo metodo eccelle su scala, generando rapidamente numerosi esempi di potenziali errori. Tuttavia, gli approcci automatizzati tradizionali hanno faticato a produrre strategie di attacco diversificate e di successo. La ricerca di OpenAI introduce “Diverse And Effective Red Teaming With Auto-Generated Rewards And Multi-Step Reinforcement Learning”, un metodo che incoraggia una maggiore diversità nelle strategie di attacco mantenendo l’efficacia. Questo metodo prevede l’utilizzo dell’intelligenza artificiale per generare diversi scenari, come ad esempio consigli illeciti, e l’addestramento di modelli di red teaming per valutare questi scenari in modo critico. Il processo premia la diversità e l’efficacia, promuovendo valutazioni di sicurezza più varie e complete. Nonostante i suoi vantaggi, il red teaming ha dei limiti. Cattura i rischi in un momento specifico, che possono evolvere con lo sviluppo dei modelli di intelligenza artificiale. Inoltre, il processo di red teaming può creare inavvertitamente dei pericoli informativi, mettendo potenzialmente in guardia gli attori malintenzionati da vulnerabilità non ancora ampiamente conosciute. La gestione di questi rischi richiede protocolli rigorosi e divulgazioni responsabili. Sebbene il red teaming continui a essere fondamentale per la scoperta e la valutazione dei rischi, OpenAI riconosce la necessità di incorporare prospettive pubbliche più ampie sui comportamenti e le politiche ideali dell’IA per garantire che la tecnologia si allinei ai valori e alle aspettative della società. Leggi di più su www.artificialintelligence-news.com
Le spese per l’intelligenza artificiale delle big tech raggiungono nuove vette

Nel 2024, la Big Tech punta tutto sull’intelligenza artificiale, con aziende come Microsoft, Amazon, Alphabet e Meta in testa. Si prevede che la loro spesa combinata per l’intelligenza artificiale supererà la sbalorditiva cifra di 240 miliardi di dollari. Perché? Perché l’intelligenza artificiale non è solo il futuro, ma anche il presente e la domanda di strumenti e infrastrutture basati sull’intelligenza artificiale non è mai stata così alta. Le aziende non si limitano a tenere il passo, ma stanno dettando il ritmo del settore. L’entità dei loro investimenti è difficile da ignorare. Nella prima metà del 2023, i giganti della tecnologia hanno investito 74 miliardi di dollari in spese di capitale. Nel terzo trimestre, questa cifra è salita a 109 miliardi di dollari. A metà del 2024, la spesa ha raggiunto i 104 miliardi di dollari, con un notevole aumento del 47% rispetto allo stesso periodo dell’anno precedente. Nel terzo trimestre, il totale ha raggiunto i 171 miliardi di dollari. Se questo schema continua, il quarto trimestre potrebbe aggiungere altri 70 miliardi di dollari, portando il totale a 240 miliardi di dollari per l’anno. Perché tanta spesa? Il potenziale dell’IA è immenso e le aziende si stanno assicurando di essere posizionate in modo da raccogliere i frutti. Un mercato in crescita: Si prevede che l’IA creerà un impatto economico globale di 20.000 miliardi di dollari entro il 2030. In paesi come l’India, l’IA potrebbe contribuire al PIL per 500 miliardi di dollari entro il 2025. Con una posta in gioco così alta, le big tech non esitano a investire pesantemente. Richieste di infrastrutture: L’addestramento e l’esecuzione di modelli di IA richiedono ingenti investimenti in infrastrutture, dai data center alle GPU ad alte prestazioni. Alphabet ha aumentato le spese in conto capitale del 62% nell’ultimo trimestre rispetto all’anno precedente, anche se ha ridotto la sua forza lavoro di 9.000 unità per gestire i costi. Potenziale di guadagno: L’IA sta già dimostrando il suo valore. Si prevede che i prodotti AI di Microsoft genereranno 10 miliardi di dollari all’anno, il segmento in più rapida crescita nella storia dell’azienda. Alphabet, invece, utilizza l’IA per scrivere oltre il 25% del suo nuovo codice, ottimizzando le operazioni. Anche Amazon si sta espandendo, con l’intenzione di spendere 75 miliardi di dollari in spese di capitale nel 2024. Le previsioni di Meta non sono molto lontane, con stime tra i 38 e i 40 miliardi di dollari. In generale, le organizzazioni riconoscono che per mantenere il proprio vantaggio nell’IA sono necessari investimenti sostenuti e significativi. Sostenere i flussi di reddito Ciò che fa sì che gli investimenti massicci continuino ad arrivare è la forza delle attività principali delle big tech. Lo scorso trimestre, la macchina pubblicitaria digitale di Alphabet, alimentata dal motore di ricerca di Google, ha generato 49,39 miliardi di dollari di entrate pubblicitarie, con un aumento del 12% rispetto all’anno precedente. Si tratta di una base solida che consente ad Alphabet di investire risorse nel potenziamento del suo arsenale di intelligenza artificiale senza destabilizzare i profitti. I flussi di entrate diversificati di Microsoft sono un altro esempio. Mentre l’azienda ha speso 20 miliardi di dollari per l’AI e l’infrastruttura cloud nell’ultimo trimestre, il suo segmento di produttività, che include Office, è cresciuto del 12% a 28,3 miliardi di dollari, e la sua attività di personal computing, spinta da Xbox e dall’acquisizione di Activision Blizzard, è cresciuta del 17% a 13,2 miliardi di dollari. Questi successi dimostrano come gli investimenti nell’intelligenza artificiale possano supportare strategie di crescita più ampie. Il guadagno finanziario Le grandi aziende tecnologiche stanno già vedendo i benefici dei loro ingenti investimenti. La piattaforma Azure di Microsoft ha registrato una crescita sostanziale, con un reddito da IA che si avvicina ai 6 miliardi di dollari. L’attività AI di Amazon sta crescendo a tripla cifra e Alphabet ha registrato un aumento del 34% dei profitti nell’ultimo trimestre, con le entrate del cloud che hanno giocato un ruolo fondamentale. Meta, pur concentrandosi principalmente sulla pubblicità, sta sfruttando l’intelligenza artificiale per rendere le sue piattaforme più coinvolgenti. Gli strumenti basati sull’intelligenza artificiale, come il miglioramento dei feed e delle funzioni di ricerca, fanno sì che gli utenti rimangano più a lungo sulle sue piattaforme, con conseguente crescita dei ricavi. La spesa per l’intelligenza artificiale non mostra segni di rallentamento. I leader tecnologici di Microsoft e Alphabet considerano l’IA un investimento a lungo termine fondamentale per il loro successo futuro. E i risultati parlano chiaro: Il fatturato cloud di Alphabet è aumentato del 35%, mentre il business cloud di Microsoft è cresciuto del 20% nell’ultimo trimestre. Per il momento, l’attenzione si concentra sulla scalabilità dell’infrastruttura e sulla soddisfazione della domanda. Tuttavia, la vera trasformazione avverrà quando la big tech libererà il pieno potenziale dell’AI, trasformando i settori e ridefinendo il modo in cui lavoriamo e viviamo. Investendo in strategie di dati centralizzate e di alta qualità, le aziende possono garantire implementazioni dell’IA affidabili e accurate e sbloccare il pieno potenziale dell’IA per guidare l’innovazione, migliorare il processo decisionale e ottenere un vantaggio competitivo. La promessa rivoluzionaria dell’IA è a portata di mano, ma solo per le aziende pronte a gettare le basi per una crescita sostenibile e risultati a lungo termine. Leggi di più su www.artificialintelligence-news.com
Aumenta il tuo ROI: L’impatto dei chatbot sul marketing

Scopri come i chatbot per il marketing possono aumentare il tuo ROI grazie a un maggiore coinvolgimento e a risposte immediate ai clienti. Cosa sono i chatbot? I chatbot sono applicazioni software automatizzate progettate per simulare una conversazione umana. Interagiscono con gli utenti attraverso il testo o la voce, fornendo risposte immediate e svolgendo diversi compiti. I chatbot AI sono in grado di comprendere ed elaborare il linguaggio naturale, consentendo loro di gestire domande complesse e di fornire informazioni o servizi pertinenti. I chatbot sono disponibili in varie forme, tra cui: Chatbot basati su regole: Rispondono a comandi specifici predeterminati dagli sviluppatori, Chatbot basati sull’intelligenza artificiale: Utilizzano l’apprendimento automatico e l’elaborazione del linguaggio naturale (NLP) per comprendere e adattarsi alle richieste degli utenti. L’importanza dei chatbot nel marketing I chatbot sono diventati una componente essenziale delle moderne strategie di marketing. Offrono agli addetti al marketing un modo per entrare in contatto con i consumatori in modo efficiente, migliorare l’esperienza dei clienti e semplificare le interazioni. Maggiore coinvolgimento dei clienti: I chatbot coinvolgono i clienti fornendo risposte immediate e interazioni personalizzate, disponibilità 24/7: Funzionano 24 ore su 24, assicurando che le richieste dei clienti vengano soddisfatte in qualsiasi momento, Efficienza dei costi: Riducono la necessità di un’ampia assistenza umana ai clienti, riducendo i costi operativi, Raccolta dati: Raccolgono dati e informazioni preziose sui clienti per migliorare le strategie di marketing, Aumento della lead generation: Facilitano la raccolta di contatti interagendo con i potenziali clienti e acquisendo le loro informazioni. I chatbot svolgono un ruolo fondamentale nel migliorare il coinvolgimento dei clienti. Offrono alle aziende un modo dinamico e interattivo di comunicare con il proprio pubblico, favorendo relazioni più forti e aumentando la soddisfazione. I chatbot possono rispondere rapidamente alle domande più comuni, offrire consigli e guidare i clienti nel processo di acquisto, creando un’esperienza più personalizzata. Una delle caratteristiche più apprezzabili dei chatbot è la loro capacità di operare 24 ore su 24. A differenza dei team di assistenza umana, i chatbot sono disponibili 24 ore su 24, 7 giorni su 7, garantendo ai clienti un’assistenza immediata a prescindere dall’ora del giorno. La disponibilità continua può migliorare notevolmente l’esperienza del cliente, portando a livelli più elevati di soddisfazione e fedeltà. L’implementazione dei chatbot nelle strategie di marketing non solo snellisce le operazioni, ma offre anche un’esperienza del cliente più coerente e soddisfacente. Il risultato è un aumento del coinvolgimento, della soddisfazione e dell’efficacia complessiva delle campagne di marketing. Implementare i chatbot nelle strategie di marketing L’integrazione dei chatbot nelle strategie di marketing può migliorare significativamente il coinvolgimento dei clienti e semplificare le attività di marketing in generale. Questa sezione approfondisce come i chatbot possono essere utilizzati per le interazioni personalizzate con i clienti e come facilitano la raccolta e l’analisi dei dati. I chatbot offrono un’opportunità unica per creare interazioni personalizzate con i clienti. Utilizzando l’intelligenza artificiale e l’apprendimento automatico, i chatbot possono personalizzare le risposte in base ai comportamenti, alle preferenze e alle interazioni passate degli utenti. L’approccio personalizzato può far sentire i clienti apprezzati e compresi, aumentandone la soddisfazione e la fedeltà. Aspetti chiave delle interazioni personalizzate con i clienti: Salutare gli utenti per nome: rivolgersi ai clienti per nome rende le interazioni più personali e coinvolgenti, Raccomandazioni su misura: In base alle interazioni precedenti, i chatbot possono consigliare prodotti, contenuti o servizi in linea con le preferenze individuali, Personalizzazione delle risposte: I chatbot possono adattare le loro risposte in base all’umore, alle scelte e agli schemi dell’utente. I chatbot sono importanti per raccogliere e analizzare i dati dei clienti. Le interazioni tra gli utenti e i chatbot generano preziose informazioni che possono essere utilizzate per ottimizzare le strategie di marketing. La raccolta di questi dati può aiutare le aziende a comprendere le esigenze, i modelli di comportamento e le preferenze dei clienti. Le aree principali in cui i chatbot aiutano nella raccolta e nell’analisi dei dati: Cronologia delle interazioni degli utenti: I chatbot memorizzano i registri delle conversazioni, fornendo informazioni sulle domande e sui problemi più comuni dei clienti, Dati demografici: La raccolta di informazioni come l’età, la posizione e gli interessi aiuta a segmentare il pubblico per un marketing mirato, Meccanismi di feedback: Raccogliere feedback direttamente attraverso le interazioni con i chatbot permette alle aziende di valutare la soddisfazione dei clienti e le aree di miglioramento. Nel campo del marketing, l’uso dei chatbot può aumentare in modo significativo il ritorno sugli investimenti (ROI). Due dei principali fattori che contribuiscono a questo aumento sono l’efficacia dei costi e la maggiore generazione di lead e conversioni. I chatbot offrono alle aziende un notevole risparmio sui costi. Automatizzando le interazioni con i clienti, le aziende possono ridurre la necessità di un team di assistenza clienti numeroso. Questo non solo riduce i costi operativi, ma snellisce anche i processi. L’investimento iniziale nella tecnologia dei chatbot è spesso compensato dai risparmi a lungo termine ottenuti grazie alla riduzione dei costi di manodopera e alla maggiore efficienza. Inoltre, i chatbot possono svolgere un ruolo fondamentale nella generazione di lead e nei tassi di conversione. Coinvolgendo gli utenti in tempo reale, i chatbot possono qualificare i contatti, fornire raccomandazioni personalizzate e guidare gli utenti attraverso l’imbuto di vendita. L’interazione immediata può migliorare l’esperienza dell’utente e portare a tassi di conversione più elevati. L’utilizzo dei chatbot per il marketing può portare a una maggiore efficienza, a una maggiore interazione con i clienti e, in definitiva, a un migliore ROI. Comprendendo e implementando queste tecnologie, le aziende possono migliorare le loro strategie di marketing e ottenere notevoli vantaggi economici. Leggi di più su www.artificialintelligence-news.com
Salesforce lancia una piattaforma AI per la gestione automatizzata delle attività

Il “CXO AI Playbook”di Business Insider analizza come le aziende utilizzano l’IA per affrontare le sfide, scalare le operazioni e pianificare il futuro. Il Playbook analizza storie di vari settori per vedere quali problemi l’IA sta risolvendo, chi sta guidando queste iniziative e come sta rimodellando le strategie. Salesforce, nota per il suo software CRM utilizzato da oltre 150.000 aziende come Amazon e Walmart, non è nuova all’innovazione. Possiede anche Slack, la popolare app per la comunicazione sul posto di lavoro. Ora Salesforce sta intensificando il suo gioco di intelligenza artificiale con Agentforce, una piattaforma che consente alle aziende di creare e distribuire agenti digitali per automatizzare attività come la creazione di report sulle vendite e il riassunto delle conversazioni su Slack. Quale problema sta risolvendo? Salesforce lavora da anni con l’intelligenza artificiale. Nel 2016 ha lanciato Einstein, una funzione AI integrata nella sua piattaforma CRM. Einstein si occupava di attività di base eseguibili tramite script, ma l’ascesa dell’IA generativa ha dato la possibilità di fare di più. Gli strumenti più intelligenti potevano ora prendere decisioni migliori e comprendere il linguaggio naturale. Questo ha dato il via a una trasformazione. Prima è arrivato Einstein GPT, poi Einstein Copilot e ora Agentforce, una piattaforma progettata per la flessibilità con agenti precostituiti e personalizzabili per gestire le diverse esigenze aziendali. “I nostri clienti volevano di più. Alcuni volevano modificare gli agenti che offriamo, mentre altri volevano crearne di propri”, ha dichiarato Tyler Carlson, VP of Business Development di Salesforce. La tecnologia alla base Agentforce si basa sul motore di ragionamento Atlas di Salesforce, sviluppato internamente. La piattaforma si connette con i modelli di intelligenza artificiale dei principali attori come OpenAI, Anthropic, Amazon e Google, offrendo alle aziende l’accesso a una serie di strumenti. Slack è diventato un terreno di prova per questi agenti AI. Attualmente in versione beta, l’integrazione di Agentforce con Slack mette le automazioni dove i dipendenti passano già il loro tempo. “Slack rende questi strumenti facili da usare e accessibili”, ha aggiunto Carlson. AI più intelligente e flessibile Agentforce utilizza il prompting ReAct, una tecnica che aiuta gli agenti a suddividere i problemi in fasi più piccole e a modificare il loro approccio man mano che procedono. In questo modo si ottengono risposte più precise e una gestione dei compiti più semplice, dalle risposte alle domande alla programmazione delle riunioni. Agentforce funziona con i LLM proprietari di Salesforce e con i modelli di terze parti, offrendo ai clienti un’ampia gamma di opzioni. Per garantire la sicurezza, Salesforce applica rigorose politiche sulla privacy dei dati, compresi i limiti di conservazione dei dati. Come farlo funzionare per le aziende Grazie a strumenti come Agentbuilder, le aziende possono progettare agenti AI su misura per le loro esigenze. Ad esempio, un agente potrebbe smistare le e-mail o rispondere a domande specifiche sulle risorse umane utilizzando i dati interni. Un esempio è la collaborazione tra Salesforce e Workday per creare un agente di assistenza AI per le domande dei dipendenti. Salesforce sta già vedendo i risultati: Agentforce ha risolto il 90% delle richieste dei clienti nei primi test. L’obiettivo? Un’adozione più ampia, più funzionalità e maggiori carichi di lavoro gestiti da questi agenti. “Stiamo creando un ecosistema più ampio di partner e competenze”, ha dichiarato Carlson. “Entro il prossimo anno, vogliamo che Agentforce diventi un must per le aziende” Leggi di più su www.artificialintelligence-news.com
