Uno studio dell’Università di Oxford identifica i momenti in cui è più probabile che si verifichino le allucinazioni della IA

Uno studio dell’Università di Oxford ha sviluppato un metodo per verificare quando i modelli linguistici sono “insicuri” dei loro risultati e rischiano di avere allucinazioni. Le “allucinazioni” dell’intelligenza artificiale si riferiscono al fenomeno per cui i modelli linguistici di grandi dimensioni (LLM) generano risposte fluenti e plausibili che non sono veritiere o coerenti. Le allucinazioni sono difficili, se non impossibili, da separare dai modelli di IA. Sviluppatori di IA come OpenAI, Google e Anthropic hanno tutti ammesso che le allucinazioni rimarranno probabilmente un sottoprodotto dell’interazione con l’IA. Come spiega ilDr. Sebastian Farquhar, uno degli autori dello studio, inun post sul blog, “I LLM sono altamente capaci di dire la stessa cosa in molti modi diversi, il che può rendere difficile capire quando sono certi di una risposta e quando stanno letteralmente inventando qualcosa ” IlCambridge Dictionary ha persino aggiunto una definizione di AI alla parola nel 2023 e l’ha nominata “Parola dell’anno ” La domanda a cui questo studio dell’Università di Oxford ha cercato di rispondere è: cosa succede davvero quando un LLM ha le allucinazioni? E come possiamo capire quando è probabile che accada? Lo studio, pubblicato su Nature, introduce un concetto chiamato “entropia semantica”, che misura l’incertezza dei risultati di un LLM a livello di significato piuttosto che di parole o frasi specifiche utilizzate. Calcolando l’entropia semantica delle risposte di un LLM, i ricercatori possono stimare la fiducia del modello nei suoi risultati e identificare i casi in cui è probabile che abbia delle allucinazioni. L’entropia semantica nei LLM L’entropia semantica, come definita dallo studio, misura l’incertezza o l’incoerenza del significato delle risposte di un LLM. Aiuta a capire quando un LLM potrebbe avere delle allucinazioni o generare informazioni inaffidabili. In termini più semplici, l’entropia semantica misura quanto sia “confuso” l’output di un LLM. È probabile che il LLM fornisca informazioni affidabili se i significati sono strettamente correlati e coerenti. Ma se i significati sono sparsi e incoerenti, è un segnale di allarme che indica che il LLM potrebbe avere delle allucinazioni o generare informazioni imprecise. Ecco come funziona: I ricercatori hanno sollecitato attivamente il LLM a generare diverse possibili risposte alla stessa domanda. Ciò avviene somministrando la domanda all’LLM più volte, ogni volta con un seme casuale diverso o una leggera variazione dell’input. L’entropia semantica esamina le risposte e raggruppa quelle che hanno lo stesso significato di fondo, anche se utilizzano parole o frasi diverse. Se il LLM è sicuro della risposta, le sue risposte dovrebbero avere significati simili, con un conseguente basso punteggio di entropia semantica. Questo suggerisce che il LLM comprende in modo chiaro e coerente le informazioni. Tuttavia, se il LLM è incerto o confuso, le sue risposte avranno una maggiore varietà di significati, alcuni dei quali potrebbero essere incoerenti o non correlati alla domanda. Ciò si traduce in un punteggio di entropia semantica elevato, che indica che il LLM potrebbe avere allucinazioni o generare informazioni inaffidabili. I ricercatori hanno applicato l’entropia semantica a una serie di compiti di risposta alle domande per valutarne l’efficacia. Sitrattava di parametri di riferimento come domande di curiosità, comprensione della lettura, problemi con le parole e biografie. In tutti i casi, l’entropia semantica ha superato i metodi esistenti per individuare quando è probabile che un LLM generi una risposta errata o incoerente. Nel diagramma qui sopra puoi vedere come alcune richieste spingano il LLM a generare una risposta confabulata (imprecisa). Ad esempio, produce un giorno e un mese di nascita quando non sono stati forniti nelle informazioni iniziali. Implicazioni del rilevamento delle allucinazioni Questo lavoro può aiutare a spiegare le allucinazioni e a rendere le LLM più affidabili e attendibili. Fornendo un modo per rilevare quando un LLM è incerto o tendente all’allucinazione, l’entropia semantica apre la strada all’impiego di questi strumenti di IA in settori ad alta concentrazione in cui l’accuratezza dei fatti è fondamentale, come la sanità, la legge e la finanza. I risultati errati possono avere un impatto potenzialmente catastrofico quando influenzano situazioni ad alto rischio, come dimostrano alcuni sistemi predittivi di polizia e di assistenza sanitaria che hanno fallito. Tuttavia, è anche importante ricordare che le allucinazioni sono solo un tipo di errore che i LLM possono commettere. Come spiega il Dr. Farquhar, “se un LLM commette errori costanti, questo nuovo metodo non li coglie. I fallimenti più pericolosi dell’IA si verificano quando un sistema fa qualcosa di sbagliato ma è sicuro e sistematico. C’è ancora molto lavoro da fare” Tuttavia, il metodo dell’entropia semantica del team di Oxford rappresenta un importante passo avanti nella nostra capacità di comprendere e mitigare i limiti dei modelli linguistici dell’IA. Fornire un mezzo oggettivo per individuarli ci avvicina a un futuro in cui potremo sfruttare il potenziale dell’IA assicurandoci che rimanga uno strumento affidabile e degno di fiducia al servizio dell’umanità. Leggi di più su dailyai.com
OpenAI dice che GPT-5 avrà un livello di intelligenza paragonabile a un PhD

La prossima grande evoluzione di ChatGPT è stata vociferata per molto tempo. GPT-5, o qualsiasi altra cosa verrà chiamato, è stato menzionato in modo vago molte volte nell’ultimo anno, ma ieri, Mira Murati, Chief Technology Officer di OpenAI, ha fornito un po’ di chiarezza in più sulle sue capacità. In un’ intervista con Dartmouth Engineering che è stata pubblicata su X (ex Twitter), Murati descrive il salto da GPT-4 a GPT-5 come qualcuno che passa da un liceale all’università. “Se guardi la traiettoria del miglioramento, sistemi come GPT-3 avevano forse un’intelligenza da bambino piccolo”, dice Murati. “E poi sistemi come GPT-4 sono più come un’intelligenza da liceale intelligente. E poi, nei prossimi due anni, stiamo guardando all’intelligenza da dottorato per compiti specifici. Le cose stanno cambiando e migliorando molto rapidamente.” Mira Murati: GPT-3 was toddler-level, GPT-4 was a smart high schooler and the next gen, to be released in a year and a half, will be PhD-level pic.twitter.com/jyNSgO9Kev — Tsarathustra (@tsarnick) Giugno 20, 2024 Interessante, l’intervistatore le ha chiesto di specificare la tempistica, chiedendole se sarebbe arrivata nel prossimo anno. Murati annuisce e poi precisa che sarebbe stato tra un anno e mezzo. Se è vero, GPT-5 potrebbe non uscire prima della fine del 2025 o dell’inizio del 2026. Alcuni saranno delusi di sapere che il prossimo grande passo è così lontano. Dopotutto, le prime voci sul momento di lancio di GPT-5 erano che sarebbe stato alla fine del 2023. E poi, quando questo non si è verificato, i rapporti indicavano che sarebbe stato lanciato questa estate. Si è scoperto che era GPT-4o, che è stato un rilascio impressionante, ma non è stato il tipo di salto di funzione nell’intelligenza a cui Murati si riferisce qui. In termini di affermazione sull’intelligenza, conferma ciò che è stato detto su GPT-5 in passato. Kevin Scott, CTO di Microsoft, afferma che i sistemi AI di prossima generazione saranno “in grado di superare gli esami di dottorato” grazie a migliori operazioni di memoria e ragionamento. Murati ammette che l’intelligenza “a livello di dottorato” si applica solo ad alcuni compiti. “Questi sistemi sono già a livello umano in compiti specifici e, naturalmente, in molti compiti, non lo sono”, dice. Leggi di più su www.digitaltrends.com
xAI si assicura il supporto di Dell e Super Micro per il progetto del supercomputer

La startup di Elon Musk, xAI, ha appena annunciato che si affiderà a Dell e Super Micro per i rack di server a supporto del suo gigantesco progetto di supercomputer. Musk ha annunciato questa collaborazione sulla sua piattaforma di social media, X, segnando uno sviluppo chiave nell’obiettivo di xAI di assemblare quello che ha ripetutamente definito “il più grande supercomputer del mondo” I rack di server sono parte integrante dell’infrastruttura di calcolo ad alte prestazioni, in quanto forniscono lo scheletro necessario per immagazzinare e organizzare i vari componenti di calcolo necessari per le operazioni dei supercomputer. Queste stanze ingegnerizzate sono progettate per promuovere un’efficienza e un flusso d’aria ottimali – cosa di vitale importanza nel mondo del supercalcolo – sfruttando lo spazio limitato del pavimento. I rack di server, come quelli utilizzati in Grok di xAI per l’addestramento di modelli di intelligenza artificiale su larga scala, sono componenti essenziali dell’infrastruttura di server che supportano l’immensa potenza di calcolo necessaria per questi carichi di lavoro. Per questi progetti sono necessarie centinaia di migliaia di chip AI ad alta potenza per raggiungere la scala desiderata e i cicli di produzione disponibili nelle fonderie di semiconduttori sono insufficienti. il progetto di xAI è enorme, quindi la gestione del calore è stata particolarmente impegnativa su questa scala. La tecnologia attuale non è abbastanza veloce e i supercomputer, che possono eseguire calcoli migliaia di volte più velocemente, si surriscaldano a tal punto che i chip al loro interno degradano le prestazioni nel tempo. Questo problema è aggravato dalla necessità di migliaia di chip di intelligenza artificiale che consumano energia, necessari per addestrare modelli di intelligenza artificiale più avanzati come Grok di xAI. Dettagli della partnership: I ruoli di Dell e Super Micro Secondo Musk, Dell Technologies sarà responsabile dell’assemblaggio di metà dei rack per il supercomputer di xAI. Super Micro Computer, chiamata da Musk “SMC”, fornirà la metà restante. Super Micro, nota per i suoi stretti legami con aziende produttrici di chip come Nvidia e per la sua esperienza nella tecnologia di raffreddamento a liquido, ha confermato a Reuters questa partnership. Super Micro, con sede a San Francisco, è famosa per i suoi approcci innovativi alla progettazione dei server, in particolare per la sua tecnologia di raffreddamento a liquido. Questa tecnologia è fondamentale per gestire il calore estremo generato dai sistemi informatici ad alte prestazioni, consentendo un funzionamento più efficiente e prolungando potenzialmente la durata dei componenti. In uno sviluppo correlato, il CEO di Dell Michael Dell ha annunciato su X che l’azienda sta collaborando con Nvidia per costruire una “fabbrica di AI” che alimenterà la prossima versione del chatbot di xAI, Grok. Questa collaborazione sottolinea le grandi risorse computazionali che l’addestramento di modelli avanzati di AI richiede. Musk ha già dichiarato che l’addestramento del modello Grok 2 ha richiesto circa 20.000 unità di elaborazione grafica (GPU) Nvidia H100 e le versioni future potrebbero richiedere fino a 100.000 di questi chip. Secondo The Information, il supercomputer proposto dovrebbe essere operativo entro l’autunno del 2025. Sia Dell Technologies che Super Micro Computer apportano a questo progetto una vasta esperienza e competenza. Dell è da decenni un fornitore affidabile di server e infrastrutture per centri dati, che alimenta molte delle più grandi piattaforme di cloud computing e strutture di supercomputing del mondo, come il supercomputer Frontera del Texas Advanced Computing Center. Super Micro si è affermata come leader nella fornitura di soluzioni server ad alte prestazioni ed efficienza energetica. Le sue innovazioni nel raffreddamento a liquido e nelle architetture dei server blade sono ampiamente utilizzate da fornitori di cloud, aziende e istituti di ricerca per carichi di lavoro impegnativi come l’AI e il calcolo ad alte prestazioni. Implicazioni per le tecnologie di AI e supercomputing La collaborazione tra xAI, Dell Technologies e Super Micro Computer rappresenta una pietra miliare significativa per il progresso delle tecnologie di AI e supercomputing. Con l’avanzare del progetto, è probabile che si spingano i confini del calcolo ad alte prestazioni e si contribuisca alla rapida evoluzione delle capacità dell’intelligenza artificiale. Questa partnership evidenzia anche la crescente importanza dell’hardware specializzato nel settore dell’IA. Man mano che i modelli di IA diventano sempre più complessi e ad alta intensità di dati, si prevede che la domanda di soluzioni di calcolo ad alte prestazioni continuerà ad aumentare, rimodellando potenzialmente il panorama dell’industria tecnologica nei prossimi anni. Vedi anche: Dell, Intel e l’Università di Cambridge mettono in campo il supercomputer AI più veloce del Regno Unito Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi di spicco come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: intelligenza artificiale, dell, elon musk, supercomputer Leggi di più su www.artificialintelligence-news.com
Il lancio della suite “Apple Intelligence” di Apple è posticipato dall’UE

Alla Worldwide Developers Conference (WWDC) di Apple è stata presentata “Apple Intelligence”, una suite di funzioni AI progettate per trasformare l’esperienza dell’iPhone. Al centro di Apple Intelligence c’è un modello di intelligenza artificiale leggero ma potente, con tre miliardi di parametri. Sebbene sia inferiore agli attuali modelli linguistici, che si avvicinano a trilioni di parametri, il modello AI di Apple opera direttamente sull’iPhone per un’elaborazione dei dati privata e a bassa latenza. Contemporaneamente, ChatGPT gestirà compiti più complessi grazie alla partnership a sorpresadi Apple con OpenAI. Una delle caratteristiche principali di Apple Intelligence è la sua capacità di riscrivere e-mail e messaggi, adattando le risposte allo stile e al tono unico dell’utente. Può anche riassumere lunghe chat di gruppo e dare priorità alle notifiche in base alle abitudini dell’utente. Questi sistemi di intelligenza artificiale servono anche a migliorare Siri, che ora è in grado di avviare conversazioni più naturali e consapevoli del contesto, comprendendo le richieste associate ai dati presenti sul dispositivo. Così, ad esempio, se qualcuno ti invia una canzone, puoi dire qualcosa come: “Siri, riproduci la canzone che mi ha mandato un mio amico l’altro giorno” Oppure: “Siri, parlami dell’incarico che il mio capo mi ha mandato ieri” L’era dei “dispositivi AI” è già iniziata: Google, Samsung e altri stanno lavorando per rendere disponibili a tutti diverse funzioni AI. Tuttavia, il tentativo di Apple sembra penetrare ulteriormente nel modo in cui utilizziamo i nostri dispositivi e, per estensione, i nostri dati. Quando Apple e OpenAI hanno annunciato la loro partnership, Elon Musk è stato tra i primi a sottolineare come OpenAI potrebbe trarre vantaggio da questa collaborazione. pic.twitter.com/7OgZAAdPf6 – Elon Musk (@elonmusk) 10 giugno 2024 Apple e OpenAI si sono affrettati ad affermare che ciò non avverrà: “Le protezioni per la privacy sono integrate quando si accede a ChatGPT all’interno di Siri e degli Strumenti di scrittura: le richieste non vengono memorizzate da OpenAI e gli indirizzi IP degli utenti vengono oscurati” Ritardo dell’UE e preoccupazioni normative Apple ha poi annunciato che almeno tre funzioni chiave dell’AI – Phone Mirroring, SharePlay Screen Sharing e Apple Intelligence – non saranno accessibili agli utenti dell’Unione Europea fino al 2025. Ciò deriva dalle preoccupazioni legate al Digital Markets Act (DMA) dell’UE, che mira a promuovere la concorrenza leale e l’interoperabilità tra le piattaforme digitali. In sostanza,il DMA impone alle grandi aziende tecnologiche come Apple di garantire che i loro prodotti funzionino bene con i loro concorrenti. Apple teme che rendere compatibili le sue funzioni AI con le piattaforme rivali possa mettere a rischio la sicurezza dei dati degli utenti. Apple ha rilasciato una dichiarazione in cui si impegna a collaborare con la Commissione Europea per trovare una soluzione che le permetta di distribuire i suoi nuovi strumenti ai clienti dell’UE senza compromettere la loro sicurezza. L’UE: agisce in modo equo o è un’ingorda punizione? Apple non è l’unica azienda tecnologica che si è scontrata con l’UE ultimamente. Meta ha recentemente annullato il lancio di Meta AI in Europa dopo aver affrontato le obiezioni delle autorità di regolamentazione dell’UE e dei sostenitori della privacy in merito al suo piano di addestramento di modelli AI con i dati degli utenti di Facebook e Instagram. Meta intendeva aggiornare i propri termini di servizio per consentire l’utilizzo dei post degli utenti dell’UE sui social media a scopo di addestramento, ma la decisione è stata accolta con una rapida reazione. In risposta, Meta ha fatto marcia indietro, dichiarando che non utilizzerà i post dei social media dell’UE per addestrare i suoi modelli di intelligenza artificiale e, come Apple, ritarderà il lancio dei suoi nuovi prodotti. La dichiarazione di Meta recitava: “Saremmo in grado di offrire alle persone solo un’esperienza di secondo piano. Questo significa che al momento non siamo in grado di lanciare Meta AI in Europa” Da un lato, l’UE è fortemente impegnata a tutelare i cittadini e a tenere sotto controllo le grandi tecnologie. Dall’altro lato, ci sono preoccupazioni legittime che lo zelo normativo dell’UE possa ritorcersi contro. Stiamo assistendo all’evidenza che gli strumenti di IA sono materialmente più difficili da immettere sul mercato nell’UE e le aziende potrebbero cercare pascoli più verdi in regioni con regole più accomodanti. È importante? Dipende dal tuo punto di vista. Al momento,aziende fiorenti come la francese Mistral stanno rafforzando la voce dell’Europa nel settore dell’IA generativa . È difficile immaginare che qualcuno sia troppo scontento di non vedere i propri dati sui social media consumati da Meta o di aspettare qualche mese per l’intelligenza di Apple. In effetti, i clienti dell’UE sono già abituati a vedere la tecnologia arrivare nel continente molto tempo dopo gli Stati Uniti, con l’Apple Vision Pro che dovrebbe essere rilasciato a giugno. Tuttavia, l’imminente legge sull’intelligenza artificiale porrà alle aziende tecnologiche un altro ostacolo da negoziare, che si preannuncia già un po’ complicato. Leggi di più su dailyai.com
Ai news: Inversioni a U, elefanti parlanti e Grande Fratello AI

Benvenuti alla carrellata di notizie sull’intelligenza artificiale di questa settimana. Questa settimana l’IA ha origliato gli elefanti. Le grandi aziende tecnologiche hanno interrotto i loro piani sull’IA. E il Grande Fratello ha ricevuto una spinta dall’intelligenza artificiale per tenerti d’occhio più da vicino. Approfondiamo. L’IA frena Dopo un duro contraccolpo da parte degli esperti di sicurezza, Microsoft ha deciso di non distribuire la controversa funzione Recall con i suoi nuovi PC Copilot. Un alto dirigente ha assicurato al Congresso che l’azienda ora dà priorità alla sicurezza rispetto all’intelligenza artificiale. Anche Meta ha fatto un’inversione di rotta questa settimana, facendo marcia indietro sull’utilizzo dei dati dei social media dell’UE per addestrare la sua IA. In una risposta a tono, Meta ha praticamente detto agli utenti dell’UE: “Se non possiamo usare i tuoi dati, allora non avrai Meta AI” Piagnistei. Le aziende di IA si sorprendono quando gli utenti e le autorità di regolamentazione mettono in dubbio la loro gestione dei rischi dell’IA. I catastrofisti stanno esagerando? Forse. Ma una ricerca condotta da Anthropic ha mostrato come i modelli di IA possano sviluppare una tendenza emergente a imbrogliare, mentire e giocare con il sistema per ottenere ricompense. via GIPHY AI Dr. Doolittle I ricercatori hanno utilizzato l’intelligenza artificiale per esplorare il modo in cui gli elefanti comunicano e hanno scoperto che usano i nomi quando si rivolgono gli uni agli altri, proprio come fanno le persone. Questa e altre ricerche correlate sollevano alcune domande interessanti. Potremmo usare l’intelligenza artificiale per comunicare con gli animali? Dovremmo? Ci sono argomenti sorprendenti su entrambi i fronti del dibattito etico. Gli esseri umani potrebbero avere bisogno di aiuto per comunicare tra loro. Se lavori nel settore dei servizi, l’intelligenza artificiale potrebbe aiutarti a gestire il tuo prossimo cliente irascibile. Un’azienda giapponese ha sviluppato una soluzione di “annullamento delle emozioni” per aiutare gli operatori dei call center a gestire i clienti arrabbiati. Guardare l’IA che ti osserva L’intelligenza artificiale ci renderà più sicuri? Le telecamere alimentate dall’intelligenza artificiale hanno suscitato preoccupazioni per la privacy, in quanto continuano a spuntare in un numero sempre maggiore di spazi pubblici per sorvegliarci. Alcune delle cose che il sistema Rekognition di Amazon rileva nelle stazioni ferroviarie del Regno Unito sembrano più che inquietanti. In una mossa che sembra uscita direttamente da un libro di testo sul Grande Fratello, OpenAI ha nominato l’ex capo della NSA Paul Nakasone nel suo consiglio di amministrazione. L’uomo che ha spinto per il diritto di spiare le persone e ha chiesto alle aziende tecnologiche di aiutare la NSA a farlo, ora è nel consiglio di amministrazione della più grande azienda di intelligenza artificiale. Sembra legittimo. La porta girevole di OpenAI ha visto il co-fondatore Ilya Sutskever lasciare l’azienda il mese scorso. Sutskever ritiene che la superintelligenza dell’IA sia a portata di mano e questa settimana ha fondato una nuova azienda per crearla in modo sicuro. Una cosa che non pensava che OpenAI fosse in grado di fare, o disposta a fare. Come possiamo far funzionare tutto questo? Un rapporto del FMI afferma che ci sono buone e cattive notizie riguardo all’IA e al tuo lavoro. L’IA ha un notevole potenziale di spinta alla produttività, ma potrebbe anche portare a una massiccia perdita di posti di lavoro. Ilrapporto offre spunti interessanti su chi è più a rischio e su cosa devono fare i governi per attutire il colpo. Papa Francesco si è rivolto ai leader mondiali sull’etica dell’IA in occasione del G7 in Italia. Ha espresso opinioni forti su come conciliare i benefici dell’IA con l’etica della società. La versione breve del suo discorso è: “Non lasciate che l’IA prenda tutte le nostre decisioni e vietate i robot assassini” Mi sembra un inizio ragionevole. I video con l’intelligenza artificiale migliorano e peggiorano I generatori di video da testo (T2V) sono stati un ottimo barometro per i progressi dell’intelligenza artificiale. Ci hanno fornito una rappresentazione visiva dei progressi dell’intelligenza artificiale. Poco più di un anno fa, abbiamo visto l’orribile video generato dall’intelligenza artificiale di Will Smith che mangiava spaghetti. La scorsa settimana abbiamo visto le dimostrazioni di Luma e Kling e il confronto è ridicolo. L’esponenziale continua. Le leggi di scala si sono mantenute per *15* ordini di grandezza.. …eppure le persone continuano a sorprendersi, a causa della cecità da pendenza esponenziale https://t.co/IbogcBYspQ pic.twitter.com/TSnjxRKlI1 – AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 10 giugno 2024 Questa settimana Runway ha presentato il suo generatore iperrealistico Gen 3 Alpha T2V e le demo sono ancora migliori di questi strumenti. La fisica e il controllo dell’angolo di ripresa sembrano incredibili. Con il miglioramento dell’IA generativa, è inevitabile che alcune persone la utilizzino per creare contenuti poco chiari. Le autorità australiane stanno indagando su un incidente di deep fake avvenuto in una scuola di Melbourne, dato che gli incidenti di deep fake che prendono di mira bambini piccoli sono diventati sempre più comuni. Medici AI L’intelligenza artificiale sta dando una spinta all’assistenza sanitaria con progressi significativi nell’aiutare i medici a diagnosticare i pazienti. OpenAI e Color Health hanno collaborato a un progetto per accelerare il trattamento del cancro. Uno strumento di copilot alimentato da GPT-4o sta aiutando i medici a sviluppare piani di cura personalizzati per il cancro a un ritmo che altrimenti non sarebbe possibile. Il trattamento del morbo di Parkinson rimane una sfida, ma un nuovo test del sangue alimentato dall’intelligenza artificiale potrebbe aiutare a individuare più precocemente la malattia. Un team di ricerca ha scoperto che può prevedere il morbo di Parkinson con un’accuratezza del 79% fino a sette anni prima che i sintomi si manifestino. Altre notizie.. Ecco altre storie di AI degne di nota che abbiamo apprezzato questa settimana: ✍️ Prompt per l’audio: “Un batterista su un palco durante un concerto circondato da luci lampeggianti e da una folla acclamante”. pic.twitter.com/z0N8sbbsEU – Google DeepMind (@GoogleDeepMind) 17 giugno 2024 E questo è quanto. Dovremmo usare l’intelligenza artificiale per comunicare con gli animali? Se trovassimo un modo per farlo, gli animali potrebbero dire qualcosa di interessante su ciò che stiamo
Claude 3.5 Sonnet di Anthropic batte GPT-4o nella maggior parte dei benchmark

Anthropic ha lanciato Claude 3.5 Sonnet, il suo modello di fascia media che supera la concorrenza e persino l’attuale Claude 3 Opus, il modello di punta di Anthropic, in diverse valutazioni. Claude 3.5 Sonnet è ora accessibile gratuitamente su Claude.ai e sull’app Claude iOS, con limiti tariffari più elevati per gli abbonati ai piani Claude Pro e Team. È disponibile anche attraverso Anthropic API, Amazon Bedrock e Vertex AI di Google Cloud. Il prezzo del modello è di 3 dollari per milione di token in ingresso e 15 dollari per milione di token in uscita, con una finestra contestuale di 200.000 token. Anthropic sostiene che Claude 3.5 Sonnet “stabilisce nuovi parametri di riferimento nel settore per quanto riguarda il ragionamento a livello di laurea (GPQA), la conoscenza a livello di laurea (MMLU) e la competenza di codifica (HumanEval)” Il modello dimostra di essere in grado di comprendere meglio le sfumature, l’umorismo e le istruzioni complesse, eccellendo nella produzione di contenuti di alta qualità con un tono naturale. Operando a una velocità doppia rispetto a Claude 3 Opus, Claude 3.5 Sonnet è adatto a compiti complessi come l’assistenza clienti sensibile al contesto e l’orchestrazione di flussi di lavoro in più fasi. In una valutazione interna di codifica agenziale, ha risolto il 64% dei problemi, superando in modo significativo Claude 3 Opus che ha raggiunto il 38%. Il modello dimostra anche di aver migliorato le capacità di visione, superando Claude 3 Opus nei benchmark di visione standard. Questo miglioramento è particolarmente evidente nei compiti che richiedono un ragionamento visivo, come l’interpretazione di grafici e diagrammi. Claude 3.5 Sonnet è in grado di trascrivere accuratamente il testo da immagini imperfette, una caratteristica preziosa per settori come la vendita al dettaglio, la logistica e i servizi finanziari. Oltre al lancio del modello, Anthropic ha presentato Artifacts on Claude.ai, una nuova funzione che migliora l’interazione degli utenti con l’IA. Questa funzione consente agli utenti di visualizzare, modificare e sviluppare i contenuti generati da Claude in tempo reale, creando un ambiente di lavoro più collaborativo. Nonostante il significativo salto di intelligenza, Claude 3.5 Sonnet mantiene l’impegno di Anthropic per la sicurezza e la privacy. L’azienda dichiara: “I nostri modelli sono sottoposti a test rigorosi e sono stati addestrati per ridurre gli abusi” Esperti esterni, tra cui l’Istituto britannico per la sicurezza dell’AI (UK AISI) e gli esperti di sicurezza dei bambini di Thorn, hanno partecipato ai test e al perfezionamento dei meccanismi di sicurezza del modello. Anthropic sottolinea la sua dedizione alla privacy degli utenti, affermando: “Non addestriamo i nostri modelli generativi sui dati inviati dagli utenti, a meno che questi non ci diano il permesso esplicito di farlo. Ad oggi non abbiamo utilizzato dati inviati da clienti o utenti per addestrare i nostri modelli generativi” In prospettiva, Anthropic prevede di rilasciare Claude 3.5 Haiku e Claude 3.5 Opus più avanti nel corso dell’anno per completare la famiglia di modelli Claude 3.5. L’azienda sta inoltre sviluppando nuove modalità e funzionalità per supportare un maggior numero di casi d’uso aziendali, tra cui l’integrazione con le applicazioni aziendali e una funzione di memoria per un’esperienza utente più personalizzata. Leggi di più su www.artificialintelligence-news.com
Meta presenta cinque modelli di intelligenza artificiale per l’elaborazione multimodale, la generazione di musica e altro ancora

Meta ha presentato cinque nuovi importanti modelli e ricerche sull’IA, tra cui sistemi multimodali in grado di elaborare sia testo che immagini, modelli linguistici di nuova generazione, generazione di musica, rilevamento del parlato e sforzi per migliorare la diversità nei sistemi di IA. Questi rilasci provengono dal team Fundamental AI Research (FAIR) di Meta, che da oltre un decennio si concentra sul progresso dell’IA attraverso la ricerca e la collaborazione aperta. Con la rapida innovazione dell’IA, Meta ritiene che la collaborazione con la comunità globale sia fondamentale. “Condividendo pubblicamente questa ricerca, speriamo di ispirare le iterazioni e, in ultima analisi, di contribuire a far progredire l’IA in modo responsabile”, ha dichiarato Meta. Chameleon: Elaborazione multimodale di testi e immagini Tra i rilasci vi sono i componenti chiave dei modelli “Chameleon” di Meta con licenza di ricerca. Chameleon è una famiglia di modelli multimodali in grado di comprendere e generare contemporaneamente testo e immagini, a differenza della maggior parte dei modelli linguistici di grandi dimensioni che sono tipicamente unimodali. “Proprio come gli esseri umani sono in grado di elaborare parole e immagini contemporaneamente, Chameleon è in grado di elaborare e fornire immagini e testi allo stesso tempo”, ha spiegato Meta. “Chameleon può ricevere in ingresso qualsiasi combinazione di testo e immagini e produrre qualsiasi combinazione di testo e immagini” I potenziali casi d’uso sono praticamente illimitati, dalla generazione di didascalie creative alla creazione di nuove scene con testo e immagini. Predizione multi-token per una formazione più rapida dei modelli linguistici Meta ha anche rilasciato modelli pre-addestrati per il completamento del codice che utilizzano la “predizione multi-token” con una licenza di ricerca non commerciale. L’addestramento tradizionale dei modelli linguistici è inefficiente perché prevede solo la parola successiva. I modelli multi-token possono prevedere simultaneamente più parole future per addestrarsi più velocemente. “Sebbene l’approccio a una sola parola sia semplice e scalabile, è anche inefficiente. Richiede diversi ordini di grandezza di testo in più rispetto a quello di cui hanno bisogno i bambini per imparare lo stesso livello di fluidità linguistica”, ha detto Meta. JASCO: Modello di testo-musica migliorato Per quanto riguarda l’aspetto creativo, JASCO di Meta permette di generare clip musicali a partire dal testo, offrendo un maggiore controllo grazie all’accettazione di input come accordi e battute. “Mentre i modelli text-to-music esistenti, come MusicGen, si basano principalmente su input testuali per la generazione di musica, il nostro nuovo modello, JASCO, è in grado di accettare diversi input, come accordi o beat, per migliorare il controllo sui risultati musicali generati”, ha spiegato Meta. AudioSeal: Rilevare il parlato generato dall’intelligenza artificiale Meta sostiene che AudioSeal è il primo sistema di watermarking audio progettato per rilevare il parlato generato dall’intelligenza artificiale. È in grado di individuare i segmenti specifici generati dall’IA all’interno di clip audio di grandi dimensioni fino a 485 volte più velocemente rispetto ai metodi precedenti. “AudioSeal viene rilasciato con una licenza commerciale. È solo una delle numerose linee di ricerca responsabile che abbiamo condiviso per aiutare a prevenire l’uso improprio degli strumenti di IA generativa”, ha dichiarato Meta. Migliorare la diversità tra testo e immagine Un altro importante rilascio mira a migliorare la diversità dei modelli testo-immagine, che spesso possono presentare pregiudizi geografici e culturali. Meta ha sviluppato indicatori automatici per valutare le potenziali disparità geografiche e ha condotto un ampio studio su 65.000 annotazioni per capire come le persone percepiscono la rappresentazione geografica a livello globale. “Questo consente una maggiore diversità e una migliore rappresentazione nelle immagini generate dall’intelligenza artificiale”, ha dichiarato Meta. Il codice e le annotazioni sono stati resi pubblici per aiutare a migliorare la diversità nei modelli generativi. Condividendo pubblicamente questi modelli rivoluzionari, Meta spera di promuovere la collaborazione e l’innovazione all’interno della comunità dell’IA. (Foto di Dima Solomin) Vedi anche: NVIDIA presenta gli ultimi progressi nell’IA visiva Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi di spicco come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: ai, intelligenza artificiale, audioseal, camaleonte, fiera, jasco, meta, meta ai, modelli, generazione musicale, open source, text-to-image Leggi di più su www.artificialintelligence-news.com
Un test del sangue potenziato dall’intelligenza artificiale si rivela promettente per la diagnosi precoce del Parkinson

I ricercatori hanno sviluppato un esame del sangue potenziato dall’intelligenza artificiale in grado di prevedere l’insorgenza del morbo di Parkinson fino a sette anni prima della manifestazione dei sintomi. Lo studio, condotto da scienziati dell’University College London (UCL) e dell’University Medical Center Goettingen in Germania e pubblicato su Nature Communications, potrebbe sbloccare trattamenti precoci e mirati per rallentare la progressione di questa malattia neurodegenerativa debilitante. La malattia di Parkinson è un problema di salute globale in aumento e colpisce quasi 10 milioni di persone in tutto il mondo, tra cui oltre 1 milione di individui negli Stati Uniti e 150.000 nel Regno Unito. La malattia è caratterizzata da sintomi quali tremori, difficoltà di movimento, rigidità muscolare, problemi di equilibrio, problemi di memoria, vertigini e dolore ai nervi. Isintomi insorgono a causa della morte delle cellule nervose nella “substantia nigra”, una parte del cervello responsabile del controllo dei movimenti. Attualmente non esistono trattamenti in grado di arrestare o invertire la progressione della malattia e la maggior parte dei pazienti riceve la diagnosi solo dopo che i sintomi si sono già sviluppati. La dottoressa Jenny Hällqvist dell’UCL, coautrice dello studio, ha spiegato la necessità di adottare misure proattive: “Le persone vengono diagnosticate quando i neuroni sono già stati persi. Dobbiamo proteggere quei neuroni, non aspettare che siano scomparsi” Notizie sulla ricerca 📣 Una ricerca finanziata dal Parkinson’s UK mostra la promessa di un test del sangue che potrebbe identificare il Parkinson prima che si manifestino i sintomi del movimento. Leggi la storia completa e cosa significa per le persone con Parkinson 👉🏽 https://t.co/2LwhkHRXbf pic.twitter.com/yxTZHRSgJQ – Parkinson’s UK (@ParkinsonsUK) 18 giugno 2024 Ecco come funziona lo studio: Identificazione di potenziali biomarcatori: Lo studio è iniziato analizzando campioni di sangue di pazienti con Parkinson diagnosticato di recente e di controlli sani, utilizzando tecniche avanzate di spettrometria di massa. Questo ha permesso ai ricercatori di identificare 47 proteine espresse in modo diverso tra i due gruppi. Sviluppare un test del sangue mirato: A partire dall’analisi iniziale, il team ha sviluppato un test del sangue mirato per misurare i livelli di 121 proteine specifiche. Convalida del test: I ricercatori hanno poi applicato il test mirato ai campioni di sangue di un gruppo indipendente di pazienti affetti da Parkinson, di controlli sani, di individui affetti da altri disturbi neurologici e di pazienti con disturbo isolato del comportamento nel sonno REM (iRBD), un noto fattore di rischio per il Parkinson. Questo ha confermato che 23 delle proteine misurate differivano significativamente tra i pazienti con Parkinson e i controlli sani. Applicazione dell’apprendimento automatico: I dati della fase di convalida sono stati utilizzati per addestrare modelli di apprendimento automatico per distinguere la malattia di Parkinson dai controlli sani in base ai livelli di proteine. Un modello che utilizzava solo otto proteine è stato in grado di classificare correttamente i campioni di Parkinson e quelli sani con una precisione del 100%. In modo impressionante, il modello ha anche previsto che il 79% dei campioni di iRBD erano simili a quelli del Parkinson, suggerendo che il test potrebbe identificare gli individui ad alto rischio di sviluppare la malattia. Risultati: Per confermare ulteriormente i risultati, i ricercatori hanno perfezionato il test e lo hanno applicato a un gruppo separato di 54 pazienti affetti da iRBD che avevano fornito 146 campioni di sangue nel corso del tempo. I modelli di apprendimento automatico hanno previsto che il 70-79% di questi campioni era simile al Parkinson, e alcune di queste previsioni sono state fatte fino a 7 anni prima che i soggetti sviluppassero i sintomi del Parkinson. Il risultato è che il test del sangue potenziato dall’intelligenza artificiale è in grado di prevedere la malattia di Parkinson con un’accuratezza del 79% fino a sette anni prima che i sintomi si manifestino. Il team ha ora in programma di semplificare ulteriormente il test, consentendo ai pazienti di spedire semplicemente una goccia di sangue su un biglietto al laboratorio per l’analisi. Ilprofessor David Dexter, direttore della ricerca di Parkinson’s UK, un’organizzazione benefica che ha contribuito a finanziare lo studio, ha lodato i risultati, affermando: “I risultati si aggiungono a un’entusiasmante raffica di attività recenti volte a trovare un modo semplice per testare e misurare il Parkinson” Ha inoltre suggerito che il test potrebbe essere in grado di distinguere tra il Parkinson e altre patologie simili. Sebbene siano necessari studi più ampi per convalidare l’accuratezza e l’affidabilità di questo test del sangue potenziato dall’intelligenza artificiale, esso rappresenta un enorme passo avanti nella ricerca di una diagnosi precoce del morbo di Parkinson. Non è la prima volta che l’intelligenza artificiale viene utilizzata per identificare e diagnosticare il Parkinson. Non molto tempo fa, i ricercatori hanno sviluppato un test oculare in grado di identificare la malattia prima che si sviluppino i sintomi. Il progetto AlphaFold di Google, in corso da tempo, è promettente per scoprire con precisione come si sviluppano malattie come il Parkinson e i ricercatori dell’Università di Cambridge hanno sviluppato un modello per la scoperta di farmaci per il Parkinson 1000 volte più veloce dei metodi convenzionali. L’intelligenza artificiale sta vivendo un anno di successi nella lotta alle malattie e nell’accelerazione di trattamenti all’avanguardia: all’inizio di questa settimana OpenAI e Color Health hanno collaborato a un copilota per il cancro. Leggi di più su dailyai.com
Colmare il divario tra LLM e ragionamento simbolico

I ricercatori hanno introdotto un nuovo approccio chiamato programmi incorporati in linguaggio naturale (NLEP) per migliorare le capacità di ragionamento numerico e simbolico dei grandi modelli linguistici (LLM). La tecnica prevede che gli LLM generino ed eseguano programmi Python per risolvere le domande degli utenti, per poi fornire le soluzioni in linguaggio naturale. Sebbene gli LLM come ChatGPT abbiano dimostrato prestazioni impressionanti in vari compiti, spesso hanno difficoltà con i problemi che richiedono un ragionamento numerico o simbolico. Gli NLEP seguono un modello di risoluzione dei problemi in quattro fasi: richiamano i pacchetti necessari, importano le rappresentazioni in linguaggio naturale delle conoscenze richieste, implementano una funzione di calcolo della soluzione e forniscono i risultati in linguaggio naturale con una visualizzazione opzionale dei dati. Questo approccio offre diversi vantaggi, tra cui una maggiore precisione, trasparenza ed efficienza. Gli utenti possono analizzare i programmi generati e correggere gli errori direttamente, evitando di dover rieseguire interi modelli per la risoluzione dei problemi. Inoltre, un singolo NLEP può essere riutilizzato per più attività sostituendo alcune variabili. I ricercatori hanno scoperto che i NLEP hanno permesso al GPT-4 di raggiungere un’accuratezza superiore al 90% su vari compiti di ragionamento simbolico, superando del 30% i metodi di prompting specifici per ogni compito Oltre a migliorare l’accuratezza, gli NLEP potrebbero migliorare la privacy dei dati grazie all’esecuzione dei programmi in locale, eliminando la necessità di inviare i dati sensibili degli utenti a società esterne per l’elaborazione. Questa tecnica potrebbe anche aumentare le prestazioni dei modelli linguistici più piccoli senza dover ricorrere a un costoso retraining. Tuttavia, gli NLEP si basano sulla capacità del modello di generare programmi e potrebbero non funzionare altrettanto bene con modelli più piccoli addestrati su set di dati limitati. La ricerca futura esplorerà metodi per far sì che i LLM più piccoli generino NLEP più efficaci e studierà l’impatto delle variazioni di prompt sulla robustezza del ragionamento. La ricerca, sostenuta in parte dal Center for Perceptual and Interactive Intelligence di Hong Kong, sarà presentata alla conferenza annuale della sezione nordamericana dell’Association for Computational Linguistics alla fine del mese. Leggi di più su www.artificialintelligence-news.com
OpenAI e Color Health collaborano per accelerare la ricerca sul cancro

OpenAI ha unito le forze con la startup sanitaria Color Health per incorporare il GPT-4 in un “copilota” alimentato dall’intelligenza artificiale che assiste i medici nello sviluppo di piani di cura personalizzati per il cancro. Il copilota, sviluppato da Color Health, sfrutta i modelli di OpenAI per analizzare i dati dei pazienti, compresi i fattori di rischio personali e la storia familiare, insieme alle linee guida cliniche. Identificando i test diagnostici mancanti e generando piani di screening e pre-trattamento su misura, l’assistente AI supporta gli operatori sanitari nel prendere decisioni basate sull’evidenza. “Lavisione di Color è quella di rendere accessibili le competenze in materia di cancro nel momento in cui possono avere il massimo impatto sulle decisioni sanitarie del paziente”, hadichiarato Othman Laraki, CEO di Color Health. Il potenziale del copilota per snellire le cure oncologiche è notevole, poiché i ritardi nello screening, nella diagnosi e nel trattamento possono avere gravi conseguenze per i pazienti. Glistudi dimostrano che un mese di ritardo nel trattamento può aumentare la mortalità dal 6% al 13%. La sperimentazione del copilota di Color Health ha già dimostrato risultati promettenti nel ridurre questa percentuale. I medici possono analizzare le cartelle cliniche dei pazienti in una media di soli cinque minuti, rispetto alle settimane che possono essere necessarie senza l’assistente AI. “Ho avuto modo di constatare la complessità dello sviluppo di piani di screening del cancro personalizzati per i miei pazienti ad alto rischio”, afferma il Dr. Keegan Duchicela, medico di base di Color. “Le linee guida sono in continua evoluzione e i fattori di rischio individuali non sono sempre immediatamente chiari” OpenAI e Color Health hanno iniziato a collaborare nel 2023, con l’obiettivo di utilizzare l’intelligenza artificiale per migliorare l’assistenza ai pazienti oncologici e l’equità sanitaria.Lochiamano “flusso di lavoro clinico”, che essenzialmente supporta il processo decisionale clinico senza sostituirlo in alcun modo. “Vediamo che la tecnologia AI e i modelli linguistici si adattano perfettamente, perché possono davvero aiutare in tutte queste dimensioni”, ha affermato Brad Lightcap, OpenAI’s chief operating officer (COO). “Possono portare in superficie informazioni rilevanti in modo più rapido. Possono fornire ai medici più strumenti per comprendere le cartelle cliniche, i dati, i laboratori e le diagnosi” Per misurare l’impatto del copilota, Color Health sta collaborando con University of California, San Francisco Helen Diller Family Comprehensive Cancer Center (UCSF HDFCCC). La partnership condurrà una serie di valutazioni, seguite da un rollout mirato, con la possibilità di integrare il copilot nei flussi di lavoro clinici per tutti i nuovi casi di cancro presso la UCSF. “L’UCSF è leader nell’implementazione di tecnologie all’avanguardia per migliorare l’assistenza ai pazienti”, afferma il Dr. Alan Ashworth, Presidente dell’UCSF HDFCCC. “I pazienti si rivolgono spesso agli oncologi di base con un workup diagnostico incompleto e il tempo necessario per raccogliere e identificare con precisione il completamento di questi workup impedisce agli operatori di lavorare al meglio delle loro possibilità. Siamo interessati a strumenti che possano migliorare l’efficienza e l’accuratezza delle cartelle cliniche pre-visita ed evitare costosi ritardi nell’inizio del trattamento per i pazienti oncologici dell’UCSF” Color Health intende implementare lentamente il copilota, iniziando con una fase iniziale per i propri medici e applicando diversi livelli di garanzia della qualità. Entro la seconda metà del 2024, l’azienda intende utilizzare l’applicazione copilot per fornire piani di cura personalizzati generati dall’intelligenza artificiale, con la supervisione di un medico, a oltre 200.000 pazienti. La promessa dell’IA nella lotta alle malattie La chiave è l’utilizzo di modelli linguistici per democratizzare le conoscenze specialistiche. È diventato molto più facile perfezionare i modelli per scopi diversi, consentendo ai ricercatori di costruire modelli specifici per ogni settore con i dati medici. Allo stesso modo, nel settore della salute degli occhi, è statoprogettatoun chatbot per fornire ai medici informazioni su problemi alla retina e sul glaucoma. Il chatbot ha soddisfatto o superato i consigli degli esperti nel rispondere alle domande cliniche, dimostrando ancora una volta come l’IA possa democratizzare le conoscenze specialistiche. La promessa dell’IA nell’individuazione, nella diagnosi e nel trattamento delle malattie, compreso il cancro, è ben consolidata. Glistrumenti di IA stanno battendo i medici nell’identificazione di forme complesse di cancro e stanno accelerando la scoperta di farmaci e i farmaci identificati dall’IA sono addirittura in fase di sperimentazione clinica. Leggi di più su dailyai.com
