ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

AlphaFold 3: DeepMind fa evolvere il suo progetto di ripiegamento delle proteine con l’IA

AlphaFold 3: DeepMind fa evolvere il suo progetto di ripiegamento delle proteine con l'IA

DeepMind ha annunciato AlphaFold 3, l’ultima iterazione del suo progetto di piegamento delle proteine. AlphaFold 3, come i suoi predecessori, prevede principalmente come le proteine si pieghino basandosi sulla loro sequenza di aminoacidi. Le proteine, i mattoni di tutta la vita organica, sono composte da lunghi catene di aminoacidi che si piegano come ‘origami’ in strutture 3D che determinano le loro funzioni. AlphaFold utilizza l’apprendimento automatico per simulare la probabile struttura 3D che una proteina assumerà attraverso la piegatura. Comprendere come queste strutture si pieghino apre la porta a decifrare i meccanismi che sottendono la salute e la malattia a livello molecolare. Inoltre, le proteine possono piegarsi in modo errato, un processo che non solo interrompe la loro funzione normale, ma contribuisce anche allo sviluppo di malattie come l’Alzheimer e il Parkinson. Il piegamento errato può interferire con la salute cellulare accumulando proteine disfunzionali che possono danneggiare cellule e tessuti. Il “problema del piegamento delle proteine” che AlphaFold sta cercando di risolvere si riferisce alla nostra comprensione di come le proteine ​​siano configurate attraverso gli aminoacidi. Prima dei metodi di apprendimento automatico, il numero di possibili configurazioni che una proteina può assumere è astronomicamente elevato, rendendo estremamente intensivo dal punto di vista computazionale prevedere la struttura corretta attraverso calcoli manuali o forza bruta da sola. AlphaFold risolve il problema della scala nel prevedere le strutture proteiche utilizzando l’apprendimento profondo. Il sistema utilizza reti neurali addestrate su un database di strutture proteiche note per inferire la forma 3D delle proteine ​​dalla loro sequenza di aminoacidi. Presentazione di AlphaFold 3 DeepMind ha recentemente annunciato AlphaFold 3, che presenta una versione migliorata del modulo Evoformer, parte dell’architettura di apprendimento profondo che sottostà a AlphaFold 2. Una volta che il modulo Evoformer elabora le molecole di input, AlphaFold 3 utilizza una nuova rete di diffusione per assemblare le strutture previste. Questa rete è simile a quelle utilizzate in generatori di immagini AI come DALL-E. Inizia con una ‘nuvola’ di atomi e affina iterativamente la struttura in una serie di passaggi fino a convergere su una configurazione molecolare finale, probabilmente accurata. Il modello AlphaFold 3 è evoluto oltre le sole proteine – incorpora anche informazioni su DNA, RNA, e piccole molecole e può catturare alcune delle loro interazioni complesse. Isomorphic Labs, che ha collaborato con DeepMind sul progetto AlphaFold 3, sta già lavorando con le aziende farmaceutiche, applicando il modello a reali sfide di progettazione farmaceutica. DeepMind ha anche lanciato il AlphaFold Server, una piattaforma gratuita e user-friendly che consente ai ricercatori di sfruttare il potere di AlphaFold 3 senza risorse computazionali estese o competenze in apprendimento automatico. Una breve storia del progetto AlphaFold Il progetto AlphaFold è iniziato nel 2016 e si è concluso nel 2018, poco dopo la storica vittoria di AlphaGo contro Lee Sedol, un top player internazionale di Go. Nel 2018, DeepMind ha debuttato con AlphaFold 1, la prima versione del sistema AI, alla CASP13 (Critical Assessment of Protein Structure Prediction) challenge. Questa competizione biennale riunisce gruppi di ricerca da tutto il mondo per testare l’accuratezza delle loro previsioni sulla struttura delle proteine rispetto a dati sperimentali reali. AlphaFold 1 si è classificato primo nella competizione, una pietra miliare significativa in biologia computazionale. Due anni dopo, al CASP14 nel 2020, DeepMind ha presentato AlphaFold 2, dimostrando un’accuratezza così alta che la comunità scientifica ha considerato il problema del piegamento delle proteine essenzialmente risolto. Le prestazioni di AlphaFold 2 sono state notevoli. Ha raggiunto un punteggio di accuratezza mediana di 92.4 GDT (Global Distance Test) su tutti i target. Per metterlo in prospettiva, un punteggio di 90 GDT è considerato competitivo con i risultati ottenuti dai metodi sperimentali. Il paper sui metodi di AlphaFold 2 ha ricevuto da allora oltre 20.000 citazioni, posizionandolo tra i top 500 paper più citati in tutti i campi scientifici. AlphaFold è stato fondamentale in numerosi nuovi progetti di ricerca, come lo studio di proteine che potrebbero degradare inquinanti ambientali, come la plastica, e migliorare la nostra comprensione di malattie tropicali poco comuni come la leishmaniosi e il Chagas. Nel luglio 2021, DeepMind, in collaborazione con l’European Bioinformatics Institute di EMBL (EMBL-EBI), ha rilasciato il AlphaFold Protein Structure Database, che fornisce accesso a oltre 350.000 previsioni di strutture proteiche, tra cui il proteoma umano completo. Questo database è stato successivamente espanso per includere oltre 200 milioni di strutture, coprendo quasi tutte le proteine catalogate note alla scienza. Fino ad oggi, l’AlphaFold Protein Structure Database è stato accessato da oltre un milione di utenti in oltre 190 paesi, consentendo scoperte in campi che vanno dalla medicina all’agricoltura e oltre. AlphaFold 3 segna un’altra iterazione per questo sistema di scoperta e analisi delle proteine di prim’ordine. Leggi di più su dailyai.com

OpenAI delinea i piani per un responsabile utilizzo dei dati pe rl’intelligenza artificiale e collaborazioni con creator

OpenAI delinea i piani per un responsabile utilizzo dei dati pe rl'intelligenza artificiale e collaborazioni con creator

OpenAI ha recentemente annunciato un nuovo approccio ai dati e all’intelligenza artificiale, sottolineando l’importanza di uno sviluppo responsabile dell’IA e delle partnership con creatori e proprietari di contenuti. L’azienda ha dichiarato di voler costruire sistemi di intelligenza artificiale che amplino le opportunità per tutti, rispettando al contempo le scelte dei creatori e degli editori. “L’IA dovrebbe ampliare le opportunità per tutti. Trasformando le informazioni in nuovi modi, i sistemi di IA ci aiutano a risolvere problemi ed esprimerci,”OpenAI ha dichiarato nel suo recente post sul blog. Come parte di questa strategia, l’azienda sta sviluppando uno strumento chiamato Media Manager, che si prefigge di permettere ai creatori e ai proprietari di contenuti di specificare come vogliono che le loro opere siano incluse o escluse dalla ricerca e dall’addestramento del machine learning. “Il nostro obiettivo è avere lo strumento pronto entro il 2025, e speriamo che esso possa stabilire uno standard in tutta l’industria dell’IA,”OpenAI ha affermato. Ci sono poche informazioni disponibili su Media Manager e su come potrebbe funzionare. Sembra che prenderà la forma di uno strumento self-service dove i creatori possono identificare e controllare i loro dati. Alcuni speculano se OpenAI identificherà attivamente i dati dei creatori all’interno del loro set di dati utilizzando il machine learning – il che potrebbe essere enorme. Alla fine, non sappiamo ancora come funzionerà né quanto sarà efficace. OpenAI ha annunciato Media Manager, una piattaforma pianificata per permettere ai creatori di scegliere se accettare o rifiutare l’addestramento dell’IA generativa. I punti positivi: – Sono contento che si stiano occupando di questo problema – Riconoscono che le opzioni di rinuncia esistenti non sono sufficienti – Quando scegli di rinunciare, sembra che utilizzeranno il ML per… — Ed Newton-Rex (@ednewtonrex) 7 maggio 2024 Una mossa positiva di OpenAI? Forse, ma se OpenAI crede davvero che l’addestramento di modelli di IA su dati pubblicamente disponibili rientri nel fair use, non ci sarebbe bisogno di un’opzione di opt-out. Inoltre, se OpenAI può sviluppare strumenti per identificare il materiale protetto da copyright, potrebbe utilizzarli probabilmente per filtrare la raccolta di dati sin dall’inizio piuttosto che richiedere ai creatori di contenuti di optare per l’esclusione. Inoltre, il 2025 dà loro abbastanza tempo per costruire un enorme set di dati fondamentali di opere protette da copyright delle persone senza il loro permesso. Da lì, è principalmente una questione di sintonizzazione fine. OpenAI continuerà ad acquistare dati da fonti come il Financial Times e Le Monde per mantenere i loro modelli aggiornati. Questo serve, almeno, come prova che c’è pressione su OpenAI e altre aziende di IA per gestire i dati in modo più etico. Contribuendo a un tavolo pieno di cause legali, il gruppo europeo di difesa della privacy Noyb ha recentemente avviato un’azione legale contro OpenAI, sostenendo che ChatGPT genera ripetutamente informazioni inaccurate sulle persone e non le corregge. La risposta di OpenAI è stata tipica: ‘Potresti avere ragione, ma non possiamo, o non vogliamo, fare nulla al riguardo.’ Leggi di più su dailyai.com

Intervista: Cinderella Amar – Evangelista del Web 4.0, dell’Intelligenza Artificiale e della Blockchain

Intervista: Cinderella Amar - Evangelista del Web 4.0, dell'Intelligenza Artificiale e della Blockchain

Cinderella Amar, Managing Partner di Glass Ventures, una società di venture capital specializzata in progetti Web4, ha fornito spunti sul potenziale trasformativo dell’IA e della Blockchain dal punto di vista di un imprenditore. Nonostante Cinderella Amar abbia iniziato la sua carriera nella finanza tradizionale, la sua traiettoria si è spostata verso la blockchain e l’IA dopo aver assistito in prima persona all’impatto disruptivo di queste tecnologie. Abbiamo avuto l’opportunità di approfondire come si è svolta questa transizione e di acquisire le sue prospettive sul futuro del Web4, dell’IA e della Blockchain. D: Hai iniziato con la finanza tradizionale. Come mai hai finito per concentrarti maggiormente su tecnologie come l’IA e la blockchain? “Ho trascorso circa 15 anni nella finanza tradizionale, in particolare nei mercati di capitale. Sarò onesta, non è mai stata la mia vera passione. Qualcosa mancava, e non ho capito cosa fosse fino a un momento cruciale. Nel 2016, ho assistito a un evento trasformativo quando due banche francesi hanno eseguito un’accordo di recompra interamente su una piattaforma blockchain, riducendo drasticamente il processo di negoziazione. Facevo parte di quei team e quello è stato il mio momento di ‘illuminazione’. La transazione è stata istantanea, diretta ed economica. Ho capito allora che stava avvenendo un cambiamento profondo e sono stata affascinata da questa tecnologia. Ero catturata. Una volta che vivi una cosa del genere, non c’è ritorno. Più tardi, a Hong Kong, ho iniziato a sperimentare l’uso di chatbot IA per migliorare le attività di trading, spinta dalla necessità di eseguire operazioni più rapide ed efficienti e questo è stato sbalorditivo.” D: Come sei arrivata a creare i chatbot? “Nel 2017, mentre gestivo varie attività di trading, ho trovato i processi completamente disfunzionali e caotici. C’era così tanto rumore prima e dopo i trade, distrazioni inutili per il mio team di venditori e trader, per non parlare di me stessa. Doveva esserci un’altra ‘intelligenza’ per affrontare il ‘rumore circostante’. Immagina questo: il mio team di vendita riceve molteplici richieste da diversi clienti, ciascuna relativa a vari prodotti contemporaneamente. Come si fa a stabilire quale operazione offre la probabilità più alta di successo o di redditività in tale scenario? Tutto è iniziato con un’esigenza fondamentale di reattività e agilità per cogliere rapidamente le opportunità di trading. Aspettare 30 minuti per una decisione era semplicemente disfunzionale. Quindi, mi sono imbarcata in un percorso di innovazione incrementale per semplificare questo processo. La soluzione? Implementare un sistema in cui i dati vengono consolidati in un lago di dati principale, che consente l’analisi e l’estrazione dei dati in tempo reale. Facendo ciò, abbiamo drasticamente ridotto il nostro tempo di esecuzione da 30 minuti a soli 3 secondi. 3 secondi! L’impatto è stato profondo. Ora, armati di questa efficienza, le nostre operazioni sono diventate estremamente concentrate e rapidissime. Potevamo eseguire operazioni di trading velocemente e con precisione, massimizzando la nostra efficacia in un panorama di mercato dinamico.” D: Stiamo cercando di capire il Web3, ma tu sei appassionata del Web4. Potresti spiegare di più sulla tua tesi sul Web4? “L’evoluzione dal Web Zero al Web4 è un viaggio affascinante che riflette lo sviluppo rapido di internet e delle tecnologie digitali. Tutto è iniziato con il Web Zero, rappresentato dal Minitel, il precursore francese del World Wide Web (www). Quindi è arrivato il Web1, dove siamo passati dal consumare informazioni in modo passivo (‘solo lettura’) a interagirvi online (‘lettura e scrittura’). Il Web2, l’era dell’interattività, ci ha poi permesso non solo di leggere, ma anche di scrivere e partecipare online attraverso piattaforme come Wikipedia, email, Zoom e WhatsApp. Web3 ha portato alla ribalta la proprietà e le esperienze decentralizzate, in particolare con i NFT e il concetto di Metaverso. Tuttavia, nonostante la sua emergenza, il Metaverso deve ancora realizzare il suo pieno potenziale e raggiungere una diffusione ampia oltre certe demografie. Questo divario ha portato alla nascita del Web4, spinto dai progressi nell’intelligenza artificiale (IA), in particolare GenAI. Il Web4 funge da gateway per l’adozione di massa delle tecnologie Web3. Il Web4 non è in competizione con il Web3; piuttosto, lo complementa migliorando la proprietà e l’utilizzo dei dati. In sostanza, il Web4 trasforma internet in una rete peer-to-peer intelligente, decentrata dalla blockchain, alimentata dall’IA, e potenzialmente potenziata dal calcolo quantistico. Presso Glass Ventures, immaginiamo il Web4 come lo strato intelligente di internet che spinge l’adozione di massa delle tecnologie Web3, integrando applicazioni avanzate per sbloccare il pieno potenziale delle esperienze digitali decentralizzate. Questo approccio stratificato è essenziale per realizzare l’impatto societale più ampio del panorama di internet in evoluzione.” D: Quando si parla di Web4 si parla anche di web simbiotico. Cosa significa? “Oltre al web semantico del Web3.0, il web simbiotico rappresenta un mercato unificato, una piattaforma singola dove prosperano le connessioni intelligenti. Incarna un internet in cui l’interazione uomo-macchina è simbiotica, promuovendo una collaborazione e integrazione senza soluzione di continuità. La nostra esplorazione del Web4 è iniziata quando abbiamo notato una scarsità di informazioni su di esso online. Questo ci ha spinto a intraprendere il nostro percorso di ricerca. Presso Glass Ventures, la nostra collaborazione con Cambridge Blockchain Labs (CBL) è stata fondamentale. Il team CBL funge da nostra unità di ricerca e sviluppo (R&S), consentendoci di navigare con sicurezza in tecnologie complesse come l’intelligenza artificiale e il calcolo quantistico. Questa partnership strategica incarna il nostro ethos di trasparenza e gestione rigorosa dei rischi, che è fondamentale per la nostra identità come Glass Ventures. Il nostro nome, Glass, riflette il nostro impegno per la chiarezza e l’acume nel panorama in rapida evoluzione dell’innovazione digitale.” D: Cosa mi consentirà di fare l’IA insieme alla blockchain e al Web4 che non posso fare ora? “Lascia che ti dipinga un quadro del futuro abilitato da IA, blockchain e Web4 attraverso una start-up stimolante chiamata Promeet. Immagina di assistere a un concerto del famoso DJ Black Coffee a Dubai. Sono andata a questo evento con il team Promeet ed è stata l’occasione perfetta per loro per mostrare la loro innovativa piattaforma, che integra in modo fluido

Il Segretario dell’Aeronautica Militare degli Stati Uniti, Frank Kendall, testa un caccia pilotato dall’intelligenza artificiale

Il Segretario dell'Aeronautica Militare degli Stati Uniti, Frank Kendall, testa un caccia pilotato dall'intelligenza artificiale

Il Segretario dell’Aeronautica Militare degli Stati Uniti, Frank Kendall, ha pilotato un aereo da caccia sperimentale F-16 alimentato da intelligenza artificiale (AI) in un volo di prova presso la Base Aeronautica di Edwards, in California. L’F-16 controllato dall’IA, lo X-62A VISTA (Variable In-flight Simulator Test Aircraft), si è confrontato in un combattimento aereo con un F-16 pilotato da un umano. I due jet sono volati a distanze inferiori ai 1.000 piedi l’uno dall’altro a velocità superiori a 550 miglia orarie, eseguendo manovre complesse ad alta velocità e cercando di costringere l’avversario in posizioni vulnerabili. Il Segretario Kendall, che ha provato in prima persona il jet pilotato dall’IA durante il volo di un’ora, ha espresso l’inevitabilità dell’armamento IA: “È un rischio per la sicurezza non avere l’IA. A questo punto, dobbiamo averla.”. Alla fine del volo, il Segretario Kendall ha dichiarato di aver visto abbastanza da fidarsi dell’IA sul campo di battaglia. Questo segue un test recente del medesimo aereo in una situazione di combattimento aereo reale. Sale la preoccupazione per le armi IA Come prevedibile, la prospettiva di armi IA che lanciano autonomamente senza intervento umano è assai controversa. In una recente conferenza internazionale intitolata “Umanità al bivio: I sistemi di armi autonomi e la sfida della regulazione”, tenutasi a Vienna, partecipanti da 143 paesi hanno dibattuto sulla necessità urgente di regolamentare l’uso dell’IA nei sistemi di armi autonomi (AWS). Il Ministro degli Esteri austriaco, Alexander Schallenberg, ha avvertito che il mondo sta affrontando un “Momento Oppenheimer”, riferendosi allo sviluppo della prima bomba atomica. Ha sottolineato, “almeno facciamo in modo che la decisione più profonda e di vasta portata – chi vive e chi muore – rimanga nelle mani degli umani e non delle macchine.”. Altri si sono chiesti chi sarebbe responsabile se le armi IA dovessero fallire. Il produttore? Colui che comanda l’operazione? O qualcuno più in basso nei ranghi che preme pulsanti e monitora le attrezzature? L’IA non viene solo impiantata nelle armi – viene anche utilizzata per sviluppare strategie di campo. Tuttavia, uno studio recente ha riscontrato che i modelli di lingua possono spingere i giochi di guerra verso una guerra nucleare. I droni autonomi sono già dispiegati da entrambe le parti nella guerra in Ucraina, mentre le forze israeliane stanno presumibilmente utilizzando l’IA per identificare obiettivi umani nella guerra a Gaza. Nonostante queste preoccupazioni, l’Aeronautica Militare USA ha progetti ambiziosi per una flotta abilitata dall’IA, costituita da oltre 1.000 aerei da guerra senza pilota operativi entro il 2028. Vista sostiene che nessun altro paese ha un jet IA del genere, riferendosi principalmente all’assenza di tali armi in Cina, per quanto ne sanno le fonti occidentali. Sebbene la Cina abbia una tecnologia IA largamente alla pari con gli Stati Uniti, non ci sono indicazioni che venga eseguito un test sul campo simile. Mentre l’Aeronautica Militare USA continua a spingere i confini dell’aviazione alimentata dall’IA, la comunità internazionale si confronta su cosa questo possa significare per la guerra moderna. Questo è un terreno precario che è stato calpestato solo dalle trame della fantascienza, la maggior parte delle quali non finisce bene per nessuno. Leggi di più su dailyai.com

Umani e bot condividono la rete in egual misura: l’intelligenza artificiale alimenta il ‘web inerte’

Umani e bot condividono la rete in egual misura: l'intelligenza artificiale alimenta il 'web inerte'

Il rapporto di ricerca sulle minacce Imperva 2024 afferma che le fonti non umane, o bot, sono responsabili di quasi la metà di tutto il traffico internet. La “teoria dell’internet morta” è iniziata come una teoria del complotto postata su 4chan nel 2019, ma sta acquistando credibilità con la proliferazione dei bot alimentati da intelligenza artificiale (AI). La teoria fa due affermazioni: che la maggior parte del traffico internet è generato automaticamente e che ciò avviene intenzionalmente per manipolare l’attività umana online. Il rapporto più recente dell’azienda di cybersecurity Imperva sembra confermare che la prima affermazione è vera, con i bot che rappresentano il 49,6% del traffico internet nel 2023. Non tutti i bot sono cattivi. Dipendiamo da crawler web come il bot di Google per indicizzare i siti web per la sua piattaforma di ricerca. ChatGPT è costruito sui dati raccolti da internet dal bot di OpenAI. Se dovrebbe essere classificato come buono o cattivo è ancora oggetto di dibattito. I bad bot sono agenti web automatici che gli attori malevoli utilizzano per commettere frodi, raccolta di dati o altre attività malevole. Il rapporto di Imperva afferma che il 32% di tutto il traffico internet è attività di bad bot. I progressi nell’IA stanno portando la tecnologia al di là dei confini dell’interfaccia di chat per assumere ruoli più ampi come agenti di IA. Questi agenti di IA sono in grado di interagire con i siti web per completare compiti utili che normalmente gli umani dovrebbero fare. Possono anche consentire ai bad bot di mimare il movimento umano e i clic del mouse per eludere il rilevamento dei bot. Molti di questi bot sono in grado di superare le sempre più rilevanti sfide CAPTCHA “prova che sei un umano”. ???? Il 49,6% di tutto il traffico internet nel 2023 non era umano, con il traffico dei bad bot che ha raggiunto il livello più alto mai registrato. Scorri per scoprire i principali risultati dell’11° Rapporto annuale sui Bad Bot di Imperva o scarica una copia per capire come le minacce automatizzate potrebbero impattare la tua organizzazione. — Imperva, a Thales company (@Imperva) 16 aprile 2024 L’IA rende più semplice Il rapporto ha evidenziato un aumento sia dei bad bot avanzati che di quelli più elementari. Commentando l’aumento del traffico dei bad bot, il rapporto ha notato, “I livelli di traffico dei bad bot sono aumentati per il quinto anno consecutivo, indicando una tendenza preoccupante”. Il rapporto conclude che questo aumento è almeno in parte causato dalla crescente popolarità dell’IA e dei LLM. L’accesso agli strumenti IA sta abbassando l’asticella per i cattivi attori che in precedenza non avevano le competenze per creare bad bot. Il rapporto ha affermato, “La crescente adozione della tecnologia IA influisce sul volume di bad bot su internet e sul loro livello di sofisticazione. Ha creato una netta divisione tra gli attori sofisticati con i mezzi e le risorse per distribuire bad bot avanzati e coloro che si affidano a strumenti di base, come l’utilizzo dell’IA, per generare uno script per bot”. Il risultato è che i semplici bad bot rappresentavano il 39,6% di tutto il traffico dei bad bot nel 2023, rispetto al 33,4% nel 2022 e al 26,3% cinque anni fa. Il rapporto di Imperva ha detto che le API sono un obiettivo preferito per i bad bot. Man mano che sempre più aziende utilizzano le API per accedere ai modelli IA per i loro chatbot, le soluzioni IA aziendali o gli agenti IA, il rischio che i bad bot sfruttino questi strumenti aumenterà solo. Ci sono attori umani dietro questi bad bot automatizzati. Potrebbero non essere il complotto globalista immaginato dagli autori della teoria dell’internet morta, ma vogliono sfruttare e manipolare gli esseri umani. Il contenuto automatizzato sta per superare il contenuto generato dagli esseri umani con musica generata da IA, video di YouTube e influencer IA. Stiamo addirittura vedendo account sui social media IA che interagiscono con altri contenuti e account generati da IA. Wikipedia si riferisce ancora alla teoria dell’internet morta come a una “teoria del complotto”. Potrebbe essere iniziata come tale, ma si sta rapidamente trasformando in una realtà alimentata dall’IA. Leggi di più su dailyai.com

L’8° Summit del Medio Oriente su Intelligenza Artificiale e Analisi nel Settore Bancario 2024

L'8° Summit del Medio Oriente su Intelligenza Artificiale e Analisi nel Settore Bancario 2024

L’8 maggio 2024 si terrà l’8° Middle East Banking AI & Analytics Summit presso l’Hyatt Regency Riyadh Olaya. Questo esclusivo evento in presenza è imperdibile per i professionisti del settore bancario e dei servizi finanziari nel Regno dell’Arabia Saudita, poiché il paese punta a diventare un leader mondiale nell’IA entro il 2030. In linea con la visione dell’Arabia Saudita, il vertice mira a catalizzare l’adozione dell’IA nel settore bancario del Regno. Le recenti tendenze vedono enormi investimenti in IA, analisi e altre tecnologie emergenti in tutto il settore finanziario e bancario del paese. Le nazioni del Golfo, compresa l’Arabia Saudita, hanno acquistato grandi quantità di hardware da NVIDIA nel corso del 2023, incluso l’Università di King Abdullah di Scienza e Tecnologia (KAUST), che ha acquistato circa 3.000 chip H100 di Nvidia. Questo summit cerca di accelerare l’approccio proattivo dell’Arabia Saudita all’accelerazione dell’IA. I temi chiave trattati al summit includono: Sfruttare la potenza dell’IA e dell’analisi per un ecosistema bancario futuristico Creare una forza lavoro esperta nel nuovomondo dell’IA e dell’analisi Open banking Percorso per una trasformazione digitale di successo e creare valore utilizzando l’IA e l’analisi dei dati Reimmaginare il rilevamento delle frodi e la gestione dei rischi utilizzando l’IA e l’analisi avanzata Uso etico dei dati e dell’IA Ottimizzare i benefici dell’IA e dell’analisi per lo sviluppo sostenibile del settore bancario IA e analisi che promuovono intuizioni in tempo reale per un’esperienza bancaria personalizzata Le opportunità chiave del Middle East Banking AI & Analytics Summit Le opportunità chiave dell’8° Middle East Banking AI & Analytics Summit includono: Connessione con leader di pensiero con idee affini nella regione mentre discutono l’impatto dell’IA e affrontano significative limitazioni attraverso discussioni di panel riformative, chat intriganti, presentazioni chiave, tavole rotonde e sessioni di Q&A conversazionali. Acquisire intuizioni sui migliori casi di implementazione e scalabilità dell’IA e dell’analisi all’interno delle rispettive organizzazioni bancarie. Network con oltre 150 leader del settore provenienti dall’ambito del banking, banking digitale, fintech, data science, gestione dei rischi e altri domini. Esperienza di demo dal vivo di soluzioni all’avanguardia da più di 15 espositori che mostrano l’ultimo in termini di IA, analisi, automazione e trasformazione digitale per il settore bancario. Relatori confermati per il Middle East Banking AI & Analytics Summit 2024 Il vertice vanta un’impressionante serie di oltre 50 relatori provenienti da varie banche e istituzioni finanziarie in Arabia Saudita, promettendo un ricco scambio di idee ed esperienze. I relatori confermati includono: Yazid Bastami, Chief Strategy Officer, Vision Bank Abdullah Albar, Chief Data Officer, Abdul Latif Jameel United Finance Saleh Al Suwaiyel, Director Data Analytics & Partner Insight, Al Rajhi Bank Nahim Bassa, SVP: Group Head of Strategy & Transformation, Bank Aljazira Sultan Al-Bayhani, SVP, Head of Open Banking Business Section, Digital Innovation & Partnership Section, Riyad Bank Safdar Hussain, Head of Data Science, Banque Saudi Fransi … e molti altri esperti leader del settore bancario e dei servizi finanziari dell’Arabia Saudita. Informazioni chiave sul Middle East Banking AI & Analytics Summit 2024 – Edizione Saudita Ecco cosa devi sapere su questo summit: Data: 8 maggio 2024 Sede: HYATT REGENCY RIYADH OLAYA, Arabia Saudita Partecipanti: oltre 150 leader del settore Relatori: oltre 50 provenienti dal mondo bancario, finanziario, tecnologico e accademico Biglietti: visita il sito web ufficiale qui per i biglietti. Leggi di più su dailyai.com

Un team guidato da Princeton suona l’allarme: L’IA rappresenta un rischio per l’integrità scientifica

Un team guidato da Princeton suona l'allarme: L'IA rappresenta un rischio per l'integrità scientifica

La IA sta trasformando la ricerca scientifica, ma senza una corretta guida, potrebbe fare più male che bene. Questa è la conclusione incisiva di un nuovo articolo pubblicato su Science Advances da un team interdisciplinare di 19 ricercatori guidato dai scienziati informatici dell’Università di Princeton Arvind Narayanan e Sayash Kapoor.  Il team sostiene che l’uso improprio dell’apprendimento automatico in varie discipline scientifiche sta alimentando una crisi di riproducibilità che minaccia di minare le stesse fondamenta della scienza. “Quando passiamo dai metodi statistici tradizionali ai metodi di apprendimento automatico, ci sono molte più possibilità di commettere errori”, ha detto Narayanan, che dirige il Centro per la Politica Tecnologica dell’Informazione di Princeton.  “Se non interveniamo per migliorare i nostri standard scientifici e di reporting quando si tratta di scienza basata sull’apprendimento automatico, rischiamo non solo una disciplina ma molte diverse discipline scientifiche che riscoprono queste crisi una dopo l’altra”. Secondo gli autori, il problema è che l’apprendimento automatico è stato rapidamente adottato da quasi tutti i campi scientifici, spesso senza chiari standard per garantire l’integrità e la riproducibilità dei risultati. Sottolineano che migliaia di articoli che utilizzano metodi di apprendimento automatico difettosi sono già stati pubblicati. Tuttavia, il team guidato da Princeton afferma che c’è ancora tempo per evitare questa crisi imminente. Hanno proposto una semplice checklist di migliori pratiche che, se adottate su larga scala, potrebbero salvaguardare l’affidabilità dell’apprendimento automatico nella scienza. La checklist, chiamata REFORMS (Raccomandazioni per la Scienza basata sull’apprendimento automatico), consta di 32 domande in otto aree chiave: Obiettivi dello studio: Indicare chiaramente l’affermazione scientifica che si intende dimostrare e come l’apprendimento automatico sarà utilizzato per sostenerla. Giustificare la scelta dell’apprendimento automatico rispetto ai metodi statistici tradizionali. Riproducibilità computazionale: Fornire il codice, i dati, le specifiche dell’ambiente computazionale, la documentazione e lo script di riproduzione necessari per consentire ad altri di riprodurre i risultati dello studio in modo indipendente. Qualità dei dati: Documentare le fonti dei dati, il campione, le variabili di risultato, la dimensione del campione e la quantità di dati mancanti. Giustificare che il set di dati è appropriato e rappresentativo della questione scientifica. Pre-elaborazione dati: Riportare come i dati sono stati puliti, trasformati e suddivisi in set di addestramento e di test. Fornire una motivazione per eventuali dati esclusi. Modellazione: Descrivere e giustificare tutti i modelli provati, il metodo utilizzato per selezionare il modello finale(i) e il processo di tuning degli iperparametri. Confrontare le prestazioni con baseline appropriate. Perdita di dati: Verificare che il processo di modellazione non abbia utilizzato inavvertitamente informazioni provenienti dai dati di test e che le funzioni di input non rivelino i risultati. “Questo è un problema sistemico con soluzioni sistemiche”, spiega Kapoor. Tuttavia, i costi di commettere errori potrebbero essere immensi. Una scienza errata potrebbe affossare ricerche promettenti, scoraggiare i ricercatori e minare la fiducia del pubblico nella scienza.  Ricerche precedenti, come il grande sondaggio di Nature sugli accademici sull’AI generativa nella scienza, indicavano che l’integrazione più profonda e progressiva dell’AI nei flussi di lavoro scientifici è inevitabile. I partecipanti hanno evidenziato molti benefici – il 66% ha notato che l’IA consente una più rapida elaborazione dei dati, il 58% crede che ne migliora i calcoli, e il 55% afferma che fa risparmiare tempo e denaro.  Tuttavia, il 53% ha riscontrato che i risultati potrebbero essere irripetibili, il 58% si è preoccupato per i pregiudizi, e il 55% ha creduto che l’IA potrebbe favorire la ricerca fraudolenta. Abbiamo riscontrato prove di ciò quando i ricercatori hanno pubblicato un articolo con diagrammi AI generati senza senso sulla rivista Frontiers – un ratto con testicoli giganti, per l’appunto. Comico, ma ha mostrato come la revisione paritaria potrebbe non riuscire a rilevare usi ovviamente errati della AI. In definitiva, come qualsiasi strumento, l’AI è sicura ed efficace solo quanto l’uomo che la gestisce. Un uso negligente, anche se involontario, può portare la scienza fuori strada. Le nuove linee guida mirano a mantenere “onesti gli onesti”, come ha detto Narayanan. L’adozione su larga scala da parte di ricercatori, revisori e riviste potrebbe stabilire un nuovo standard per l’integrità scientifica nell’era dell’IA. Tuttavia, costruire un consenso sarà una sfida, soprattutto perché la crisi della riproducibilità sta già passando sotto il radar. Leggi di più su dailyai.com

DAI#37 – Bot assassini, audio falsificato e misteriosa Intelligenza Artificiale

DAI#37 - Bot assassini, audio falsificato e misteriosa Intelligenza Artificiale

Benvenuti al riepilogo di questa settimana delle novità sull’intelligenza artificiale realizzate a mano. Questa settimana un insegnante di ginnastica è stato arrestato a causa dell’IA. È apparso e poi è scomparso un misterioso chatbot. E i Paesi hanno dibattuto se i robot killer autonomi sono una buona idea. Andiamo a vedere. Misterioso IA Questa settimana è apparso un misterioso chatbot apparentemente dal nulla sulla piattaforma di chatbot LMSYS. Nessuno sembra sapere chi abbia creato “gpt2-chatbot”, ma gli utenti hanno riferito prestazioni che sembravano superiori a GPT-4. È un modello di seconda generazione GPT-4? Potrebbe essere un precursore subdolo di GPT-5? Non lo sappiamo. Il mistero si approfondisce poiché gpt2-chatbot è stato rimosso. Sam ha avuto la possibilità di provarlo prima che scomparisse e ha condiviso le esperienze degli altri utenti del notevole chatbot misterioso. OpenAI intende offrire una piattaforma di ricerca per competere con Google? I recenti log SSL di OpenAI sembrano suggerirlo. OpenAI sta sviluppando una funzione di ricerca? I recenti log dei certificati SSL di OpenAI hanno rivelato qualcosa di interessante: il dominio (search-dot-chatgpt-dot-com) potrebbe indicare che OpenAI sta sviluppando una funzionalità di ricerca. Sam Altman ha discusso di intelligenza artificiale e ricerca nel podcast Lex. Forse DeepMind di Google ha risolto un altro mistero dell’IA. Finalmente si può risolvere il dibattito su quale modello di diffusione di testo in immagine sia il migliore. Il benchmark Gecko adotta un approccio interessante per identificare il miglior generatore di immagini IA. Spiacente, non posso partecipare Dovremmo fare uno sforzo per proteggere l’umanità da un evento di estinzione alimentato dall’IA? Sembra una buona idea, ma non sembra esserci un accordo su come e chi dovrebbe farlo. Il primo Summit sulla sicurezza dell’IA tenutosi presso Bletchley Park l’anno scorso si è concluso con un rassicurante impegno da parte della comunità internazionale a lavorare insieme per la sicurezza dell’IA. La riunione di follow-up è prevista per la fine di questo mese. Quando vedete i grandi player che ora dicono che non parteciperanno, quell’impegno suona falso. Alcuni creatori di modelli di IA vorrebbero partecipare agli sforzi per la sicurezza dell’IA, ma non vengono sempre invitati. Il Dipartimento della Sicurezza Interna degli Stati Uniti ha lanciato il suo consiglio per la sicurezza dell’IA con diversi rappresentanti delle grandi aziende tecnologiche nel consiglio. Alcuni dei più grandi nomi nell’IA non sono stati invitati e potrebbe avere qualcosa a che fare con la loro strategia di modelli aperti. Slaughter bots – pro o contro? L’Austria ha ospitato inviati da 143 paesi in un evento di due giorni per discutere i sistemi di armi autonome (AWS). Il Ministro degli Esteri austriaco Alexander Schallenberg ha detto che la nostra generazione sta affrontando un “momento Oppenheimer” poiché i paesi devono decidere se e come regolare la gara alle armi dei robot killer. Dovremmo costruire robot IA completamente autonomi, fornirli di armi e poi vedere cosa succede? Oppure dovremmo rivedere Terminator e Bladerunner per avere un punto di riferimento? via GIPHY Parla il tuo preside Se qualcuno viene registrato mentre fa commenti offensivi, è facile per la persona liquidarli come falsi IA. Nel caso di un preside di una scuola di Baltimore, si è scoperto che era realmente stato l’obiettivo di un piccolo trucco IA fai-da-te. L’ex insegnante di ginnastica della scuola è stato arrestato per aver creato un clone IA della voce del preside. Ci sono volute settimane per concludere che il clip razzista era un falso e il preside ha temporaneamente perso il lavoro. Ascoltando l’audio è facile capire perché la gente pensava che fosse autentico. Note false Beethoven ha famosamente detto: “La musica può cambiare il mondo”. I generatori di musica IA stanno certamente cambiando il mondo della musica, ma non in un modo positivo. Le persone stanno usando sofisticati generators di testo in musica come Udio e Suno per creare e caricare interi album di musica IA su Spotify. E migliaia di persone stanno ascoltando le tracce. Le aziende di streaming e gli artisti stanno cercando di trovare un modo per navigare le acque torbide della musica IA. Almeno qualcuno si sta divertendo un po’ con questo prima che l’IA rovini la musica per sempre. Dio mio… l’IA ammette che ci rovinerà tutti… ma questo era divertente!!! ???????????????????????? Su Audio! L’IA che usa le creazioni degli artisti umani come “ispirazione” fa parte dell’argomento in corso su ciò che costituisce “uso equo” dei dati pubblicamente disponibili. OpenAI sta ancora combattendo battaglie legali per la sua razzia di dati internet per addestrare i propri modelli GPT. L’azienda sta cercando di mettersi in riga con un accordo che ha stretto con The Financial Times sui dati di addestramento. Parlando di IA Questa settimana ho avuto l’opportunità di avere una discussione molto interessante con Soheil Zabihi di TokenScope. TokenScope utilizza l’IA nella sua soluzione di monitoraggio delle transazioni di criptovalute. Soheil ha recentemente partecipato come oratore a un panel al Global Blockchain Show, che si è svolto parallelamente al Global AI Show a Dubai. Ha offerto alcune interessanti intuizioni su come Blockchain e IA cambieranno il modo in cui effettuiamo transazioni online. A proposito di altre notizie… Ecco alcune altre storie su IA che abbiamo apprezzato questa settimana: Fonte: arXiv E questo è tutto. Avete avuto l’opportunità di provare gpt2-chatbot prima che fosse rimosso? Scommetto che il chatbot era un indizio che OpenAI lancerà qualcosa di grande per oscurare l’imminente evento I/O di Google. Pensate che sia giusto che i robot IA si sfidino al posto dei soldati umani? O stiamo progettando la nostra stessa rovina? Lo sviluppo della musica IA mi ha reso un po’ diffidente. Ho terrore di incappare in un pezzo di musica generato dall’IA che mi piace davvero. Spero che questi strumenti non diventino migliori di quello che sono già, ma sembra inevitabile. Avete ascoltato una traccia che dimostra che il test di Turing della musica è stato superato? Inviaci un link, insieme a qualsiasi notizia interessante su IA che potremmo aver perso. Leggi di più su dailyai.com

Il VideoGigaGAN di Adobe migliora video sfocati per renderli 8 volte più nitidi

Il VideoGigaGAN di Adobe migliora video sfocati per renderli 8 volte più nitidi

I ricercatori di Adobe hanno presentato VideoGigaGAN, un modello di intelligenza artificiale generativo in grado di migliorare video sfocati trasformandoli in video nitidi e fluidi che sembrano fino a 8 volte più nitidi. Da un po’ di tempo abbiamo validi miglioratori di immagini, ma creare un buon miglioratore di video è esponenzialmente più difficile. La Super Risoluzione Video (Video Super Resolution, VSR) è il processo di prendere i singoli fotogrammi di un video, aumentare la risoluzione e i dettagli, e assemblare i fotogrammi per ricreare il video. Fare questo bene implica risolvere due sfide conflittuali. Gli attuali VSR generano video che sono fluidi e sfocati, o nitidi e pieni di difetti. Il VideoGigaGAN di Adobe aumenta la risoluzione del video sfocato per produrre un video che è sia temporalmente consistente (transizioni fluide fra i fotogrammi) e presenta dettagli ad alta frequenza. Ecco un esempio di quello che può fare VideoGigaGAN. I ricercatori di Adobe presentano VideoGigaGAN Ti permette di aumentare la risoluzione dei video fino a 8 volte, con dettagli migliorati. Articolo nei commenti ???? pic.twitter.com/7uEiU7bYqw — Kris Kashtanova (@icreatelife) 22 aprile 2024 Come suggerisce il nome, il metodo di Adobe si basa su GigaGAN, una rete generativa avversaria (GAN) avanzata. Le GAN sono ottime per aumentare la risoluzione delle immagini, e GigaGAN è una delle migliori in termini di super risoluzione delle immagini. Quindi perché non utilizzare semplicemente GigaGAN su ogni fotogramma per migliorare l’immagine e poi assemblarle tutte per creare il video? Quando i ricercatori di Adobe l’hanno provato, hanno ottenuto una grande risoluzione video ma il video risultante era temporalmente inconsistente e presentava sfarfallio. Aggiungendo livelli convoluzionali temporali e di attenzione a GigaGAN, l’inconsistenza temporale è stata risolta ma lo sfarfallio rimaneva ancora un problema. VideoGigaGAN risolve questo problema separando gli elementi a bassa frequenza e ad alta frequenza in ogni fotogramma e elaborando questi in modo diverso. La mappa di funzioni a bassa frequenza viene levigata per rimuovere i dettagli ad alta frequenza, che possono essere fonti di rumore e sfarfallio. Utilizzando le connessioni Skip, i dettagli più fini nei componenti ad alta frequenza vengono mantenuti bypassando i livelli intermedi nel modello che altrimenti verrebbero persi durante l’elaborazione. Puoi leggere di più sui dettagli tecnici nel documento di Adobe. Le demo sul GitHub di Adobe sono molto impressionanti. Adobe non ha dato indicazioni su una data di rilascio, ma speriamo che ci permettano di usarlo presto. Immagina cosa uno strumento del genere potrebbe fare per il materiale d’archivio storico, i film classici, o persino per migliorare i tuoi vecchi programmi televisivi preferiti in HD. Leggi di più su dailyai.com

Le canzoni generate dall’intelligenza artificiale raccolgono migliaia di ascolti su Spotify

Le canzoni generate dall'intelligenza artificiale raccolgono migliaia di ascolti su Spotify

La musica generata dall’IA è sempre più presente su Spotify, e i creatori temono che questa possa entrare in competizione con il lavoro autentico. Abbiamo ora almeno tre principali strumenti di intelligenza artificiale nello spazio testo-audio (o, forse più accuratamente, testo-musica): Udio, Suno e Limewire. Nonostante la produzione musicale sia diventata molto democratizzata dagli anni ’80 e ’90, ora chiunque può produrre musica dal suono naturale in pochi secondi. Da lì, basta solo fare qualche azione per caricarla su piattaforme di streaming e monetizzarla. L’ex leader del team Stability Audio, Ed Newton-Rex, che ora è un fermo sostenitore della corretta licenza dei dati da parte delle aziende di intelligenza artificiale generativa, ha portato all’attenzione una serie di canzoni chiaramente generate da IA che hanno accumulato migliaia di ascolti. Spotify propone attivamente musica generata da IA prodotta da modelli di intelligenza artificiale che potrebbero essere addestrati su musica protetta da diritti d’autore senza permesso. 240k ascoltatori mensili per questo ‘artista’. Mezzo milione di stream per la traccia più ascoltata. Ciò riduce la quota di diritti d’autore disponibile per i musicisti umani. Generativo… https://t.co/Z9semlqrO8 — Ed Newton-Rex (@ednewtonrex) 29 aprile 2024 È prova di una sfida esistenziale che l’industria musicale deve affrontare. Come sottolinea Newton-Rex, la musica generata dall’IA creata da strumenti addestrati su musica autentica compete ora con la stessa musica autentica da cui è stata creata. Questo rispecchia una situazione quasi identica nelle arti visive, dove strumenti come MidJourney, addestrati su grandi quantità di dati senza il permesso dei titolari dei diritti d’autore, competono ora direttamente con gli artisti in settori come il graphic design. Non tutti, tuttavia, sono preoccupati per questo. La democratizzazione tecnologica è stata fondamentale per l’evoluzione dell’arte, soprattutto negli ultimi secoli, spostandola dal dominio delle classi alte a qualcosa a cui l’intera società può partecipare e interagire. Alcuni si chiedono anche: che cosa è un lavoro creativo ‘autentico’ nella nostra era digitale, comunque? Se il ruolo dell’IA nell’arte è in qualche modo permesso, chi decide quando diventa inaccettabile? Le persone dovrebbero fare giudizi morali indiscriminati sui creatori che utilizzano l’IA? È pratico o utile? Per molti, tuttavia, il punto fondamentale è che le aziende di intelligenza artificiale non hanno pagato per i dati che hanno usato per creare i loro modelli. Questo sembra abbastanza chiaro, almeno. Spotify e altre aziende di streaming saranno la guida Una delle soluzioni più semplici è la demonetizzazione o addirittura la rimozione della musica generata da IA dalle piattaforme. Le grandi piattaforme come Spotify, le case discografiche e i grandi artisti hanno la maggiore influenza sulle future traiettorie. Tuttavia, l’implementazione di misure draconiane per terminare l’uso dell’IA in musica è irrealistica. Nel tardo 2023, Spotify è diventata il centro della controversia sulla musica AI quando ha apparentemente rimosso decine di migliaia di canzoni generate da AI caricate da Boomy, un generatore di musica AI. La mossa è arrivata in mezzo ai sospetti che i bot stessero gonfiando artificialmente il numero di riproduzioni di queste tracce, illustrando la sfida che i servizi di streaming devono affrontare per garantire un giusto compenso ai creatori umani mentre combattono gli stream falsi e la manipolazione dei diritti d’autore guidata dai bot. L’incidente è stato seguito da una rara intervista pubblica a settembre 2023 con il CEO di Spotify, Daniel Ek, che ha in parte chiarito la posizione della piattaforma sulla musica generata da IA. Ek ha dichiarato che mentre Spotify continuerà a ospitare contenuti generati da IA, non sosterrà tracce che imitano artisti reali senza il loro consenso. Questo è avvenuto dopo che Spotify ha rimosso la canzone generata da IA “Heart on My Sleeve”, che presentava le voci di Drake e The Weeknd senza il loro permesso. “Heart on My Sleeve” è stata successivamente rifiutata per essere considerata per un Grammy. Ek ha identificato tre distinte applicazioni dell’IA nella musica: strumenti che migliorano la produzione musicale, quelli che imitano artisti reali (che Spotify non supporta), e una categoria complessa in cui la musica creata da IA è chiaramente influenzata da artisti reali ma non li imita direttamente. Le preoccupazioni sull’impatto dell’IA sull’industria musicale sono continuate a crescere man mano che strumenti come Suno e Udio migliorano la tecnologia del testo-all’audio. Nell’aprile 2024, oltre 200 artisti di primo piano, tra cui Billie Eilish, Nicki Minaj, Pearl Jam, R.E.M, Chase & Status e Jon Bon Jovi, hanno promesso di affrontare direttamente la musica AI, mentre il sindacato degli artisti del SAG-AFTRA ha negociato con le case discografiche per ottenere protezione per gli artisti dalla musica AI. Un’altra implicazione qui è che questi grandi artisti avranno ancora più potere nell’era della musica AI. Hanno gli occhi e le orecchie per individuare la musica AI creata con i loro beni, il peso finanziario per citare in giudizio e l’influenza sulle case discografiche. Alcuni artisti hanno già concluso accordi per monetizzare i loro beni musicali alle aziende per gli strumenti di IA. T-Pain, John Legend e altri sette hanno concluso un accordo per consentire a YouTube di replicare le loro voci come funzionalità per i Shorts “per plasmare il futuro dell’IA nella musica”. Una cosa tra tutte queste sembra certa: il piccolo produttore di musica indipendente con meno risorse a disposizione sentirà più di chiunque altro l’impatto della musica generata da IA. Leggi di più su dailyai.com