ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

OpenAI nomina l’ex capo della NSA Paul Nakasone nel suo consiglio di amministrazione

OpenAI nomina l'ex capo della NSA Paul Nakasone nel suo consiglio di amministrazione

OpenAI ha nominato l’ex capo della NSA e generale in pensione Paul Nakasone nel suo consiglio di amministrazione. Le opinioni di Nakasone sulla raccolta di informazioni hanno sollevato le preoccupazioni dei sostenitori delle libertà civili. OpenAI è stata duramente criticata per il suo approccio alla sicurezza dell’IA in seguito al crollo del suo team di superallineamento e all’esodo degli esperti di sicurezza. Da allora ha istituito il Comitato per la sicurezza, che beneficerà della notevole esperienza di Nakasone nei suoi sforzi di utilizzare l’IA per combattere la criminalità informatica. Bret Taylor, presidente del consiglio di amministrazione di OpenAI, ha dichiarato: “L’intelligenza artificiale ha il potenziale per avere un enorme impatto positivo sulla vita delle persone, ma può soddisfare questo potenziale solo se queste innovazioni sono costruite e utilizzate in modo sicuro. L’esperienza impareggiabile del Generale Nakasone in settori come la sicurezza informatica aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità” Preoccupazioni per la privacy Nakasone ha credenziali impeccabili, ma le sue opinioni sulla raccolta di informazioni sono sottoposte a un ulteriore esame nella sua nuova posizione. Mentre era direttore dell’NSA, ha scritto un op-ed pubblicato sul Washington Post in cui ha appoggiato il rinnovo della Sezione 702 del Foreign Intelligence Surveillance Act. La Sezione 702 stabilisce i parametri per la raccolta di informazioni su individui non statunitensi, proteggendo al contempo la privacy dei cittadini americani. Sebbene la Sezione 702 sia rivolta a persone non statunitensi al di fuori degli Stati Uniti, spesso comporta la raccolta accidentale di comunicazioni che coinvolgono persone statunitensi. I critici sostengono che questa raccolta accidentale può portare alla raccolta di quantità sostanziali di dati sui cittadini americani senza un mandato. Nakasone ha dichiarato: “Avevamo anche bisogno di un modo sensato per lavorare con le aziende tecnologiche statunitensi i cui servizi venivano sempre più spesso sfruttati da terroristi e altri attori ostili all’estero per tramare contro di noi. Il Congresso ci ha fornito proprio questo nel 2008 con la creazione della Sezione 702” E ora siede nel consiglio di amministrazione di una di queste aziende. Nel 2023, Nakasone ha emanato una direttiva alla divisione SIGINT (signals intelligence) dell’NSA, responsabile della sorveglianza segreta e della raccolta di dati in tutto il mondo. La direttiva diceva che tutte le persone devono essere trattate con “dignità e rispetto”, ma poi descriveva come spiarle. La direttiva dice che “l’NSA deve impegnarsi in una raccolta massiva solo dopo aver stabilito che è necessario impegnarsi in una raccolta massiva per portare avanti una priorità di intelligence convalidata” Quando la direttiva è stata resa pubblica, Evan Greer, direttore del gruppo di difesa dei diritti digitali Fight for the Future, ha dichiarato a The Intercept: “È come se la CIA rilasciasse una dichiarazione in cui dice che in futuro sottoporrà le persone a waterboarding solo con dignità e rispetto. La sorveglianza di massa è fondamentalmente incompatibile con i diritti umani di base e la democrazia” OpenAI beneficerà senza dubbio dell’esperienza di Nakasone nel mantenere i suoi server e i suoi pesi al sicuro da occhi indiscreti. Ma c’è da chiedersi quale impatto potrebbe avere questa mossa sugli utenti di ChatGPT se uno degli ex colleghi di Nakasone dell’NSA chiedesse un favore. Leggi di più su dailyai.com

I prodotti Apple ricevono un impulso all’intelligenza artificiale grazie alla partnership con OpenAI

I prodotti Apple ricevono un impulso all'intelligenza artificiale grazie alla partnership con OpenAI

Apple ha utilizzato la conferenza per gli sviluppatori WWDC 2024 per annunciare che nel corso dell’anno arriverà sui suoi dispositivi un’ampia gamma di funzionalità basate sull’intelligenza artificiale. Dopo un inizio lento nella corsa all’intelligenza artificiale, i prodotti Apple sembrano destinati ad avere l’intelligenza artificiale integrata in ogni parte delle loro funzionalità. L’azienda afferma che la sua “Apple Intelligence” sarà presente nei nuovi iPhone, iPad e computer. Se possiedi un iPhone 15 Pro, un iPhone 15 Pro Max, un iPad o un Mac dotato di chip M1, potrai utilizzare le nuove funzioni AI. Le nuove funzioni includono suggerimenti di riassunto, modifica e scrittura in app come Mail. Gli strumenti di editing fotografico consentiranno di rimuovere gli oggetti, di eliminare gli estranei dalle foto e di generare emoji o immagini personalizzate a partire dai suggerimenti. Molte di queste funzionalità erano disponibili in singole app, ma con l’Intelligenza Apple queste funzioni funzionano sia all’interno che all’esterno delle app e diventano personalizzate in base al contesto. L’app Math Notes per iPad, potenziata dall’intelligenza artificiale, è particolarmente interessante. la funzione Note matematiche di iPadOS 18 è fantastica! 🔥🔥 Non c’è dubbio. #WWDC24 pic.twitter.com/ee4Pv9hhcD – AshutoshShrivastava (@ai_for_success) 10 giugno 2024 Molte di queste funzioni di Apple Intelligence verranno eseguite sul dispositivo per mantenere la privacy, mentre l’elaborazione AI più intensa avverrà sui server Private Cloud Compute di Apple. Aggiornamento di Siri Anche Siri riceve un aggiornamento basato sull’intelligenza artificiale che consente all’assistente vocale di comprendere e rispondere a un maggior numero di richieste in linguaggio naturale e di mantenere il contesto. Non è più necessario dire “Ehi Siri” prima di ogni richiesta. Ora, se fai una domanda a Siri, lei rimane nella conversazione e risponde alle domande successive. Potresti chiedere a Siri “Che tempo fa a New York?” e, una volta ottenuta la risposta, potresti chiedere “Quali sono i voli disponibili per raggiungerla?” con Siri che capisce il contesto della conversazione e a cosa si riferisce il termine “raggiungerla”. Siri avrà anche funzionalità personalizzate cross-app. Apple ha fatto l’esempio di chiedere a Siri: “Quando atterra il volo di mia madre?”. Siri è in grado di capire chi è “mamma” e di accedere ai dati del volo dalle e-mail o dai messaggi di testo. Apple ha dichiarato che Siri sarà in grado di svolgere compiti complessi come trovare una foto della patente di guida nel tuo album fotografico e poi estrarre il numero di identificazione da incollare in un modulo. Questo è il miglior esempio di Appledella nuova intelligenza artificiale nella vita di tutti i giorni. Potrebbe davvero cambiare le carte in tavola.#wwdc24 pic.twitter.com/txhxMcb9pM – Adrian Weckler (@adrianweckler) 10 giugno 2024 Partnership con OpenAI L’app ChatGPT per iOS è già disponibile da tempo, ma la nuova partnership di Apple con OpenAI vede ChatGPT integrato nelle funzionalità di iOS piuttosto che come app a sé stante. L’integrazione consentirà a GPT-4o di comprendere immagini e documenti sui dispositivi iOS senza dover passare da uno strumento all’altro. Gli utenti potranno anche chiedere a Siri di utilizzare ChatGPT per rispondere a una domanda o eseguire un compito. Apple è sempre stata molto attenta alla tutela della privacy e gli utenti saranno interpellati prima di inviare domande, documenti o foto a ChatGPT. In un comunicato, OpenAI ha dichiarato: “Le protezioni per la privacy sono integrate quando si accede a ChatGPT all’interno di Siri e degli Strumenti di scrittura: le richieste non vengono memorizzate da OpenAI e gli indirizzi IP degli utenti vengono oscurati” Ti fidi che OpenAI non utilizzi le tue telefonate, i tuoi messaggi, le tue e-mail o altri dati per addestrare i suoi modelli? Elon Musk è meno convinto. pic.twitter.com/7OgZAAdPf6 – Elon Musk (@elonmusk) 10 giugno 2024 In una serie di tweet Musk ha affermato che “Apple non ha la minima idea di cosa stia succedendo una volta che consegna i tuoi dati a OpenAI” Inoltre ha dichiarato: “Se Apple integra OpenAI a livello di sistema operativo, allora i dispositivi Apple saranno vietati nelle mie aziende… E i visitatori dovranno controllare i loro dispositivi Apple alla porta, dove saranno conservati in una gabbia di Faraday” Il trattamento disinvolto dei dati da parte di OpenAI potrebbe indurre alcuni ad adottare la visione scettica di Musk, ma le funzioni di intelligenza artificiale in arrivo su iOS18 sembrano troppo belle per resistere. Leggi di più su dailyai.com

Il generatore cinese di testi e video Kling è stato rilasciato per competere con Sora

Il generatore cinese di testi e video Kling è stato rilasciato per competere con Sora

L’azienda tecnologica cinese Kuaishou Technology ha rilasciato un generatore di video da testo (T2V) chiamato Kling che potrebbe rivaleggiare con Sora di OpenAI. A febbraio, OpenAI ci ha stupito con i video dimostrativi diSora che ci hanno fatto cercare freneticamente il pulsante “iscriviti”. Quattro mesi dopo, stiamo ancora aspettando il rilascio di Sora senza sapere quando potrebbe avvenire. Kuaishou, azienda con sede a Pechino, sviluppa piattaforme di condivisione di contenuti che, a suo dire, rendono “la produzione, la distribuzione e il consumo di contenuti facili e veloci” La piattaforma di video brevi dell’azienda, chiamata anch’essa Kuaishou, è seconda solo a TikTok in termini di utenti attivi medi giornalieri. Produrre contenuti per le sue piattaforme sarebbe molto più facile se non dovesse affidarsi a contenuti generati dall’uomo. Questa potrebbe essere una delle motivazioni alla base dello sviluppo del suo strumento T2V. Kling trasforma i messaggi di testo in video coerenti dal punto di vista temporale e spaziale e di grande effetto. Kuaishou afferma che Kling può generare video fino a 2 minuti con una risoluzione di 1080p e 30 fotogrammi al secondo. Si tratta di un minuto in più rispetto a quanto OpenAI afferma che Sora può produrre. L’altro grande elemento di differenziazione è che Kling è stato rilasciato al pubblico mentre Sora è ancora segreto. Se sei in Cina, o se hai un numero di cellulare cinese e una VPN, puoi richiedere di provare l’applicazione fin da ora. Come Sora, Kling utilizza un’architettura a trasformatori di diffusione. Inoltre, dispone di una potente tecnologia di ricostruzione 3D del volto e del corpo che può utilizzare un’immagine del corpo intero come suggerimento per generare un video con movimenti fluidi degli arti. Se ricordi il video un po’ terrificante di Will Smith che mangia gli spaghetti agli albori dei video generati dall’intelligenza artificiale, allora apprezzerai quanto sia sorprendente questo video generato da Kling. Sora di OpenAI è pazzesco. Ma KWAI ha appena lanciato un modello simile a Sora chiamato KLING e la gente ne va matta. Ecco 10 esempi da non perdere: 1. Un uomo cinese si siede a un tavolo e mangia i noodles con le bacchettespic.twitter.com/MIV5IP3fyQ – Angry Tom (@AngryTomtweets) 6 giugno 2024 La maggior parte degli impressionanti video dimostrativi in cui sono coinvolti molti movimenti sono brevi. I video più lunghi sono più scenografici con meno elementi dinamici, il che potrebbe indicare alcuni limiti dello strumento. Questa clip di una scena in evoluzione mostrata dalla prospettiva del finestrino di un treno è piuttosto impressionante. 2. Viaggiando in treno, osservo ogni tipo di paesaggio attraverso il finestrinopic.twitter.com/WqF9rlJxbh – Angry Tom (@AngryTomtweets) 6 giugno 2024 Gli elementi visivi con cui l’intelligenza artificiale ha sempre avuto difficoltà sono le dita, i denti o i movimenti naturali della bocca. Ecco un’impressionante clip che mostra come Kling riesca a gestire questi elementi in modo molto naturale. 3. Un ragazzo cinese con gli occhiali gusta un delizioso cheeseburger con gli occhi chiusi in un fast foodpic.twitter.com/ZOCy0n3gTa – Angry Tom (@AngryTomtweets) 6 giugno 2024 Il rilascio della versione beta di Kling è in un certo senso un commento sull’approccio all’IA tra Oriente e Occidente. Mentre l’Occidente discute sulla sicurezza dell’IA, sulla privacy e sui pericoli della disinformazione, la Cina procede spedita nello sviluppo. E questo nonostante le sanzioni degli Stati Uniti che cercano di rallentarlo. Mentre OpenAI cerca di capire come rendere Sora “sicuro” o politicamente corretto, potremmo dover guardare alla Cina per avere uno strumento T2V decente in mancanza di uno prodotto negli Stati Uniti. Leggi di più su dailyai.com

Nvidia Blackwell in cifre: il potenziale impatto del nuovo superchip AI di Nvidia

Nvidia Blackwell in cifre: il potenziale impatto del nuovo superchip AI di Nvidia

NVIDIA CEO Jensen Huang ha recentemente descritto in dettaglio l’ultimo chip acceleratore di AI dell’azienda, chiamato Blackwell, durante il keynote del Computex 2024. Con Blackwell, NVIDIA punta a consolidare il proprio dominio nel fiorente settore dell’hardware per l’intelligenza artificiale. Con una capitalizzazione di mercato dell’azienda che sta correndo verso la soglia dei 3.000 miliardi di dollari, l’ascesa di NVIDIA al comando supremo dell’infrastruttura AI è stata a dir poco sorprendente. Huang non vede alcun segno di stallo nei progressi, poiché l’azienda continua a superare le aspettative degli analisti. Ma cosa ci dicono davvero le specifiche e i numeri sulle capacità e sul potenziale impatto di Blackwell? Diamo un’occhiata più da vicino a come potrebbe influire sul settore dell’intelligenza artificiale e sulla società in generale. Potenza di calcolo grezza Il dato principale è che un singolo “superchip ” Blackwell – composto da due GPU collegate da un link ad alta velocità – contiene ben 208 miliardi di transistor. Si tratta di un aumento di quasi 3 volte rispetto alla precedente generazione di chip Hopper di NVIDIA. NVIDIA sostiene che questo si traduce in un aumento di velocità di 30 volte nelle attività di inferenza AI rispetto a Hopper. Per mettere questo dato in prospettiva, consideriamo un esempio di modello linguistico di grandi dimensioni con 100 miliardi di parametri, una scala simile a GPT-3. L’addestramento di un modello di questo tipo con le GPU A100 di precedente generazione di NVIDIA richiederebbe circa 1.024 chip A100 in funzione per un mese. Con Blackwell, NVIDIA sostiene che lo stesso modello potrebbe essere addestrato in poco più di una settimana utilizzando 256 chip Blackwell – una riduzione di 4 volte del tempo di addestramento. Efficienza energetica Nonostante i notevoli guadagni in termini di prestazioni, NVIDIA afferma che Blackwell può ridurre i costi e il consumo energetico fino a 25 volte rispetto a Hopper per alcuni carichi di lavoro di intelligenza artificiale. L’azienda ha fornito l’esempio dell’addestramento di un modello da 1,8 trilioni di parametri, che in precedenza avrebbe richiesto 8.000 GPU Hopper con 15 megawatt di potenza. Con Blackwell, NVIDIA afferma che questo risultato potrebbe essere raggiunto con 2.000 GPU che assorbono solo 4 megawatt. Sebbene un consumo di 4 megawatt per una singola sessione di addestramento dell’intelligenza artificiale sia ancora notevole, è impressionante che Blackwell sia in grado di fornire un aumento di quasi 4 volte dell’efficienza energetica per un compito così impegnativo. Costi ambientali Tuttavia, anche con una migliore efficienza energetica, l’adozione diffusa di Blackwell potrebbe aumentare in modo significativo il consumo energetico complessivo dei sistemi di intelligenza artificiale. Ad esempio, ipotizziamo che attualmente in tutto il mondo vengano utilizzate 100.000 GPU ad alte prestazioni per l’addestramento e l’inferenza dell’IA. Se Blackwell consente di aumentare di 10 volte l’adozione dell’IA nei prossimi anni, il che non sembra una cifra straordinaria da infilare in uno spillo, ciò significherebbe 1 milione di GPU Blackwell in uso. Alla potenza di 1,875 kilowatt per GPU citata da Huang, 1 milione di GPU Blackwell consumerebbe 1,875 gigawatt di energia – quasi la produzione di due centrali nucleari medie. Analisi precedenti hanno previsto che i carichi di lavoro dell’IA potrebbero consumare una quantità di energia pari a quella di un piccolo paese entro il 2027. Anche il consumo di acqua è un problema importante: Microsoft ha rivelato un enorme aumento del consumo di acqua dal 2022 al 2023, correlato all’addestramento dei modelli di IA e alla domanda dei data center. Senza trovare modi migliori per far funzionare l’hardware dell’IA da fonti rinnovabili, le emissioni di carbonio e il consumo di acqua dell’IA alimentata da Blackwell saranno enormi. Oltre al consumo di energia, è fondamentale considerare altri costi ambientali, come i minerali di terre rare e altre risorse necessarie per produrre chip avanzati come Blackwell su scala e i rifiuti generati quando raggiungono la fine del loro ciclo di vita. Questo non vuol dire che i benefici sociali delle capacità di intelligenza artificiale sbloccate da Blackwell non possano superare questi costi ambientali, come Huang e altri leader tecnologici sono certi. Ma significa che l’impatto ambientale dovrà essere gestito e mitigato con attenzione nell’ambito di qualsiasi piano di implementazione responsabile di Blackwell, e c’è un punto interrogativo persistente sulla possibilità di farlo. Il potenziale impatto di Blackwell Quindi, come potrebbe essere il mondo in un’epoca di adozione diffusa di Blackwell? Alcune stime di massima danno un’idea delle possibilità e dei rischi: Modelli linguistici di dimensioni 10 volte superiori a GPT-3 potrebbero essere addestrati in un lasso di tempo simile e utilizzando una quantità di risorse informatiche simile a quella di GPT-3. Ciò consentirà di fare un grande balzo in avanti nelle capacità di intelligenza artificiale del linguaggio naturale. Come descritto durante il keynote, gli assistenti digitali con capacità simili a quelle umane potrebbero potenzialmente diventare economicamente convenienti da sviluppare e distribuire su larga scala. Un’intelligenza artificiale in grado di gestire l’80% dei compiti di un tipico lavoro di conoscenza a un decimo del costo di un lavoratore umano potrebbe sostituire fino a 45 milioni di posti di lavoro nei soli Stati Uniti. La capacità computazionale di addestrare un sistema di IA con un’intelligenza generale pari o superiore a quella del cervello umano potrebbe essere a portata di mano. Le stime sulla capacità di calcolo del cervello vanno da 10^13 a 10^16 connessioni neurali. Un supercomputer alimentato da Blackwell e dotato di 1 milione di GPU avrebbe una capacità di calcolo stimata in 10^18 flops, potenzialmente sufficiente a simulare aspetti del cervello umano in tempo reale. Naturalmente, si tratta di scenari altamente speculativi e devono essere presi con un granello di sale. La fattibilità tecnica non si traduce necessariamente in un’implementazione nel mondo reale. Tuttavia, evidenziano l’enorme e dirompente potenziale dell’accelerazione dell’intelligenza artificiale che NVIDIA sta abilitando con Blackwell. Huang ha descritto Blackwell come “una nuova piattaforma di computing per una nuova era del computing” Sulla base dei numeri, è difficile discutere questa caratterizzazione. Blackwell sembra pronto a inaugurare la prossima fase della rivoluzione dell’intelligenza artificiale, nel bene e nel male.

AI Summit London 2024: Un’esperienza immersiva nell’AI

AI Summit London 2024: Un'esperienza immersiva nell'AI

Preparati a partecipare all’evento sull’AI più atteso dell’anno: l’AI Summit London 2024! Come evento di punta della London Tech Week, questo summit promette di essere un incontro senza precedenti tra leader del settore, innovatori e appassionati. Che tu sia un professionista esperto o abbia appena iniziato il tuo viaggio nel mondo dell’AI, questo è il posto giusto. Assicurati subito il tuo pass per entrare a far parte di una comunità che sta guidando il futuro dell’intelligenza artificiale e assistere in prima persona ai progressi rivoluzionari che stanno plasmando il nostro mondo. I lettori di DailyAI hanno diritto a uno sconto del 15% utilizzando il codice sconto “DAILYAI15OFF”. Punti salienti dell’evento Keynote esclusive: Ascolta i migliori esperti come Christyl Johnson della NASA sulla presenza umana sostenibile su Marte e John Abel di Google Cloud sulla potenza dell’IA generativa. Sessioni all’avanguardia: Immergiti nelle sessioni che riguardano il ruolo dell’IA in vari settori, tra cui l’assistenza sanitaria, la finanza e il servizio clienti. Competizioni innovative: Vivi l’emozione dell’AI Accelerator Pitching Competition, dove startup dinamiche presentano le loro idee rivoluzionarie. Opportunità di networking: Incontra i colleghi, i leader e gli innovatori nelle zone dedicate al networking e nelle esclusive sale VIP. Punti salienti degli oratori L’Headliner e altri 5 palchi di contenuti premium vedranno specialisti e scienziati di primo piano discutere gli ultimi sviluppi dell’IA e le applicazioni reali di questa tecnologia trasformativa. I relatori sono troppi per poterli citare tutti in questa sede, ma tra gli oratori di spicco ci sono: Colin Jarvis, Chief Architect – OpenAI – “What’s next for Language Models?” Christyl Johnson, vicedirettore del centro per gli investimenti tecnologici e di ricerca del Goddard Space Flight Centre della NASA: “Sfruttare la tecnologia per portare una presenza umana sostenibile su Marte” John Abel, Direttore tecnico, Ufficio del CTO – Google Cloud – “Libera la potenza dell’intelligenza artificiale generativa con Google Cloud e Gemini” Jane Barrett, Global Editor, Media News Strategy – Reuters – “Il futuro delle notizie nell’era dell’IA” Axel Threlfall, Editor at Large – Reuters – “Il processo decisionale alimentato dall’AI per i leader aziendali” Ritika Gunnar, General Manager, Product Management for Data & AI – IBM – “Scalare l’impatto dell’IA generativa responsabile” Eventi collaterali Allontanandosi dai palcoscenici è possibile vivere altre esperienze immersive nell’IA, tra cui questi eventi collaterali: AI Accelerator Hub: Un’iniziativa in stile Dragon’s Den per le start-up focalizzate sull’IA, che combina mentoring e gare di pitching. AI Hackathon: Un’esperienza coinvolgente con workshop pre-evento, incontri virtuali e una sfida di hacking. L’obiettivo è quello di colmare il divario di talenti nel campo dell’IA e della scienza dei dati. Tavole rotonde sulla leadership D&I: Tavole rotonde incentrate sul miglioramento dell’inclusività, sulla promozione della diversità e sulla coltivazione di una cultura di appartenenza sul posto di lavoro. VisionAIres Lounge & Programme: Opportunità di networking e collaborazione per dirigenti, CxO e professionisti del settore, con discussioni di alto livello ed eventi di networking esclusivi. L’AI Summit VIP Social: Descrizione: Un esclusivo evento di networking con drink al bar sul tetto di Tobacco Dock, che offre la possibilità di fare networking con i colleghi sullo sfondo dello skyline di Londra. AI Authors Corner: Discorsi intimi di autori leader nel campo dell’intelligenza artificiale, con firma di libri. Networking Zone: Uno spazio per incontrare e connettersi con i principali sponsor, relatori e partecipanti. Include firme di libri di autori, networking Intellidate e orari di networking aperti. Centro Soluzioni: Sessioni in stile workshop che affrontano questioni e sfide urgenti nel campo dell’IA, offrendo spunti praticabili attraverso il networking e la consulenza di esperti. The AI Summit Business Book Exchange: Un evento di scambio di libri nella Networking Zone, dove i partecipanti possono condividere e scoprire libri sull’IA, sulla tecnologia e sul business. Questi eventi collaterali offrono opportunità uniche per migliorare la tua esperienza all’AI Summit, fornendo networking, apprendimento e sessioni interattive per approfondire il tuo impegno con la comunità dell’AI. L’AI Summit London 2024 non è solo un evento, ma un’esperienza che ti lascerà ispirato e dotato delle conoscenze e delle connessioni necessarie per guidare l’innovazione dell’AI nella tua organizzazione. Non perdere questa opportunità unica di essere all’avanguardia dei progressi dell’IA. Registrati oggi con il codice sconto “DAILYAI15OFF” e preparati a immergerti nel mondo dell’IA al The AI Summit London 2024, dove l’innovazione incontra l’opportunità. Ci vediamo lì! Data dell’evento: 12-13 giugno 2024 Sede dell’evento: Tobacco Dock, Londra Leggi di più su dailyai.com

Summit europeo sulla gestione termica degli EV 2024: Tendenze emergenti e tecnologia

Summit europeo sulla gestione termica degli EV 2024: Tendenze emergenti e tecnologia

Il 2° European EV Thermal Management Summit 2024 si terrà il 6 e 7 giugno a Francoforte, in Germania. Si tratta di un evento fondamentale per tutti gli appassionati delle ultime tecnologie e tendenze della gestione termica dei veicoli elettrici. Ospitato da ECV International, questo summit promette un’immersione profonda negli ultimi progressi della gestione termica degli EV, un aspetto fondamentale per le prestazioni, la sicurezza e l’efficienza dei veicoli elettrici. Registrati subito per partecipare di persona o virtualmente. Questo evento offre un’opportunità unica di entrare in contatto con i migliori esperti del settore e di conoscere le tecnologie all’avanguardia che stanno plasmando il futuro del trasporto sostenibile. Perché partecipare? La gestione termica dei veicoli elettrici dovrà adottare nuove tecnologie intelligenti per raggiungere le emissioni zero nell’UE entro il 2050. Per raggiungere questo obiettivo, l’UE ha varato nuovi regolamenti per rafforzare la supervisione dell’efficienza energetica delle auto, la sicurezza del ciclo di vita e la riduzione delle emissioni di carbonio. La gestione termica dei veicoli elettrici svolge un ruolo importante nel rispetto di queste normative. Questo summit fornirà informazioni preziose su come le tecnologie intelligenti come l’intelligenza artificiale, i nuovi materiali e i sistemi all’avanguardia vengono sfruttati per migliorare l’efficienza, la sicurezza e la sostenibilità dei veicoli elettrici. Punti salienti dell’evento Analisi delle tendenze della gestione termica dei veicoli elettrici in Europa Ottimizzazione dell’architettura dei sistemi di gestione termica integrati Sviluppo di pompe di calore CO2 (R744) per autoveicoli a temperature bassissime Sistema di controllo del riscaldamento e del raffreddamento a basse emissioni di carbonio per il comfort della cabina dei passeggeri Fuga termica delle batterie CTP e riciclaggio delle batterie agli ioni di litio architettura del sistema elettrico a 800 Volt e ricarica più veloce Soluzioni intelligenti guidate dall’intelligenza artificiale per trasformare il calore di scarto in elettricità Refrigeranti futuri e diversi percorsi tecnici delle pompe di calore in Europa chip ad alta potenza 1200V Cool SiC per migliorare la dissipazione del calore dei veicoli elettrici Sviluppo della tecnologia delle batterie allo stato solido Unità HVAC avanzate e moduli di efficienza di raffreddamento del motore migliorati Sistema di raffreddamento immersivo per batterie Punti salienti dei relatori Più di 17 relatori di spicco condivideranno le ultime novità sulle tecnologie di gestione termica degli EV. Tra i migliori professionisti del settore che potrai ascoltare ci sono: Prof. Dr. Kamel Azzouz – Responsabile Ricerca e Innovazione di Valeo Argomento: Tecnologia di raffreddamento a immersione Valeo: Garantire le prestazioni e la sicurezza delle batterie con una gestione termica e meccanica avanzata Luca Patricelli – Application Specialist Simcenter Amesim, Siemens Digital Industries Software Argomento: Tecniche di modellazione avanzate per sistemi integrati innovativi di gestione termica ed energetica Dr. Jelena Andric – Professore associato in Modellazione e Simulazione dei Motopropulsori Futuri, Chalmers University of Technology Argomento: Ottimizzazione del sistema di gestione termica integrata mediante un approccio di simulazione del sistema Dr. Marco Barbolini – Product Manager Propulsion Global, Röchling Automotive srl Argomento: Riscaldatore ad alta tensione per il sistema di raffreddamento dei BEV Carlos Pereira – Chief Scientist, SABIC Argomento: Possibilità di migliorare il trasferimento di calore nei veicoli elettrici utilizzando scambiatori di calore ibridi Aurélie Débart, PhD. – Esperto di sicurezza delle batterie da trazione, Ampere Argomento: Propagazione termica della batteria dalla vita reale alla normativa Il 2° European EV Thermal Management Summit 2024 è un evento di primo piano che riunisce leader del settore, innovatori ed esperti per discutere il futuro della gestione termica dei veicoli elettrici. Non perdere l’occasione di partecipare a questo evento trasformativo. Registrati oggi stesso per essere in prima linea nel futuro dei veicoli elettrici! Per maggiori informazioni e per iscriverti, visita il sito ufficiale dell’evento o contatta gli organizzatori all’indirizzo [email protected]. Data: 6-7 giugno 2024 Luogo: Francoforte, Germania Registrazione: Eventi ECV Leggi di più su dailyai.com

Google ammette il problema dell’AI Overviews e dice che lo sta risolvendo

Google ammette il problema dell'AI Overviews e dice che lo sta risolvendo

Dopo che la nuova funzionalità di ricerca AI Overviews di Google è fallita in modo spettacolare la scorsa settimana, l’azienda ha minimizzato il problema, ma ha detto che è in corso una correzione. AI Overviews utilizza l’intelligenza artificiale per attingere alle informazioni su Internet e fornire una risposta a una query di ricerca. Questo evita all’utente il fastidio di cliccare su più siti web. In un classico caso di “spazzatura in, spazzatura out”, molte delle risposte fornite da AI Overviews erano comicamente sbagliate perché si basavano su informazioni errate pubblicate online. La responsabile della ricerca Liz Reid ha rilasciato una dichiarazione in un post sul blog in cui ha affermato che AI Overviews è stato un grande successo, ma ha ammesso che ci sono stati alcuni intoppi. Reid ha detto che le ragioni alla base di alcuni risultati strani erano query senza senso o screenshot falsi. Riguardo ai risultati falsi, Reid ha detto: “Queste AI Overviews non sono mai apparse. Quindi invitiamo chiunque incontri questi screenshot a fare una ricerca autonomamente per verificarlo”. Ha ammesso che AI Overviews ha fornito alcuni risultati “strani, imprecisi o inutili”. Il motivo principale è la mancanza di dati di qualità su Internet relativi alla query o il fatto che la query fosse senza senso e lo strumento di ricerca non lo abbia rilevato. Il suggerimento di mangiare pietre è un perfetto esempio della sfida che AI Overviews deve affrontare. La domanda “Quante pietre dovrei mangiare?” non sarebbe stata fatta da molte persone. Quando AI Overviews ha provato a rispondere alla query, ha trovato un articolo satirico su The Onion che suggeriva scherzosamente di mangiare una piccola pietra al giorno. AI Overviews non è bravo a distinguere i contenuti umoristici, satirici o sarcastici dalle informazioni fattuali, ma Google afferma di aver migliorato la qualità dei risultati di AI Overviews: Costruire meccanismi di rilevamento migliori per query senza senso e contenuti satirici o umoristici. Limitare l’uso di contenuti generati dagli utenti (ad esempio Reddit) nelle risposte che potrebbero offrire consigli fuorvianti. Aggiungere restrizioni di attivazione per le query in cui AI Overviews non si è rivelato utile. Aggiungere limiti più forti per limitare le risposte relative a temi come le notizie e la salute. Le persone si sono forse divertite a concentrarsi sulle risposte strane, ma fornire risposte coerentemente buone alle query di ricerca è estremamente difficile. AI Overviews è oggettivamente utile, anche se è necessario trattare i risultati con un certo scetticismo. L’intelligenza artificiale non crea informazioni, si affida ai suoi dati di addestramento o, come nel caso di AI Overviews, restituisce una risposta basata su informazioni generate dagli umani su Internet. AI Overviews deve rispondere alle stesse sfide a cui gli umani si trovano di fronte quando leggono qualcosa online: è vero? Ironia della sorte, l’intelligenza artificiale sta rendendo questa domanda più difficile da rispondere, non più facile. Leggi di più su dailyai.com

NVIDIA presenta le tecnologie AI di nuova generazione al Computex 2024 di Taiwan

NVIDIA presenta le tecnologie AI di nuova generazione al Computex 2024 di Taiwan

Il CEO di NVIDIA Jensen Huang ha utilizzato il discorso di apertura del keynote dell’evento Computex 2024 di Taiwan per svelare le tecnologie di nuova generazione e la roadmap che l’azienda perseguirà per diventare la principale piattaforma hardware di AI. Il tema del suo discorso era “Accelerare tutto” e Huang ha svelato nuovi chip, reti AI più veloci e un’ambiziosa roadmap di sviluppo. Dai PC AI alle fabbriche AI di massa, NVIDIA vuole essere l’abilitatore di ciò che verrà con l’AI. “Il futuro del computing è accelerato”, ha dichiarato Huang. “Con le nostre innovazioni nel campo dell’intelligenza artificiale e dell’elaborazione accelerata, stiamo superando i limiti del possibile e stiamo guidando la prossima ondata di progressi tecnologici” Ecco una rapida carrellata di annunci: Nuovi chip Le GPU Blackwell sono appena uscite dalla linea di produzione, ma Huang ha dichiarato che possiamo già aspettarci una GPU Blackwell Ultra aggiornata nel corso dell’anno. Ha dichiarato che la roadmap di sviluppo di NVIDIA prevede il rilascio di una nuova famiglia di chip ogni anno. “La nostra azienda ha un ritmo annuale. La nostra filosofia di base è molto semplice: costruire l’intera scala dei data center, disaggregare e vendere le parti a un ritmo annuale e spingere tutto ai limiti della tecnologia”, ha spiegato Huang. Huang ha annunciato che nel 2026 la piattaforma Rubin succederà alla famiglia di GPU Blackwell. La roadmap dei chip di NVIDIA fino al 2027. Fonte: NVIDIA Fabbriche di AI Huang ha nominato diverse aziende di computing che costruiranno “fabbriche di AI” che offriranno sistemi di AI in cloud, on-premises, embedded ed edge utilizzando le GPU e il networking di NVIDIA. Huang ha dichiarato: “La prossima rivoluzione industriale è iniziata. Aziende e paesi stanno collaborando con NVIDIA per spostare i data center tradizionali da un trilione di dollari verso il computing accelerato e costruire un nuovo tipo di data center – le fabbriche di AI – per produrre una nuova merce: l’intelligenza artificiale.” NVIDIA MGX (Modular Server Reference Architecture) è un progetto per la costruzione di server per data center che si concentra sull’elaborazione accelerata. Utilizza un approccio standardizzato per la costruzione di server che utilizzano i prodotti NVIDIA, il che rende molto più semplice la realizzazione di queste fabbriche di intelligenza artificiale. NVIDIA Spectrum-X NVIDIA utilizza NVLink per spostare i dati tra le GPU, ma lo spostamento dei dati tra i pod delle GPU all’interno o tra i data center rappresenta un’ulteriore sfida. NVIDIA Spectrum-X è la prima piattaforma di networking Ethernet al mondo progettata specificamente per migliorare le prestazioni dei carichi di lavoro AI. Naturalmente, NVIDIA Spectrum-X è ottimizzato per l’hardware di NVIDIA. NVIDIA afferma che Spectrum-X accelera le prestazioni delle reti AI generative di 1,6 volte rispetto ai tessuti Ethernet tradizionali. La scorsa settimana abbiamo riportato la notizia che le aziende di computing delle Big Tech stanno lavorando per sviluppare uno standard aperto di networking accelerato per l’intelligenza artificiale senza il contributo di NVIDIA. Tuttavia, Huang ha dichiarato che Spectrum-X è già stato adottato da aziende come Dell Technologies, Hewlett Packard Enterprise e Lenovo. NIM NVIDIA NIM, acronimo di NVIDIA Inference Microservices, è una serie di strumenti progettati per semplificare e accelerare l’implementazione di modelli di AI generativi. Prima di poter utilizzare un modello di intelligenza artificiale, gli sviluppatori devono distribuirlo. Invece di dover armeggiare con i dettagli di questo processo, i NIM di NVIDIA semplificano la distribuzione containerizzando automaticamente i modelli di intelligenza artificiale e ottimizzandoli per l’hardware NVIDIA. È come la differenza tra comprare, tagliare e assemblare tutti gli ingredienti per un pasto e mettere in forno un piatto già pronto. Huang ha annunciato che il NIM Llama 3 è ora disponibile come download gratuito per gli sviluppatori. Huang ha anche presentato il NIM Nvidia Ace che include un modello Digital Human in grado di generare modelli umani AI con pelle realistica. Puoi guardare l’intero keynote per vedere ulteriori dettagli sui PC e i laptop dotati di AI RTX, sulla piattaforma robotica Isaac ROS 3.0 di Nividia e sul modo in cui le fabbriche stanno utilizzando la tecnologia di NVIDIA per creare gemelli digitali nelle loro fabbriche per addestrare i robot. Leggi di più su dailyai.com

La Task Force ChatGPT dell’UE pubblica un rapporto sulla privacy dei dati

La Task Force ChatGPT dell'UE pubblica un rapporto sulla privacy dei dati

L’European Data Protection Board ha istituito un anno fa la ChatGPT Taskforce per stabilire se la gestione dei dati personali da parte di OpenAI fosse conforme alle leggi del GDPR. Ora è stato pubblicato un rapporto che illustra i risultati preliminari. L’UE è estremamente severa su come vengono utilizzati i dati personali dei suoi cittadini e le norme del GDPR definiscono esplicitamente cosa le aziende possono o non possono fare con questi dati. Le aziende di AI come OpenAI rispettano queste leggi quando utilizzano i dati per l’addestramento e il funzionamento dei loro modelli? A un anno dall’inizio del lavoro della ChatGPT Taskforce, la risposta breve è: forse, forse no. Ilrapporto dice che sta pubblicando i risultati preliminari e che “non è ancora possibile fornire una descrizione completa dei risultati” Le tre aree principali su cui la taskforce ha indagato sono la legalità, l’equità e l’accuratezza. Legalità Per creare i suoi modelli, OpenAI ha raccolto dati pubblici, li ha filtrati, li ha utilizzati per addestrare i suoi modelli e continua ad addestrarli con le richieste degli utenti. È legale in Europa? Il web scraping di OpenAI raccoglie inevitabilmente dati personali. Il GDPR dice che è possibile utilizzare queste informazioni solo in presenza di un interesse legittimo e tenendo conto delle ragionevoli aspettative che le persone hanno sull’utilizzo dei loro dati. OpenAI afferma che i suoi modelli sono conformi all’articolo 6, paragrafo 1, lettera f) del GDPR, che dice in parte che l’uso dei dati personali è legale quando “il trattamento è necessario ai fini degli interessi legittimi perseguiti dal responsabile del trattamento o da una terza parte” Il rapporto afferma che “dovrebbero essere adottate misure per cancellare o anonimizzare i dati personali raccolti tramite web scraping prima della fase di formazione” OpenAI afferma di aver adottato misure di salvaguardia dei dati personali, ma la task force afferma che “l’onere della prova per dimostrare l’efficacia di tali misure spetta a OpenAI” Correttezza Quando i cittadini dell’UE interagiscono con le aziende si aspettano che i loro dati personali vengano gestiti in modo corretto. È giusto che ChatGPT abbia una clausola nei Termini e Condizioni che dice che gli utenti sono responsabili dei loro input in chat? Il GDPR dice che un’organizzazione non può trasferire la responsabilità della conformità al GDPR all’utente. Il rapporto afferma che “se ChatGPT viene reso disponibile al pubblico, si deve presumere che prima o poi gli individui inseriranno dati personali. Se questi dati diventano parte del modello di dati e, ad esempio, vengono condivisi con chiunque faccia una domanda specifica, OpenAI rimane responsabile della conformità al GDPR e non dovrebbe sostenere che l’inserimento di alcuni dati personali era vietato in primo luogo” Il rapporto conclude che OpenAI deve essere trasparente nell’informare esplicitamente gli utenti che i loro input possono essere utilizzati per scopi di formazione. Precisione I modelli di AI hanno le allucinazioni e ChatGPT non fa eccezione. Quando non conosce la risposta, a volte si inventa qualcosa. Quando fornisce dati errati sulle persone, ChatGPT viola il requisito di accuratezza dei dati personali previsto dal GDPR. Il rapporto osserva che “è probabile che i risultati forniti da ChatGPT vengano considerati dagli utenti finali come accurati, comprese le informazioni relative alle persone, a prescindere dalla loro effettiva accuratezza” Anche se ChatGPT avverte gli utenti che a volte commette degli errori, la task force afferma che ciò “non è sufficiente a rispettare il principio di accuratezza dei dati” OpenAI sta affrontando una causa legale perché ChatGPT continua a sbagliare la data di nascita di un personaggio pubblico di rilievo. Nella sua difesa, l’azienda ha dichiarato che il problema non può essere risolto e che le persone dovrebbero chiedere di cancellare tutti i riferimenti a tali personaggi dal modello. Lo scorso settembre, OpenAI ha creato un’entità legale irlandese a Dublino, che ora rientra nell’ambito della Commissione irlandese per la protezione dei dati (DPC). Questo la mette al riparo dalle contestazioni del GDPR dei singoli stati dell’UE. La ChatGPT Taskforce formulerà conclusioni legalmente vincolanti nel suo prossimo rapporto? OpenAI potrebbe conformarsi, anche se lo volesse? Nella loro forma attuale, ChatGPT e altri modelli potrebbero non essere mai in grado di rispettare completamente le norme sulla privacy scritte prima dell’avvento dell’IA. Leggi di più su dailyai.com

Big Tech forma uno standard di connettività AI, escludendo NVIDIA

Big Tech forma uno standard di connettività AI, escludendo NVIDIA

Le aziende di big tech computing hanno formato un consorzio per definire un nuovo standard aperto per l’interconnessione degli acceleratori AI. NVIDIA non è stata invitata a far parte del gruppo anche se è di gran lunga il maggior fornitore di GPU AI. I data center di intelligenza artificiale devono spostare enormi quantità di dati con una latenza molto bassa. L’elaborazione dei dati ad alta larghezza di banda sulle GPU è estremamente veloce, ma la sfida consiste nel trasferire i dati all’interno dei data center e tra i cluster di questi acceleratori AI. NVIDIA ha creato NVLink, l’interconnessione proprietaria ad alta velocità progettata appositamente per la comunicazione tra le sue GPU. Il problema è che NVLink è proprietario, quindi funziona solo con le GPU NVIDIA. AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta e Microsoft hanno annunciato di aver formato l’Ultra Accelerator Link Promoter Group. Il gruppo mira a definire e promuovere uno standard aperto chiamato Ultra Accelerator Link, o UALink. L’idea è che UALink venga adottato dall’industria come soluzione standard per il trasferimento di dati ad alta larghezza di banda e bassa latenza tra gli acceleratori di intelligenza artificiale nei data center. Simili sforzi per standardizzare i protocolli sono stati essenziali per l’industria tecnologica in passato. Grazie a standard aperti come il bus PCI, l’Ethernet o il TCP/IP, hardware e software di produttori diversi possono essere collegati tra loro. Questo potrebbe essere uno dei motivi per cui NVIDIA non è stata invitata alla festa. Se il consorzio di aziende tecnologiche riuscirà a trovare un accordo su uno standard di rete industriale aperto che non sia influenzato dalla tecnologia di NVIDIA, potrebbe riuscire a rompere il quasi monopolio che NVIDIA sembra avere. AMD e Intel sono dirette concorrenti di NVIDIA nel mercato delle GPU e Microsoft e Google stanno entrambe sviluppando il proprio hardware per l’intelligenza artificiale. “Una specifica del settore diventa fondamentale per standardizzare l’interfaccia per le applicazioni AI e Machine Learning, HPC (High Performance Computing) e Cloud per la prossima generazione di data center e implementazioni AI”, ha dichiarato il consorzio in un comunicato. La versione 1.0 di UALink dovrebbe essere pronta per il terzo trimestre del 2024 e sarà resa disponibile alle aziende che si uniranno al consorzio Ultra Accelerator Link (UALink). L’assenza di NVIDIA non significa necessariamente che sia definitivamente esclusa. Il consorzio potrebbe decidere di accoglierle in futuro e NVIDIA potrebbe scegliere di adottare UALink in caso di ampia accettazione da parte del settore. Leggi di più su dailyai.com