Rapporto del FMI: L’Intelligenza Artificiale sostituirà i posti di lavoro ma aumenterà la produttività, se controllata

Il Fondo Monetario Internazionale (FMI) ha avvertito che l’IA potrebbe portare a massicce perdite di posti di lavoro, ampliare le disuguaglianze e destabilizzare le società se i governi non adotteranno misure proattive. In un rapporto completo pubblicato oggi, il FMI ha sottolineato l’enorme potenziale dell’IA generativa per spingere la produttività e trasformare l’erogazione dei servizi pubblici. Tuttavia, l’organizzazione ha anche espresso “profonde preoccupazioni” riguardo alla capacità della tecnologia di sconvolgere i mercati del lavoro e di esacerbare le disparità di reddito e di ricchezza su una scala senza precedenti. Era Dabla-Norris, vicedirettore del dipartimento di affari fiscali del FMI e coautrice del rapporto, ha spiegato la necessità di politiche che garantiscano un’ampia condivisione dei benefici dell’IA, creando al contempo opportunità per i lavoratori il cui posto di lavoro potrebbe essere soppiantato dalla tecnologia. “Vogliamo che le persone possano beneficiare in modo più ampio del potenziale di questa tecnologia e vogliamo assicurarci che vengano create delle opportunità per le persone”, ha dichiarato Dabla-Norris. Quali suggerimenti ha proposto la FISM? Vediamo alcuni temi del rapporto di 40 pagine. Una minaccia per i posti di lavoro altamente qualificati Uno degli aspetti più sorprendenti dell’avvertimento del FMI è il riconoscimento che, a differenza delle precedenti ondate di automazione che hanno colpito principalmente i colletti blu e i lavoratori meno qualificati, l’IA generativa rappresenta una minaccia per le occupazioni più qualificate e i colletti bianchi. Il rapporto osserva che la capacità dell’IA di generare testi, immagini e codici simili a quelli umani potrebbe rendere obsoleti molti compiti cognitivi svolti da professionisti come scrittori, designer e programmatori. Questo potrebbe portare a una diffusa perdita di posti di lavoro e a una riduzione della classe media, con implicazioni di vasta portata per la stabilità sociale e la crescita economica. Ne abbiamoavuto prova a Hollywood, dove l’intelligenza artificiale ha minacciato di sradicare posti di lavoro altamente qualificati nel settore televisivo e cinematografico, dalla recitazione all’animazione. Considera questo: L’intelligenza artificiale può scrivere un romanzo, comporre un brano musicale, generare un video o creare un’immagine che vinca un concorso d’arte, ma non è ancora in grado di guidare correttamente un’auto. Quindi, se da un lato i lavori poco qualificati sono certamente a rischio – e in alcuni settori sono già stati sostituiti in massa – dall’altro anche chi svolge lavori altamente qualificati non dovrebbe sentirsi troppo tranquillo. Il rapporto afferma: “L’evidenza suggerisce che mentre le precedenti ondate di automazione hanno spostato soprattutto i colletti blu (meno qualificati), i colletti bianchi (altamente qualificati) sono i più esposti all’IA” Prepararsi all’era dell’IA Per mitigare l’impatto dirompente dell’IA generativa e garantire che i suoi benefici siano ampiamente condivisi, l’FMI raccomanda di rivedere i sistemi di istruzione e formazione per dotare i lavoratori delle competenze necessarie a prosperare in un’economia guidata dall’IA. Il rapporto chiede di porre maggiore enfasi sull’apprendimento permanente, con governi e imprese che investano in formazione settoriale, apprendistato e programmi di riqualificazione per aiutare i lavoratori a passare a nuove mansioni e industrie. Altri studi affermano che c’è tempo per reagire: MIT ha recentemente previsto che “la dislocazione dei posti di lavoro nell’AI sarà sostanziale, ma anche graduale – e quindi c’è spazio per politiche [governative] e di riqualificazione per mitigare l’impatto della disoccupazione” Tra le strategie fiscali, il rapporto del FMI raccomanda di rafforzare le reti di sicurezza sociale, compresa l’assicurazione contro la disoccupazione, per fornire un’ancora di salvezza a coloro che si trovano ad affrontare la perdita di posti di lavoro a causa dell’interruzione dell’IA. “Si vuole essere in grado di ammortizzare questa costosa transizione e mantenere la coesione sociale nelle società”, ha spiegato Dabla-Norris. Tassare i guadagni dell’IA Il rapporto del FMI affronta anche la possibilità che l’IA generativa concentri la ricchezza nelle mani di poche aziende dominanti, esacerbando le disuguaglianze e minando la concorrenza. Il FMI avverte che, man mano che le tecnologie dell’IA diventano più sofisticate e vengono adottate su larga scala, potrebbero dare origine a mercati “che vincono tutti”, in cui un numero ristretto di aziende con accesso a grandi quantità di dati e potenza di calcolo raccoglie premi enormi. La centralizzazione del potere e della ricchezza dell’IA è un tema caldo nel settore dell’IA, anche se la tecnologia blockchain e l’IA open-source potrebbero attenuarlo. In un’intervista rilasciata a DailyAI, David Palmer, CPO di PairPoint by Vodafone, ha spiegato: “Blockchain diventa estremamente importante in questo contesto. La blockchain può fornire l’infrastruttura decentralizzata necessaria per supportare e facilitare l’edge computing per l’IA. Sfruttando la natura distribuita della blockchain, possiamo creare sistemi sicuri ed efficienti per l’elaborazione dell’IA che vanno oltre i limiti dei centri dati centralizzati” Il FMI propone di aumentare le tasse sulle plusvalenze, sui profitti e sui redditi societari per contrastare questa tendenza e garantire che i guadagni derivanti dall’IA siano distribuiti in modo più uniforme. Suggerisce ai governi di adottare un approccio “agile” alla definizione delle politiche, rimanendo flessibili e preparati a scenari altamente dirompenti man mano che il panorama dell’IA si evolve. Una sfida globale L’avvertimento del FMI giunge nel contesto di crescenti richieste di cooperazione e regolamentazione internazionale per affrontare le sfide poste dall’IA generativa. L’Unione Europea ha recentemente approvato l’importante legge sull’IA, la prima legislazione di questo tipo che affronta i rischi associati a questa tecnologia. L’atto include disposizioni per un potenziale divieto delle applicazioni di IA ritenute in grado di comportare rischi inaccettabili per la sicurezza, i mezzi di sussistenza e i diritti dei cittadini dell’UE. Dabla-Norris ha sottolineato l’importanza della collaborazione globale per affrontare la rivoluzione dell’IA, data la capacità della tecnologia di superare i confini e rimodellare le economie di tutto il mondo. “A causa della portata globale dell’IA, sarà più che mai importante che i Paesi lavorino insieme”, ha dichiarato. Il rapporto del FMI si aggiunge a un crescente numero di ricerche e analisi che evidenziano i potenziali pericoli di uno sviluppo incontrollato dell’IA. A gennaio, l’organizzazione ha stimato che l’IA potrebbe influire su quasi il 40% dei posti di lavoro a livello globale. I rapporti di altre organizzazioni, come Goldman Sachs e McKinsey, prevedono
NVIDIA presenta gli ultimi progressi nell’IA visiva

I ricercatori di NVIDIA presentano nuovi modelli e tecniche di AI generativa visiva alla conferenza Computer Vision and Pattern Recognition (CVPR) che si tiene questa settimana a Seattle. I progressi riguardano aree come la generazione di immagini personalizzate, l’editing di scene 3D, la comprensione del linguaggio visivo e la percezione di veicoli autonomi. “L’intelligenza artificiale, e l’IA generativa in particolare, rappresenta un progresso tecnologico fondamentale”, ha dichiarato Jan Kautz, VP della ricerca sull’apprendimento e la percezione di NVIDIA. “Al CVPR, NVIDIA Research sta condividendo il modo in cui stiamo spingendo i confini di ciò che è possibile – dai potenti modelli di generazione delle immagini che potrebbero potenziare i creatori professionisti al software di guida autonoma che potrebbe aiutare ad abilitare le auto a guida autonoma di prossima generazione.” Tra gli oltre 50 progetti di ricerca NVIDIA che verranno presentati, due articoli sono stati selezionati come finalisti per i Best Paper Awards del CVPR – uno che esplora le dinamiche di formazione dei modelli di diffusione e un altro sulle mappe ad alta definizione per le auto a guida autonoma. Inoltre, NVIDIA ha vinto il percorso End-to-End Driving at Scale della CVPR Autonomous Grand Challenge, superando oltre 450 partecipanti a livello globale. Questo traguardo dimostra il lavoro pionieristico di NVIDIA nell’utilizzo dell’intelligenza artificiale generativa per la creazione di modelli completi di veicoli a guida autonoma, che le è valso anche un Innovation Award da parte del CVPR. Uno dei progetti di ricerca più importanti è JeDi, una nuova tecnica che consente ai creatori di personalizzare rapidamente i modelli di diffusione – l’approccio principale per la generazione di testo-immagine – per rappresentare oggetti o personaggi specifici utilizzando solo alcune immagini di riferimento, anziché il processo di messa a punto su set di dati personalizzati che richiede molto tempo. Un’altra scoperta è FoundationPose, un nuovo modello di fondazione in grado di comprendere e tracciare istantaneamente la posa 3D degli oggetti nei video senza addestramento per oggetto. Ha stabilito un nuovo record di prestazioni e potrebbe sbloccare nuove applicazioni di AR e robotica. I ricercatori di NVIDIA hanno anche presentato NeRFDeformer, un metodo per modificare la scena 3D catturata da un Neural Radiance Field (NeRF) usando una singola istantanea 2D, invece di dover rianimare manualmente le modifiche o ricreare interamente il NeRF. Questo potrebbe semplificare l’editing di scene 3D per applicazioni di grafica, robotica e gemellaggio digitale. Sul fronte del linguaggio visivo, NVIDIA ha collaborato con il MIT per sviluppare VILA, una nuova famiglia di modelli di linguaggio visivo che raggiunge prestazioni all’avanguardia nella comprensione di immagini, video e testi. Grazie a capacità di ragionamento migliorate, VILA è in grado di comprendere anche i meme di Internet combinando la comprensione visiva e linguistica. La ricerca di NVIDIA sull’intelligenza artificiale visiva abbraccia numerosi settori, tra cui oltre una dozzina di articoli che esplorano nuovi approcci per la percezione, la mappatura e la pianificazione di veicoli autonomi. Sanja Fidler, VP del team di ricerca AI di NVIDIA, presenterà il potenziale dei modelli linguistici di visione per le auto a guida autonoma. L’ampiezza della ricerca di NVIDIA sul CVPR esemplifica come l’IA generativa possa potenziare i creatori, accelerare l’automazione nel settore manifatturiero e sanitario e far progredire l’autonomia e la robotica. Leggi di più su www.artificialintelligence-news.com
Microsoft ritarda Recall per dare priorità alla sicurezza dell’intelligenza artificiale

Quando Microsoft lancerà i suoi nuovi PC Copilot Plus la prossima settimana, questi non avranno la tanto sbandierata e poi criticata funzionalità Recall. L’idea alla base di Recall è buona. Utilizzare l’intelligenza artificiale per ricordare tutto ciò che accade sul tuo computer in modo che possa ricordarti se dimentichi qualcosa in seguito. La presunta mancanza di sicurezza nell’archiviazione di queste informazioni ha fatto sì che gli esperti di cybersicurezza la definissero un disastro di sicurezza in agguato. In un aggiornamento del post sul blog di Recall, Microsoft ha dichiarato che ritarderà il rilascio in attesa di feedback da ulteriori test. Il post dice: “Recall passerà da un’esperienza di anteprima ampiamente disponibile per i PC Copilot il 18 giugno 2024, a un’anteprima disponibile prima nel Windows Insider Program (WIP) nelle prossime settimane. Dopo aver ricevuto il feedback su Recall dalla nostra comunità Windows Insider, come facciamo di solito, prevediamo di rendere Recall (anteprima) disponibile per tutti i PC Copilot a breve” Il post non affronta gli aspetti specifici delle vulnerabilità di sicurezza sollevate dagli esperti, ma la decisione sembra essere un riconoscimento delle preoccupazioni esistenti. Concentrarsi sulla sicurezza Le accuse secondo cui il rilascio di Recall da parte di Microsoft sarebbe la prova di una cultura di negligenza in materia di sicurezza non potevano arrivare in un momento peggiore. Il presidente di Microsoft Brad Smith ha testimoniato giovedì davanti alla Commissione per la Sicurezza Nazionale del Congresso degli Stati Uniti per affrontare la colpevolezza di Microsoft in una massiccia violazione della sicurezza avvenuta nel 2023. Gli hacker sostenuti dal governo cinese hanno violato i server di cloud computing di Microsoft e hanno rubato centinaia di migliaia di e-mail di clienti, tra cui quelle di funzionari dei Dipartimenti di Stato e del Commercio degli Stati Uniti. Nella sua testimonianza preparata, Smith ha affermato che Microsoft ha riconosciuto la piena responsabilità della violazione e sta lavorando per promuovere una cultura della sicurezza all’interno dell’azienda. Smith ha affermato che l’amministratore delegato di Microsoft Satya Nadella si sta assumendo la responsabilità personale di questa situazione e Nadella ha riferito che “ognuno di noi deve fare di questo la cosa più importante che fa come leader dell’azienda. È più importante persino del lavoro dell’azienda sull’intelligenza artificiale” Smith ha dichiarato che Nadella ha inviato a tutti i dipendenti le seguenti istruzioni: “Se ti trovi di fronte a un compromesso tra la sicurezza e un’altra priorità, la risposta è chiara: occupati della sicurezza. In alcuni casi, questo significherà dare priorità alla sicurezza rispetto ad altre cose che facciamo, come il rilascio di nuove funzionalità o il supporto continuo per i sistemi esistenti” Propublica ha pubblicato un’intervista illuminante con Andrew Harris, informatore di Microsoft, in cui l’ex dipendente afferma che i suoi avvertimenti sulle vulnerabilità di sicurezza sono stati costantemente ignorati. Quanto tempo ci vorrà a Nadella per instillare una cultura della sicurezza in un’azienda gigantesca che premia i prodotti pronti per essere spediti e non le segnalazioni di problemi? Il mantra “Muoviti velocemente e rompi le cose” può favorire l’innovazione, ma con l’incombere dell’AGI speriamo che aziende come Microsoft non spediscano le cose che rompono. Leggi di più su dailyai.com
Papa Francesco si rivolge ai leader mondiali sull’etica dell’intelligenza artificiale in occasione del G7 in Italia

Papa Francesco si è rivolto ai leader delle democrazie del G7 in occasione del loro vertice annuale in Puglia, Italia, venerdì scorso. L’87enne pontefice, arrivato su una sedia a rotelle, si è trasformato in un improbabile etico dell’AI durante l’evento. Il suo messaggio è stato familiare: L’IA, pur promettendo grandi benefici per l’umanità, presenta gravi rischi se non viene controllata adeguatamente. Francesco ha esortato i leader riuniti, tra cui il presidente degli Stati Uniti Joe Biden e il primo ministro italiano Giorgia Meloni, a garantire che l’IA rimanga incentrata sull’uomo. “Parlare di tecnologia significa parlare di ciò che significa essere umani”, ha detto Francesco, avvertendo che cedere troppo potere decisionale alle macchine “condannerebbe l’umanità a un futuro senza speranza” e minerebbe la dignità dell’uomo. “Condanneremmo l’umanità a un futuro senza speranza se togliessimo alle persone la capacità di prendere decisioni su se stesse e sulla propria vita, condannandole a dipendere dalle scelte delle macchine”, ha detto ai leader mondiali. “Dobbiamo garantire e salvaguardare uno spazio per un adeguato controllo umano sulle scelte fatte dai programmi di intelligenza artificiale: Ne va della stessa dignità umana” Francesco ha parlato anche di aspetti positivi, affermando che l’intelligenza artificiale potrebbe consentire la “democratizzazione dell’accesso alla conoscenza”, il “progresso esponenziale della ricerca scientifica” e la riduzione di “lavori impegnativi e faticosi” Il Papa ha fatto un’analisi non superficiale dei limiti dell’IA, un tema molto sentito e dibattuto nelle alte sfere della Silicon Valley. “Gli esseri umani sono in continua evoluzione e possono sorprenderci con le loro azioni. Questo è un aspetto che una macchina non può prendere in considerazione”, ha affermato, e che gli algoritmi “possono solo esaminare realtà formalizzate in termini numerici” Il Papa chiede di vietare i robot killer Francesco ha anche chiesto di vietare del tutto le armi autonome letali, i “robot assassini”, dichiarando che “nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano” La dura verità è che probabilmente è troppo tardi per questo, visto che le armi AI sono già state impiegate almeno nei conflitti tra Russia e Ucraina e tra Israele e Palestina. Il premier italiano Meloni ha invitato il Papa al G7, con l’obiettivo di sfruttare la sua gravitas e la sua moral suasion. Sembra che abbia funzionato. L’apparizione del Papa ha iniettato una dose di ponderazione morale nelle discussioni del G7 e il suo messaggio ha avuto una chiara risonanza. Le discussioni successive hanno riconosciuto il potenziale dell’IA di sconvolgere i mercati del lavoro, in quanto le macchine sostituiscono i lavoratori umani, e di alterare la giustizia penale – tutte cose di cui abbiamo già avuto prova. Ad esempio,all’inizio dell’annoil FMI ha avvertito che l’IA potrebbe avere un impatto sul 40% dei posti di lavoro a livello globale. I sistemi di polizia AI stanno prendendo piede, ma le prove preliminari dimostrano che possono essere imprevedibili. Francesco è intervenuto anche su altri punti urgenti dell’agenda del G7. Ha criticato indirettamente l’invasione dell’Ucraina da parte della Russia, lamentando la “grave violazione dell’integrità territoriale di un paese sovrano” Ha anche chiesto una distribuzione più equa dei vaccini e dei trattamenti COVID alle nazioni più povere. La Chiesa cattolica ha una lunga storia alle prese con le implicazioni morali e sociali delle nuove tecnologie e dei progressi scientifici. Nel corso dei decenni, vari papi si sono espressi su questioni che vanno dalle armi nucleari all’ingegneria genetica, dai social media ai cambiamenti climatici. Nel 1963, ad esempio, Papa Giovanni XXIII emanò l’iconica “Pacem in Terris”, che affrontava le minacce poste dalla corsa agli armamenti nucleari. Papa Giovanni Paolo II parlò spesso di bioetica, mettendo in guardia contro la mercificazione della vita umana attraverso pratiche come la ricerca sulle cellule staminali embrionali. Più recentemente, Papa Benedetto XVI e Papa Francesco hanno affrontato il tema dell’era digitale e Francesco ha dichiarato che l’accesso a internet sarà un diritto umano nel 2020. Il G7 ha promesso di coordinare meglio i quadri di governance dell’IA per tenere sotto controllo la tecnologia, un sentimento che si è diffuso in ogni vertice internazionale negli ultimi tempi. Leggi di più su dailyai.com
Chip in trend, memoria difettosa e alti e bassi dell’IA

Benvenuti alla carrellata di notizie sull’intelligenza artificiale di questa settimana. Questa settimana sono state tracciate le linee di battaglia nella guerra dei chip a Taiwan. Microsoft potrebbe aver bisogno di dimenticare per ricordare. E i tecnici dell’IA si battono per il diritto di avvertirci di ciò che hanno visto. Andiamo a vedere. Made in Taiwan Questa settimana tutti gli occhi erano puntati sull’evento Computex 2024 di Taiwan, dove viene prodotta la maggior parte dei chip AI di fascia alta del mondo. Il leader delle GPU, NVIDIA, ha svelato la sua roadmap per GPU sempre più potenti e altre tecnologie AI di nuova generazione. Il CEO Jensen Huang ha dichiarato che l’azienda rilascerà una nuova famiglia di GPU ogni anno. Le GPU Blackwell non sono ancora state distribuite, ma Huang ha dichiarato che una versione aggiornata verrà lanciata nel corso dell’anno. Se si analizzano più da vicino i numeri delle prestazioni di Blackwell, si comincia a farsi un’idea del potenziale impatto che il nuovo superchip AI di NVIDIA probabilmente avrà. AMD sta ancora giocando al rialzo nella corsa ai chip AI, ma ha anche annunciato che rilascerà nuove generazioni di GPU AI ogni anno. Con gli occhi puntati su NVIDIA, AMD afferma che il suo nuovo chip AI, la GPU Instinct MI325X, batte la GPU di punta H200 di NVIDIA. Le specifiche sono davvero impressionanti, ma deve essere stato un po’ imbarazzante vantarsi di aver battuto l’H200 quando i chip Blackwell sono quasi pronti per essere spediti. La battaglia sui chip AI tra NVIDIA e praticamente tutte le altre aziende di computing si è intensificata la scorsa settimana. Le grandi aziende tecnologiche, tra cui AMD e Intel, hanno formato un consorzio per sviluppare uno standard aperto di connettività AI. Indovina chi non è stato invitato a partecipare? Non pensarci più Il mantra della Silicon Valley: “Muoviti velocemente e rompi le cose” è stato evidente questa settimana. Microsoft sta per lanciare la funzione Windows AI Recall, che sulla carta sembra ottima. Recall ricorda tutto ciò che hai visto e fatto sul tuo PC e può aiutarti quando non riesci a ricordare su quale sito web hai visto quell’offerta eccezionale o dove hai salvato le tue foto di lolcat. Ma c’è un problema. Gli esperti di sicurezza tecnica affermano che il modo in cui Recall memorizza i dati potrebbe essere un disastro per la sicurezza. È peggio di quanto pensi e Microsoft potrebbe voler richiamare Recall. I briefing dei clienti aziendali di Microsoft su Recall pic.twitter.com/q7eqnHKRwN – Kevin Beaumont (@GossiTheDog) 5 giugno 2024 La scorsa settimana l’AI Overviews di Google ha detto agli utenti di mettere la colla sulla pizza e ha suggerito di mangiare sassi. Google ha finalmente ammesso che l’AI Overviews ha qualche problema , ma dice che è soprattutto colpa tua. Se le Big Tech non sono in grado di risolvere i sistemi operativi e di ricerca dell’intelligenza artificiale, come potranno affrontare i grandi problemi dell’umanità? Al Summit AI For Good, i leader del settore hanno discusso esempi di benefici dell’IA per la società e le sfide da superare per evitare di allargare il divario digitale. L’IA risolverà alcuni dei maggiori problemi dell’umanità o li peggiorerà? Gli alti e bassi di OpenAI Cosa succede quando diventiamo completamente dipendenti dagli strumenti di IA e poi questi si rompono? Questa settimana abbiamo avuto un assaggio di ciò che potrebbe accadere. OpenAIilsito ChatGPT ha subito un’interruzione importante: gli utenti non hanno potuto accedere alla piattaforma di chat per ore. È una coincidenza che anche Gemini, Claude e Perplexity abbiano avuto problemi nello stesso periodo? Potrebbe avere a che fare con i sostenitori dei dipendenti scontenti o degli scettici dell’IA? Ex e attuali dipendenti di OpenAI e Google hanno appena pubblicato una lettera in cui chiedono il diritto di avvertire dei rischi dell’IA senza conseguenze. La lettera “Right to Warn” contiene alcuni punti validi, ma non so quanto sia probabile che OpenAI e altri si impegnino a soddisfare le loro richieste. Politica falsa La menzogna e la politica vanno d’accordo come il fuoco e il fumo. Sembra che non ci sia mai l’una senza l’altra. L’intelligenza artificiale ha potenziato la capacità delle persone di diffondere disinformazione, ma ha anche fornito una comoda scusa ai politici in difficoltà. I conservatori chiedono l’audio potenzialmente imbarazzante dell’intervista di Joe Biden all’avvocato speciale. Il Dipartimento di Giustizia dice che non rilascerà l’audio perché potrebbe essere manipolato dall’IA. Giusto, o si tratta di una presa per i fondelli dell’Intelligenza Artificiale? Eventi sull’IA Se vuoi essere all’avanguardia nel campo dell’IA, non hai che l’imbarazzo della scelta con eventi come questi che si svolgono in tutto il mondo. Se vuoi vedere come l’IA può dare una spinta ai tuoi sforzi di marketing, allora dai un’occhiata all’AI for B2B Marketers Summit 2024. Quando si parla di AI e di veicoli elettrici si pensa subito a Tesla e alla guida autonoma. Ma l’intelligenza artificiale è utile anche per la gestione termica dei veicoli elettrici. L’European EV Thermal Management Summit 2024 esplora le tendenze e le tecnologie emergenti in questo settore. L’AI_dev: Open Source GenAI & ML Summit Europe è un evento dinamico di due giorni incentrato sull’IA generativa open-source e sull’apprendimento automatico. Abbiamo un ottimo codice sconto per te se vuoi partecipare. Altre notizie.. Ecco altre storie sull’intelligenza artificiale che ci sono piaciute questa settimana: E questo è quanto. Alla velocità con cui vengono rilasciate le nuove generazioni di GPU, il 2025 sarà un anno di grandi progressi nel campo dell’intelligenza artificiale. Riesci a immaginare di guardare indietro tra un anno e pensare a quanto sia pittoresco GPT-4 rispetto a GPT-5 e GPT-6? Utilizzerai Windows AI Recall quando uscirà? Forse sì, ma solo quando smetteranno di memorizzare i dati in chiaro in una cartella non protetta. A cosa stavano pensando? La lettera sul “diritto di avviso” è una lettura agghiacciante. Quando le persone che hanno costruito l’intelligenza artificiale dicono di aver visto cose di cui non sono autorizzate a metterci in guardia, probabilmente dovremmo prestare attenzione. Ma Yann LeCun dice che non
CDAO Canada Public Sector: La trasformazione dell’AI nel settore pubblico

L’evento CDAO Canada Public Sector è un incontro di primo piano pensato per affrontare le sfide e le opportunità uniche dell’analisi dei dati e dell’IA nel settore pubblico. L’evento si propone di fornire una piattaforma senza precedenti ai leader del settore pubblico per impegnarsi, imparare e guidare i progressi nel settore. Registrati qui per vivere questa straordinaria opportunità di apprendimento, networking e accesso diretto alle conoscenze del settore che non troverai da nessun’altra parte. Punti salienti dell’evento Tutte le sessioni, i workshop e i panel sono stati progettati appositamente per affrontare le sfide e le opportunità uniche del settore pubblico. Ecco alcuni dei punti salienti che ti aspettano: Governance dei dati: Lezioni dai governi federali mondiali sulla trasformazione dei dati in risorse strategiche. Analitica avanzata: Evoluzione e applicazioni pratiche di Canada Post. IA generativa: strategie per creare un ecosistema di dati agile per sfruttare l’IA generativa. Cybersecurity: Strategie in prima linea per proteggere la frontiera dei dati del Canada. IA etica: implementazione di strutture di IA responsabile nelle operazioni del settore pubblico. Non si tratta di una conferenza generica sull’IA e sui dati. Il contenuto dell’evento CDAO Canada Public Sector è focalizzato sul modo in cui l’AI e l’analisi dei dati stanno trasformando il settore pubblico. L’interessante programma prevede: Sessioni incentrate sull’uso etico dell’IA. Workshop pratici e casi di studio sulla governance dei dati e sulla maturità dell’analisi. Opportunità di confrontarsi con i principali esperti e innovatori nel panorama dei dati del settore pubblico. Punti salienti dei relatori Al CDAO Canada Public Sector potrai ascoltare 30 tra le figure più influenti e stimolanti nel campo dei dati e dell’analisi del settore pubblico, tra cui: Kate Burnett-Isaacs, Direttore della Scienza dei Dati – Infrastrutture Canada Marc-Antoine Auger, Direttore, Data Delivery & Enablement – Export Development Canada Carol Wilson, Direttore, Analitica avanzata – Canada Post Jordan Hovdebo, vicedirettore, Scienza dei dati – Affari globali Canada Cory Russell, Direttore, Strategia e implementazione dei dati sulla salute della popolazione – Sanità dell’Ontario Guillaume Bedard, Consulente strategico – Analitica, IA e dati – Settore pubblico canadese Chi dovrebbe partecipare? Se sei alla guida del cambiamento e dell’innovazione nel panorama dei dati e delle analisi del settore pubblico, questo evento è imperdibile. I professionisti che si occupano dell’implementazione dell’IA, della sicurezza dei dati e delle pratiche etiche nel settore pubblico impareranno come affrontare le sfide e le opportunità uniche di questo settore. Se vuoi entrare in contatto con i migliori leader del settore pubblico per impegnarti, imparare e guidare i progressi nel mondo dell’analisi dei dati e dell’IA, registrati qui per assicurarti il tuo posto. Date: 18-19 giugno 2024 Sede: Sheraton Ottawa Hotel, 150 Albert Street, Ottawa, ON, Canada, K1P 5G2 Registrazione: CDAO Canada Settore Pubblico Leggi di più su dailyai.com
OpenAI nomina l’ex capo della NSA Paul Nakasone nel suo consiglio di amministrazione

OpenAI ha nominato l’ex capo della NSA e generale in pensione Paul Nakasone nel suo consiglio di amministrazione. Le opinioni di Nakasone sulla raccolta di informazioni hanno sollevato le preoccupazioni dei sostenitori delle libertà civili. OpenAI è stata duramente criticata per il suo approccio alla sicurezza dell’IA in seguito al crollo del suo team di superallineamento e all’esodo degli esperti di sicurezza. Da allora ha istituito il Comitato per la sicurezza, che beneficerà della notevole esperienza di Nakasone nei suoi sforzi di utilizzare l’IA per combattere la criminalità informatica. Bret Taylor, presidente del consiglio di amministrazione di OpenAI, ha dichiarato: “L’intelligenza artificiale ha il potenziale per avere un enorme impatto positivo sulla vita delle persone, ma può soddisfare questo potenziale solo se queste innovazioni sono costruite e utilizzate in modo sicuro. L’esperienza impareggiabile del Generale Nakasone in settori come la sicurezza informatica aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità” Preoccupazioni per la privacy Nakasone ha credenziali impeccabili, ma le sue opinioni sulla raccolta di informazioni sono sottoposte a un ulteriore esame nella sua nuova posizione. Mentre era direttore dell’NSA, ha scritto un op-ed pubblicato sul Washington Post in cui ha appoggiato il rinnovo della Sezione 702 del Foreign Intelligence Surveillance Act. La Sezione 702 stabilisce i parametri per la raccolta di informazioni su individui non statunitensi, proteggendo al contempo la privacy dei cittadini americani. Sebbene la Sezione 702 sia rivolta a persone non statunitensi al di fuori degli Stati Uniti, spesso comporta la raccolta accidentale di comunicazioni che coinvolgono persone statunitensi. I critici sostengono che questa raccolta accidentale può portare alla raccolta di quantità sostanziali di dati sui cittadini americani senza un mandato. Nakasone ha dichiarato: “Avevamo anche bisogno di un modo sensato per lavorare con le aziende tecnologiche statunitensi i cui servizi venivano sempre più spesso sfruttati da terroristi e altri attori ostili all’estero per tramare contro di noi. Il Congresso ci ha fornito proprio questo nel 2008 con la creazione della Sezione 702” E ora siede nel consiglio di amministrazione di una di queste aziende. Nel 2023, Nakasone ha emanato una direttiva alla divisione SIGINT (signals intelligence) dell’NSA, responsabile della sorveglianza segreta e della raccolta di dati in tutto il mondo. La direttiva diceva che tutte le persone devono essere trattate con “dignità e rispetto”, ma poi descriveva come spiarle. La direttiva dice che “l’NSA deve impegnarsi in una raccolta massiva solo dopo aver stabilito che è necessario impegnarsi in una raccolta massiva per portare avanti una priorità di intelligence convalidata” Quando la direttiva è stata resa pubblica, Evan Greer, direttore del gruppo di difesa dei diritti digitali Fight for the Future, ha dichiarato a The Intercept: “È come se la CIA rilasciasse una dichiarazione in cui dice che in futuro sottoporrà le persone a waterboarding solo con dignità e rispetto. La sorveglianza di massa è fondamentalmente incompatibile con i diritti umani di base e la democrazia” OpenAI beneficerà senza dubbio dell’esperienza di Nakasone nel mantenere i suoi server e i suoi pesi al sicuro da occhi indiscreti. Ma c’è da chiedersi quale impatto potrebbe avere questa mossa sugli utenti di ChatGPT se uno degli ex colleghi di Nakasone dell’NSA chiedesse un favore. Leggi di più su dailyai.com
I prodotti Apple ricevono un impulso all’intelligenza artificiale grazie alla partnership con OpenAI

Apple ha utilizzato la conferenza per gli sviluppatori WWDC 2024 per annunciare che nel corso dell’anno arriverà sui suoi dispositivi un’ampia gamma di funzionalità basate sull’intelligenza artificiale. Dopo un inizio lento nella corsa all’intelligenza artificiale, i prodotti Apple sembrano destinati ad avere l’intelligenza artificiale integrata in ogni parte delle loro funzionalità. L’azienda afferma che la sua “Apple Intelligence” sarà presente nei nuovi iPhone, iPad e computer. Se possiedi un iPhone 15 Pro, un iPhone 15 Pro Max, un iPad o un Mac dotato di chip M1, potrai utilizzare le nuove funzioni AI. Le nuove funzioni includono suggerimenti di riassunto, modifica e scrittura in app come Mail. Gli strumenti di editing fotografico consentiranno di rimuovere gli oggetti, di eliminare gli estranei dalle foto e di generare emoji o immagini personalizzate a partire dai suggerimenti. Molte di queste funzionalità erano disponibili in singole app, ma con l’Intelligenza Apple queste funzioni funzionano sia all’interno che all’esterno delle app e diventano personalizzate in base al contesto. L’app Math Notes per iPad, potenziata dall’intelligenza artificiale, è particolarmente interessante. la funzione Note matematiche di iPadOS 18 è fantastica! 🔥🔥 Non c’è dubbio. #WWDC24 pic.twitter.com/ee4Pv9hhcD – AshutoshShrivastava (@ai_for_success) 10 giugno 2024 Molte di queste funzioni di Apple Intelligence verranno eseguite sul dispositivo per mantenere la privacy, mentre l’elaborazione AI più intensa avverrà sui server Private Cloud Compute di Apple. Aggiornamento di Siri Anche Siri riceve un aggiornamento basato sull’intelligenza artificiale che consente all’assistente vocale di comprendere e rispondere a un maggior numero di richieste in linguaggio naturale e di mantenere il contesto. Non è più necessario dire “Ehi Siri” prima di ogni richiesta. Ora, se fai una domanda a Siri, lei rimane nella conversazione e risponde alle domande successive. Potresti chiedere a Siri “Che tempo fa a New York?” e, una volta ottenuta la risposta, potresti chiedere “Quali sono i voli disponibili per raggiungerla?” con Siri che capisce il contesto della conversazione e a cosa si riferisce il termine “raggiungerla”. Siri avrà anche funzionalità personalizzate cross-app. Apple ha fatto l’esempio di chiedere a Siri: “Quando atterra il volo di mia madre?”. Siri è in grado di capire chi è “mamma” e di accedere ai dati del volo dalle e-mail o dai messaggi di testo. Apple ha dichiarato che Siri sarà in grado di svolgere compiti complessi come trovare una foto della patente di guida nel tuo album fotografico e poi estrarre il numero di identificazione da incollare in un modulo. Questo è il miglior esempio di Appledella nuova intelligenza artificiale nella vita di tutti i giorni. Potrebbe davvero cambiare le carte in tavola.#wwdc24 pic.twitter.com/txhxMcb9pM – Adrian Weckler (@adrianweckler) 10 giugno 2024 Partnership con OpenAI L’app ChatGPT per iOS è già disponibile da tempo, ma la nuova partnership di Apple con OpenAI vede ChatGPT integrato nelle funzionalità di iOS piuttosto che come app a sé stante. L’integrazione consentirà a GPT-4o di comprendere immagini e documenti sui dispositivi iOS senza dover passare da uno strumento all’altro. Gli utenti potranno anche chiedere a Siri di utilizzare ChatGPT per rispondere a una domanda o eseguire un compito. Apple è sempre stata molto attenta alla tutela della privacy e gli utenti saranno interpellati prima di inviare domande, documenti o foto a ChatGPT. In un comunicato, OpenAI ha dichiarato: “Le protezioni per la privacy sono integrate quando si accede a ChatGPT all’interno di Siri e degli Strumenti di scrittura: le richieste non vengono memorizzate da OpenAI e gli indirizzi IP degli utenti vengono oscurati” Ti fidi che OpenAI non utilizzi le tue telefonate, i tuoi messaggi, le tue e-mail o altri dati per addestrare i suoi modelli? Elon Musk è meno convinto. pic.twitter.com/7OgZAAdPf6 – Elon Musk (@elonmusk) 10 giugno 2024 In una serie di tweet Musk ha affermato che “Apple non ha la minima idea di cosa stia succedendo una volta che consegna i tuoi dati a OpenAI” Inoltre ha dichiarato: “Se Apple integra OpenAI a livello di sistema operativo, allora i dispositivi Apple saranno vietati nelle mie aziende… E i visitatori dovranno controllare i loro dispositivi Apple alla porta, dove saranno conservati in una gabbia di Faraday” Il trattamento disinvolto dei dati da parte di OpenAI potrebbe indurre alcuni ad adottare la visione scettica di Musk, ma le funzioni di intelligenza artificiale in arrivo su iOS18 sembrano troppo belle per resistere. Leggi di più su dailyai.com
Il generatore cinese di testi e video Kling è stato rilasciato per competere con Sora

L’azienda tecnologica cinese Kuaishou Technology ha rilasciato un generatore di video da testo (T2V) chiamato Kling che potrebbe rivaleggiare con Sora di OpenAI. A febbraio, OpenAI ci ha stupito con i video dimostrativi diSora che ci hanno fatto cercare freneticamente il pulsante “iscriviti”. Quattro mesi dopo, stiamo ancora aspettando il rilascio di Sora senza sapere quando potrebbe avvenire. Kuaishou, azienda con sede a Pechino, sviluppa piattaforme di condivisione di contenuti che, a suo dire, rendono “la produzione, la distribuzione e il consumo di contenuti facili e veloci” La piattaforma di video brevi dell’azienda, chiamata anch’essa Kuaishou, è seconda solo a TikTok in termini di utenti attivi medi giornalieri. Produrre contenuti per le sue piattaforme sarebbe molto più facile se non dovesse affidarsi a contenuti generati dall’uomo. Questa potrebbe essere una delle motivazioni alla base dello sviluppo del suo strumento T2V. Kling trasforma i messaggi di testo in video coerenti dal punto di vista temporale e spaziale e di grande effetto. Kuaishou afferma che Kling può generare video fino a 2 minuti con una risoluzione di 1080p e 30 fotogrammi al secondo. Si tratta di un minuto in più rispetto a quanto OpenAI afferma che Sora può produrre. L’altro grande elemento di differenziazione è che Kling è stato rilasciato al pubblico mentre Sora è ancora segreto. Se sei in Cina, o se hai un numero di cellulare cinese e una VPN, puoi richiedere di provare l’applicazione fin da ora. Come Sora, Kling utilizza un’architettura a trasformatori di diffusione. Inoltre, dispone di una potente tecnologia di ricostruzione 3D del volto e del corpo che può utilizzare un’immagine del corpo intero come suggerimento per generare un video con movimenti fluidi degli arti. Se ricordi il video un po’ terrificante di Will Smith che mangia gli spaghetti agli albori dei video generati dall’intelligenza artificiale, allora apprezzerai quanto sia sorprendente questo video generato da Kling. Sora di OpenAI è pazzesco. Ma KWAI ha appena lanciato un modello simile a Sora chiamato KLING e la gente ne va matta. Ecco 10 esempi da non perdere: 1. Un uomo cinese si siede a un tavolo e mangia i noodles con le bacchettespic.twitter.com/MIV5IP3fyQ – Angry Tom (@AngryTomtweets) 6 giugno 2024 La maggior parte degli impressionanti video dimostrativi in cui sono coinvolti molti movimenti sono brevi. I video più lunghi sono più scenografici con meno elementi dinamici, il che potrebbe indicare alcuni limiti dello strumento. Questa clip di una scena in evoluzione mostrata dalla prospettiva del finestrino di un treno è piuttosto impressionante. 2. Viaggiando in treno, osservo ogni tipo di paesaggio attraverso il finestrinopic.twitter.com/WqF9rlJxbh – Angry Tom (@AngryTomtweets) 6 giugno 2024 Gli elementi visivi con cui l’intelligenza artificiale ha sempre avuto difficoltà sono le dita, i denti o i movimenti naturali della bocca. Ecco un’impressionante clip che mostra come Kling riesca a gestire questi elementi in modo molto naturale. 3. Un ragazzo cinese con gli occhiali gusta un delizioso cheeseburger con gli occhi chiusi in un fast foodpic.twitter.com/ZOCy0n3gTa – Angry Tom (@AngryTomtweets) 6 giugno 2024 Il rilascio della versione beta di Kling è in un certo senso un commento sull’approccio all’IA tra Oriente e Occidente. Mentre l’Occidente discute sulla sicurezza dell’IA, sulla privacy e sui pericoli della disinformazione, la Cina procede spedita nello sviluppo. E questo nonostante le sanzioni degli Stati Uniti che cercano di rallentarlo. Mentre OpenAI cerca di capire come rendere Sora “sicuro” o politicamente corretto, potremmo dover guardare alla Cina per avere uno strumento T2V decente in mancanza di uno prodotto negli Stati Uniti. Leggi di più su dailyai.com
Nvidia Blackwell in cifre: il potenziale impatto del nuovo superchip AI di Nvidia

NVIDIA CEO Jensen Huang ha recentemente descritto in dettaglio l’ultimo chip acceleratore di AI dell’azienda, chiamato Blackwell, durante il keynote del Computex 2024. Con Blackwell, NVIDIA punta a consolidare il proprio dominio nel fiorente settore dell’hardware per l’intelligenza artificiale. Con una capitalizzazione di mercato dell’azienda che sta correndo verso la soglia dei 3.000 miliardi di dollari, l’ascesa di NVIDIA al comando supremo dell’infrastruttura AI è stata a dir poco sorprendente. Huang non vede alcun segno di stallo nei progressi, poiché l’azienda continua a superare le aspettative degli analisti. Ma cosa ci dicono davvero le specifiche e i numeri sulle capacità e sul potenziale impatto di Blackwell? Diamo un’occhiata più da vicino a come potrebbe influire sul settore dell’intelligenza artificiale e sulla società in generale. Potenza di calcolo grezza Il dato principale è che un singolo “superchip ” Blackwell – composto da due GPU collegate da un link ad alta velocità – contiene ben 208 miliardi di transistor. Si tratta di un aumento di quasi 3 volte rispetto alla precedente generazione di chip Hopper di NVIDIA. NVIDIA sostiene che questo si traduce in un aumento di velocità di 30 volte nelle attività di inferenza AI rispetto a Hopper. Per mettere questo dato in prospettiva, consideriamo un esempio di modello linguistico di grandi dimensioni con 100 miliardi di parametri, una scala simile a GPT-3. L’addestramento di un modello di questo tipo con le GPU A100 di precedente generazione di NVIDIA richiederebbe circa 1.024 chip A100 in funzione per un mese. Con Blackwell, NVIDIA sostiene che lo stesso modello potrebbe essere addestrato in poco più di una settimana utilizzando 256 chip Blackwell – una riduzione di 4 volte del tempo di addestramento. Efficienza energetica Nonostante i notevoli guadagni in termini di prestazioni, NVIDIA afferma che Blackwell può ridurre i costi e il consumo energetico fino a 25 volte rispetto a Hopper per alcuni carichi di lavoro di intelligenza artificiale. L’azienda ha fornito l’esempio dell’addestramento di un modello da 1,8 trilioni di parametri, che in precedenza avrebbe richiesto 8.000 GPU Hopper con 15 megawatt di potenza. Con Blackwell, NVIDIA afferma che questo risultato potrebbe essere raggiunto con 2.000 GPU che assorbono solo 4 megawatt. Sebbene un consumo di 4 megawatt per una singola sessione di addestramento dell’intelligenza artificiale sia ancora notevole, è impressionante che Blackwell sia in grado di fornire un aumento di quasi 4 volte dell’efficienza energetica per un compito così impegnativo. Costi ambientali Tuttavia, anche con una migliore efficienza energetica, l’adozione diffusa di Blackwell potrebbe aumentare in modo significativo il consumo energetico complessivo dei sistemi di intelligenza artificiale. Ad esempio, ipotizziamo che attualmente in tutto il mondo vengano utilizzate 100.000 GPU ad alte prestazioni per l’addestramento e l’inferenza dell’IA. Se Blackwell consente di aumentare di 10 volte l’adozione dell’IA nei prossimi anni, il che non sembra una cifra straordinaria da infilare in uno spillo, ciò significherebbe 1 milione di GPU Blackwell in uso. Alla potenza di 1,875 kilowatt per GPU citata da Huang, 1 milione di GPU Blackwell consumerebbe 1,875 gigawatt di energia – quasi la produzione di due centrali nucleari medie. Analisi precedenti hanno previsto che i carichi di lavoro dell’IA potrebbero consumare una quantità di energia pari a quella di un piccolo paese entro il 2027. Anche il consumo di acqua è un problema importante: Microsoft ha rivelato un enorme aumento del consumo di acqua dal 2022 al 2023, correlato all’addestramento dei modelli di IA e alla domanda dei data center. Senza trovare modi migliori per far funzionare l’hardware dell’IA da fonti rinnovabili, le emissioni di carbonio e il consumo di acqua dell’IA alimentata da Blackwell saranno enormi. Oltre al consumo di energia, è fondamentale considerare altri costi ambientali, come i minerali di terre rare e altre risorse necessarie per produrre chip avanzati come Blackwell su scala e i rifiuti generati quando raggiungono la fine del loro ciclo di vita. Questo non vuol dire che i benefici sociali delle capacità di intelligenza artificiale sbloccate da Blackwell non possano superare questi costi ambientali, come Huang e altri leader tecnologici sono certi. Ma significa che l’impatto ambientale dovrà essere gestito e mitigato con attenzione nell’ambito di qualsiasi piano di implementazione responsabile di Blackwell, e c’è un punto interrogativo persistente sulla possibilità di farlo. Il potenziale impatto di Blackwell Quindi, come potrebbe essere il mondo in un’epoca di adozione diffusa di Blackwell? Alcune stime di massima danno un’idea delle possibilità e dei rischi: Modelli linguistici di dimensioni 10 volte superiori a GPT-3 potrebbero essere addestrati in un lasso di tempo simile e utilizzando una quantità di risorse informatiche simile a quella di GPT-3. Ciò consentirà di fare un grande balzo in avanti nelle capacità di intelligenza artificiale del linguaggio naturale. Come descritto durante il keynote, gli assistenti digitali con capacità simili a quelle umane potrebbero potenzialmente diventare economicamente convenienti da sviluppare e distribuire su larga scala. Un’intelligenza artificiale in grado di gestire l’80% dei compiti di un tipico lavoro di conoscenza a un decimo del costo di un lavoratore umano potrebbe sostituire fino a 45 milioni di posti di lavoro nei soli Stati Uniti. La capacità computazionale di addestrare un sistema di IA con un’intelligenza generale pari o superiore a quella del cervello umano potrebbe essere a portata di mano. Le stime sulla capacità di calcolo del cervello vanno da 10^13 a 10^16 connessioni neurali. Un supercomputer alimentato da Blackwell e dotato di 1 milione di GPU avrebbe una capacità di calcolo stimata in 10^18 flops, potenzialmente sufficiente a simulare aspetti del cervello umano in tempo reale. Naturalmente, si tratta di scenari altamente speculativi e devono essere presi con un granello di sale. La fattibilità tecnica non si traduce necessariamente in un’implementazione nel mondo reale. Tuttavia, evidenziano l’enorme e dirompente potenziale dell’accelerazione dell’intelligenza artificiale che NVIDIA sta abilitando con Blackwell. Huang ha descritto Blackwell come “una nuova piattaforma di computing per una nuova era del computing” Sulla base dei numeri, è difficile discutere questa caratterizzazione. Blackwell sembra pronto a inaugurare la prossima fase della rivoluzione dell’intelligenza artificiale, nel bene e nel male.
