NVIDIA aiuta la Germania a guidare la corsa alla produzione di AI in Europa

La Germania e NVIDIA stanno realizzando il progetto tecnologico europeo forse più ambizioso del decennio: il primo cloud industriale AI del continente. Nell’ultimo mese NVIDIA è stata impegnata in un tour europeo: il CEO Jensen Huang ha incantato il pubblico della Tech Week di Londra prima di stupire la folla del VivaTech di Parigi. Ma è stato l’incontro con il cancelliere tedesco Friedrich Merz a rivelarsi la tappa più importante. La partnership che ne è scaturita tra NVIDIA e Deutsche Telekom non è solo un’altra stretta di mano aziendale: è potenzialmente un punto di svolta per la sovranità tecnologica europea. Verrà creata una “fabbrica dell’intelligenza artificiale” (come viene chiamata) con un’attenzione particolare al settore manifatturiero, il che non sorprende visto il rinomato patrimonio industriale della Germania. La struttura mira a fornire agli operatori industriali europei la potenza di calcolo necessaria per rivoluzionare tutto, dalla progettazione alla robotica. “Nell’era dell’intelligenza artificiale, ogni produttore ha bisogno di due fabbriche: una per produrre oggetti e una per creare l’intelligenza che li alimenta”, ha dichiarato Huang. “Costruendo la prima infrastruttura europea di IA industriale, stiamo consentendo alle aziende industriali leader della regione di progredire nella produzione basata sulla simulazione e sull’IA” È raro sentire una tale urgenza da parte di un CEO di telecomunicazioni, ma Timotheus Höttges di Deutsche Telekom ha aggiunto: “Il futuro tecnologico dell’Europa ha bisogno di uno sprint, non di una passeggiata. Dobbiamo cogliere subito le opportunità dell’intelligenza artificiale, rivoluzionare il nostro settore e assicurarci una posizione di primo piano nella competizione tecnologica globale. Il nostro successo economico dipende da decisioni rapide e innovazioni collaborative” Solo la prima fase prevede l’impiego di 10.000 GPU NVIDIA Blackwell distribuite su vari sistemi ad alte prestazioni. Si tratta della più grande implementazione di IA mai realizzata in Germania; un’affermazione che dimostra come il Paese non si accontenti di stare a guardare mentre l’IA trasforma l’industria globale. Uno studio di Deloitte ha recentemente evidenziato l’importanza cruciale dello sviluppo della tecnologia AI per la competitività futura della Germania, sottolineando in particolare la necessità di ampliare la capacità dei centri dati. Se si considera che la domanda dovrebbe triplicare in soli cinque anni, questo investimento sembra meno ambizioso e più necessario. Robot che insegnano ai robot Una delle prime aziende ad aver adottato questa tecnologia è NEURA Robotics, un’azienda tedesca specializzata in robotica cognitiva. Sta usando questi muscoli computazionali per alimentare una cosa chiamata Neuraverse, che è essenzialmente una rete connessa in cui i robot possono imparare gli uni dagli altri. Pensate a una mente alveare robotica per competenze che vanno dalla saldatura di precisione alla stiratura domestica, con ogni macchina che contribuisce con i suoi apprendimenti a un’intelligenza collettiva. “L’intelligenza artificiale fisica è l’elettricità del futuro: alimenterà tutte le macchine del pianeta”, ha dichiarato David Reger, fondatore e CEO di NEURA Robotics. “Attraverso questa iniziativa, stiamo aiutando a costruire l’infrastruttura sovrana di cui l’Europa ha bisogno per essere leader nella robotica intelligente e mantenere il controllo del proprio futuro” Le implicazioni di questo progetto di intelligenza artificiale per l’industria manifatturiera in Germania potrebbero essere profonde. Non si tratta solo di rendere le fabbriche esistenti un po’ più efficienti, ma di reimmaginare cosa può essere la produzione in un’epoca di macchine intelligenti. L’intelligenza artificiale non solo per i titani dell’industria tedesca L’aspetto particolarmente promettente di questo progetto è la sua potenziale portata al di là dei titani industriali tedeschi. Il famoso Mittelstand, la rete di piccole e medie imprese specializzate che costituisce la spina dorsale dell’economia tedesca, potrebbe trarne beneficio. Queste aziende spesso non hanno le risorse per costruire una propria infrastruttura di IA, ma possiedono le conoscenze specialistiche che le rendono perfette per l’innovazione potenziata dall’IA. Democratizzare l’accesso all’IA all’avanguardia potrebbe aiutare a preservare il loro vantaggio competitivo in un mercato globale difficile. Anche gli istituti accademici e di ricerca avranno accesso, accelerando potenzialmente l’innovazione in numerosi campi. Le circa 900 startup con sede in Germania che partecipano al programma Inception di NVIDIA potranno utilizzare queste risorse, scatenando potenzialmente un’ondata di applicazioni imprenditoriali di IA. La strada verso la gigafactory europea dell’AI Per quanto imponente sia questo progetto, è considerato semplicemente un trampolino di lancio verso qualcosa di ancora più ambizioso: la gigafactory europea dell’AI. Questa iniziativa da 100.000 GPU, sostenuta dall’UE e dalla Germania, non sarà attiva prima del 2027, ma rappresenta la determinazione dell’Europa a ritagliarsi il proprio futuro tecnologico. Se altri fornitori di telecomunicazioni europei seguiranno l’esempio con i loro progetti di infrastrutture AI, potremmo assistere all’inizio di uno sforzo concertato per stabilire la sovranità tecnologica in tutto il continente. Per una regione che si è spesso trovata in bilico tra il dominio tecnologico americano e le ambizioni cinesi, la creazione di una capacità di IA interna rappresenta più di un’opportunità economica. Resta da vedere se questo audace progetto tedesco avrà successo, ma una cosa è chiara: l’Europa non si accontenta più di essere un consumatore passivo di tecnologia AI sviluppata altrove. (Foto di Maheshkumar Painam) Leggi di più su www.artificialintelligence-news.com
Programmi di applicazione clinica, hardware e AI per il settore MedTech

Le moderne innovazioni nel campo dell’assistenza sanitaria abbracciano l’IA, i dispositivi, il software, le immagini e i quadri normativi, tutti elementi che richiedono un rigoroso coordinamento. L’IA generativa ha probabilmente il più alto potenziale di trasformazione nei programmi tecnologici sanitari, essendo già applicata in vari settori, come la ricerca e sviluppo, le operazioni commerciali e la gestione della catena di approvvigionamento. I modelli tradizionali per le visite mediche, come gli appuntamenti faccia a faccia e i processi basati sulla carta, potrebbero non essere sufficienti a soddisfare il panorama medico odierno, caratterizzato da ritmi frenetici e guidato dai dati. Pertanto, gli operatori sanitari e i pazienti sono alla ricerca di modi più comodi ed efficienti per accedere alle informazioni e condividerle, rispettando i complessi standard della scienza medica moderna. Secondo McKinsey, le aziende del settore Medtech sono all’avanguardia nell’innovazione sanitaria e stimano di poter ottenere un guadagno di produttività compreso tra i 14 e i 55 miliardi di dollari all’anno. Grazie all’adozione della GenAI, si stima un ulteriore guadagno di oltre 50 miliardi di dollari grazie alle innovazioni di prodotti e servizi. Un’indagine di McKinsey 2024 ha rivelato che circa due terzi dei dirigenti del settore Medtech hanno già implementato l’IA genetica, mentre circa il 20% ha adottato le proprie soluzioni e ha riportato notevoli vantaggi in termini di produttività. Sebbene l’implementazione di tecnologie avanzate sia in crescita nel settore medico, le sfide persistono. Le organizzazioni devono affrontare ostacoli come problemi di integrazione dei dati, strategie decentralizzate e carenze di competenze. L’insieme di questi fattori evidenzia la necessità di un approccio più snello all’implementazione dell’intelligenza artificiale. Tra tutti i settori del Medtech, la R&S è in testa all’adozione della Gen AI. Essendo i più a proprio agio con le nuove tecnologie, i dipartimenti di R&S utilizzano gli strumenti di Gen AI per semplificare i processi di lavoro, come la sintesi di documenti di ricerca o articoli scientifici, evidenziando una tendenza all’adozione dal basso. I singoli ricercatori utilizzano l’IA per migliorare la produttività, anche quando non esistono strategie formali a livello aziendale. Sebbene gli strumenti di intelligenza artificiale automatizzino e accelerino le attività di ricerca e sviluppo, la revisione umana è ancora necessaria per garantire che le proposte finali siano corrette e soddisfacenti. L’intelligenza artificiale si sta dimostrando in grado di ridurre il tempo dedicato alle attività amministrative per i team e di migliorare l’accuratezza e la profondità della ricerca: alcune aziende hanno registrato un aumento della produttività della ricerca compreso tra il 20% e il 30%. KPI per il successo dei programmi di prodotti sanitari La misurazione delle prestazioni aziendali è essenziale nel settore sanitario. L’obiettivo principale è ovviamente quello di fornire un’assistenza di alta qualità, mantenendo allo stesso tempo un’operatività efficiente. Misurando e analizzando i KPI, i fornitori di servizi sanitari sono in una posizione migliore per migliorare i risultati dei pazienti grazie alle loro considerazioni basate sui dati. I KPI possono anche migliorare l’allocazione delle risorse e incoraggiare il miglioramento continuo in tutte le aree dell’assistenza. In termini di programmi di prodotti sanitari, queste iniziative strutturate danno priorità allo sviluppo, alla fornitura e alla continua ottimizzazione dei prodotti medici. Ma per avere successo, richiedono un coordinamento interfunzionale dei team clinici, tecnici, normativi e commerciali. Il time to market è fondamentale per garantire che un prodotto passi dalla fase concettuale al lancio il più rapidamente possibile. Particolarmente importante è l’enfasi che deve essere posta sull’etichettatura e sulla documentazione. McKinsey osserva che l’etichettatura assistita dall’AI ha portato a un miglioramento del 20%-30% dell’efficienza operativa. Anche i tassi di utilizzo delle risorse sono importanti, in quanto indicano l’efficienza con cui vengono utilizzati tempo, budget e/o personale durante la fase di sviluppo dei prodotti. Nel settore sanitario, i KPI dovrebbero concentrarsi su diversi fattori, tra cui l’efficienza operativa, i risultati dei pazienti, la salute finanziaria dell’azienda e la soddisfazione dei pazienti. Per ottenere una visione completa delle prestazioni, i KPI possono essere suddivisi in finanziari, operativi, di qualità clinica e di esperienza del paziente. Unire l’esperienza dell’utente alla precisione tecnica – premi di design L’innovazione non viene più giudicata solo in base alle prestazioni tecniche e l’esperienza dell’utente (UX) è altrettanto importante. Alcune delle più recenti innovazioni nel settore sanitario sono state premiate con gli UX Design Awards, prodotti che esemplificano il meglio dell’esperienza utente e della precisione tecnica. I prodotti migliori danno priorità alle esigenze e alle esperienze dei pazienti e degli operatori sanitari, garantendo inoltre che ogni prodotto soddisfi i rigorosi standard clinici e normativi del settore. Un esempio è il CIARTIC Move di Siemens Healthineers, un sistema di imaging 3D a guida autonoma con braccio a C che consente ai chirurghi di operare controllando il dispositivo in modalità wireless in un campo sterile. Anche l’azienda di hardware ASUS ha ricevuto riconoscimenti per la sua app HealthConnect e per la serie VivoWatch, dimostrando la fusione di soluzioni sanitarie intelligenti guidate dall’AIoT con interfacce di facile utilizzo, a volte in dispositivi essenzialmente consumer. Questo dimostra come l’innovazione tecnica venga resa accessibile e diventi sempre più intuitiva man mano che i pazienti acquisiscono dimestichezza con la tecnica. Navigare contemporaneamente nei percorsi normativi e di sviluppo del prodotto La definizione di percorsi clinici e normativi è importante, in quanto consente ai team sanitari di alimentare un doppio flusso di risultati nello sviluppo. L’adozione dell’intelligenza artificiale è diventata un approccio trasformativo, che automatizza la produzione e il perfezionamento di documenti complessi, set di dati misti e dati strutturati e non strutturati. Integrando precocemente le considerazioni di carattere normativo e adottando tecnologie come la Gen AI nell’ambito di pratiche agili, i programmi di prodotto per il settore sanitario aiutano i team a navigare in un panorama normativo che può cambiare spesso. L’integrazione precoce di una mentalità normativa in un team aiuta a garantire la conformità e l’innovazione continua. (Fonte immagine: “IBM Achieves New Deep Learning Breakthrough” di IBM Research è concessa in licenza CC BY-ND 2.0.) Leggi di più su www.artificialintelligence-news.com
Gli insegnanti inglesi hanno il via libera all’uso dell’intelligenza artificiale

Gli insegnanti in Inghilterra hanno ricevuto il via libera all’uso dell’intelligenza artificiale per aiutarli in compiti di basso livello che fanno parte delle loro mansioni, come riporta la BBC. Le linee guida del Dipartimento per l’Educazione (DfE) affermano che l’IA può essere utilizzata dagli insegnanti delle scuole inglesi, ma solo per compiti “di basso livello”, come scrivere lettere ai genitori e segnare i compiti a casa. La decisione di approvare l’uso della tecnologia fa seguito ai risultati di un sondaggio condotto per conto del DfE tra gli insegnanti del 2023. In tale sondaggio, la maggioranza degli intervistati si è detta “ampiamente ottimista” riguardo all’utilizzo dell’IA nel corso del proprio lavoro. All’epoca, un portavoce di Teacher Tap (l’azienda che ha realizzato il software utilizzato per condurre il sondaggio) ha dichiarato: “È abbastanza normale che un insegnante di matematica non corregga più i compiti… perché la carenza di insegnanti di matematica è talmente cronica che nessuno si sente davvero danneggiato” Nelle risposte al sondaggio 2023, gli insegnanti hanno affermato che l’intelligenza artificiale può essere molto utile quando devono reperire materiali didattici appropriati e nel corso della stesura di relazioni ai genitori sulle prestazioni e sul comportamento dei loro figli. Nell’ambito dell’annuncio di oggi, il DfE ha dichiarato che l’utilizzo dell’IA da parte degli insegnanti contribuirà a ridurre l’onere degli straordinari non retribuiti degli insegnanti e potrà portare a un migliore equilibrio tra vita privata e lavoro e a una maggiore soddisfazione professionale. Consentendo al personale di utilizzare strumenti di intelligenza artificiale, si spera che le statistiche sulla salute mentale degli insegnanti in generale migliorino (il 36% degli insegnanti ha sperimentato il “burn-out” secondo l’associazione di beneficenza Education Support [PDF]) e che ciò abbia l’effetto di attirare più laureati verso questa professione. Parte dello stress quotidiano di cui soffrono molti insegnanti è causato dalla carenza di insegnanti qualificati, una situazione che l’uso dell’IA potrebbe aiutare. Sebbene il governo britannico abbia dichiarato che il numero di insegnanti impiegati in tutto il Regno Unito è maggiore rispetto a dieci anni fa, il rapporto tra alunni e insegnanti continua ad aumentare con la crescita della popolazione. L’insegnamento in classi di 33 o più persone è una prassi comune nelle scuole pubbliche inglesi e oltre un milione di alunni nel Regno Unito insegna in classi di più di 30 persone. Il tasso di abbandono degli insegnanti qualificati nel Regno Unito si aggira intorno all’8,8% secondo SecEd, un sito web del settore rivolto agli insegnanti che lavorano nelle scuole secondarie (fascia di età compresa tra gli 11 e i 18 anni). SecEd ha inoltre dichiarato che il numero di posizioni aperte nel settore è passato da 3 a 6 ogni 1.000 insegnanti nei 12 mesi a partire dal 2022. A causa dei vincoli di bilancio che gravano sulle autorità locali e sulle scuole, i posti di insegnamento scoperti vengono spesso occupati da insegnanti a breve termine (supplenti) reperiti attraverso le agenzie di collocamento, una pratica che costa alle scuole molto di più rispetto al pagamento di personale retribuito a tempo indeterminato. In linea con l’annuncio di oggi, un post sul blog Education Hub pubblicato dal governo britannico afferma che “gli insegnanti possono utilizzare l’IA per aiutare in attività come la pianificazione delle lezioni, la creazione di risorse, la correzione del lavoro, il feedback e la gestione delle attività amministrative” Inoltre, si precisa che spetta al singolo insegnante “controllare che tutto ciò che l’IA genera sia accurato e appropriato – la responsabilità finale spetta sempre a lui e alla sua scuola o college” Il DfE ha anche dato il sigillo di approvazione del governo all’uso dell’IA da parte di aziende che conducono revisioni del curriculum e della valutazione delle scuole del Regno Unito, i cui risultati determinano le classifiche delle scuole nelle cosiddette league tables. Si tratta di classificazioni assegnate alle scuole dall’Ofsted (Office for Standards in Education) come “misure speciali”, “buono” o “eccellente”. L’approvazione dell’uso dell’intelligenza artificiale in questo contesto arriva nonostante l’opposizione dei sindacati degli insegnanti. Il problema a lungo termine che pervade il sistema scolastico inglese da diversi decenni non è l’uso della tecnologia nel settore, ma il suo cronico sottofinanziamento. La NAHT (National Association of Head Teachers) afferma che tra gli anni scolastici 2009-10 e 2021-2022, la spesa in conto capitale per le scuole ha subito una riduzione del 29%, corretta per l’inflazione, nel corso del decennio. L’Institute for Fiscal Study ha dichiarato che nello stesso periodo la spesa scolastica per alunno in Inghilterra ha subito una diminuzione in termini reali del 9%. Dotare i professionisti dell’insegnamento di strumenti tecnologici può aiutare gli insegnanti a gestire parte dell’onere amministrativo che grava su di loro, anche se è discutibile se la correzione dei compiti a casa possa essere considerata ciò che il Dipartimento dell’Istruzione definisce “low stakes”. Gli investimenti nei bambini in età scolare sotto forma di aumenti del budget per l’istruzione sono costosi, mentre gli abbonamenti ai modelli di intelligenza artificiale possono costare anche solo pochi dollari al mese. Sulla carta, l’idea che l’intelligenza artificiale aiuti gli insegnanti a gestire il loro carico di lavoro in modo più efficiente deve essere allettante per i funzionari del Ministero della Pubblica Istruzione. Ma ciò che appare evidente è il valore costantemente basso attribuito all’educazione infantile dai governi britannici che si sono succeduti. Decidere di consentire all’intelligenza artificiale di aiutare il personale di un settore educativo criminalmente sottofinanziato è in gran parte irrilevante e avrà un impatto minimo sulla qualità dell’istruzione offerta a un’altra generazione di bambini inglesi. (Fonte immagine: “Village School Classroom” di Thomas Galvez con licenza CC BY 2.0.) Leggi di più su www.artificialintelligence-news.com
Mistral AI sfida le big tech con un modello di ragionamento

Mistral AI ha svelato Magistral, il suo primo modello costruito appositamente per attività di ragionamento. Magistral è disponibile in due versioni: una versione open-source a 24B parametri, chiamata Magistral Small, con cui chiunque può armeggiare, e un’edizione enterprise più potente, Magistral Medium, destinata alle applicazioni commerciali in cui le capacità di ragionamento avanzate sono più importanti. “Il miglior pensiero umano non è lineare: si muove attraverso la logica, l’intuizione, l’incertezza e la scoperta”, spiega Mistral AI. È un’affermazione corretta: i modelli esistenti spesso si scontrano con il modo disordinato e non lineare in cui gli esseri umani pensano ai problemi. Ho testato numerosi modelli di ragionamento e in genere soffrono di tre limitazioni fondamentali: mancano di profondità nei domini specializzati, il loro processo di ragionamento è frustrantemente opaco e le loro prestazioni sono incoerenti in diversi linguaggi. Il ragionamento del mondo reale di Mistral AI per i professionisti Per i professionisti che hanno esitato ad affidare all’IA compiti complessi, Magistral potrebbe far cambiare idea a qualcuno. I giuristi, i finanzieri, i professionisti della sanità e i lavoratori della pubblica amministrazione apprezzeranno la capacità del modello di mostrare il proprio lavoro. Tutte le conclusioni possono essere tracciate attraverso passaggi logici, il che è fondamentale quando si opera in ambienti regolamentati dove il “perché lo dice l’IA” non è sufficiente. Anche gli sviluppatori di software non sono stati dimenticati. Magistral sostiene di eccellere nel tipo di pensiero strutturato che consente di migliorare la pianificazione dei progetti, la progettazione dell’architettura e l’ingegneria dei dati. Avendo lottato con alcuni modelli che producono soluzioni tecniche plausibili ma errate, sono curioso di vedere se le capacità di ragionamento di Magistral sono all’altezza. Mistral sostiene che il suo modello di ragionamento eccelle anche nei compiti creativi. L’azienda riferisce che Magistral è “un eccellente compagno creativo” per la scrittura e la narrazione, in grado di produrre sia narrazioni coerenti sia, quando richiesto, contenuti più sperimentali. Questa versatilità suggerisce che stiamo superando l’era dei modelli separati per i compiti creativi e quelli logici. Cosa distingue Magistral dagli altri? Ciò che separa Magistral dai modelli linguistici comuni è la trasparenza. Piuttosto che sputare risposte da una scatola nera, rivela il suo processo di pensiero in un modo che gli utenti possono seguire e verificare. Questo aspetto è molto importante in contesti professionali. Un avvocato non vuole solo il suggerimento di una clausola contrattuale, ma deve capire il ragionamento legale che c’è dietro. Un medico non può fidarsi ciecamente di un suggerimento diagnostico senza vederne la logica clinica. Rendendo tracciabile il suo ragionamento, Magistral potrebbe contribuire a colmare il divario di fiducia che ha ostacolato l’adozione dell’IA in settori ad alto rischio. Avendo parlato con sviluppatori di IA non inglesi, ho sentito una forte frustrazione per il fatto che le capacità di ragionamento diminuiscono drasticamente al di fuori dell’inglese. Magistral sembra affrontare questo problema con un solido supporto multilingue, che consente ai professionisti di ragionare nella loro lingua preferita senza penalizzare le prestazioni. Non si tratta solo di comodità, ma di equità e accesso. Dato che i Paesi implementano sempre più spesso normative sull’IA che richiedono soluzioni localizzate, gli strumenti che ragionano in modo efficace in tutte le lingue avranno un vantaggio significativo rispetto ai concorrenti incentrati sull’inglese. Come usare Magistral Per chi vuole sperimentare, Magistral Small è disponibile da subito con licenza Apache 2.0 tramite Hugging Face. Chi è interessato alla versione Medium, più potente, può provarne un’anteprima attraverso l’interfaccia Le Chat di Mistral o la sua piattaforma API. Gli utenti aziendali in cerca di opzioni di distribuzione possono trovare Magistral Medium su Amazon SageMaker, mentre le implementazioni di IBM WatsonX, Azure e Google Cloud Marketplace sono in arrivo. Mentre l’entusiasmo iniziale per i chatbot generici comincia a scemare, il mercato è affamato di strumenti di intelligenza artificiale specializzati che eccellono in compiti professionali specifici. Concentrandosi sul ragionamento trasparente per gli esperti del settore, Mistral si è ritagliata una nicchia potenzialmente preziosa. Fondata solo l’anno scorso da ex allievi di DeepMind e Meta AI, Mistral si è mossa a rotta di collo per affermarsi come campione europeo di AI. L’azienda ha sempre fatto il passo più lungo della gamba, creando modelli in grado di competere con le offerte di aziende molto più grandi di lei. Dato che le organizzazioni richiedono sempre di più un’intelligenza artificiale in grado di spiegarsi da sola – in particolare in Europa, dove la legge sull’intelligenza artificiale richiederà trasparenza – l’attenzione di Magistral nel mostrare il suo processo di ragionamento sembra particolarmente opportuna. (Immagine di Stephane) Vedi anche: Affrontare le allucinazioni: Uno spinout del MIT insegna all’IA ad ammettere quando non ha le idee chiare Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Esplora gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Leggi di più su www.artificialintelligence-news.com
Il generatore di immagini AI Midjourney è stato citato in giudizio da Disney e Universal per violazione di copyright

Due importanti studios di Hollywood, Disney e Universal Pictures, stanno facendo causa a Midjourney per quello che definiscono un uso non autorizzato della loro proprietà intellettuale per addestrare il suo modello di intelligenza artificiale di grandi dimensioni. La causa per violazione del copyright, depositata presso la Corte Distrettuale degli Stati Uniti per il Distretto Centrale della California a Los Angeles, accusa Midjourney di aver prodotto repliche dei personaggi protetti da copyright degli studios utilizzando il suo strumento di generazione di immagini. Tra i personaggi e le immagini coinvolte figurano Shrek e Minions di Universal, oltre a vari personaggi degli universi Disney de Il Re Leone, Aladdin, Frozen, Marvel, Star Wars, I Simpson, Toy Story, Cars e Come addestrare il tuo drago. “La pirateria è pirateria e il fatto che un’immagine o un video in violazione sia realizzato con l’intelligenza artificiale o con un’altra tecnologia non lo rende meno in violazione”, hanno dichiarato le due aziende nella loro causa. “La condotta di Midjourney si appropria indebitamente della proprietà intellettuale di Disney e Universal e minaccia di mettere a repentaglio gli incentivi fondamentali della legge statunitense sul diritto d’autore, che determinano la leadership americana nel cinema, nella televisione e in altre arti creative” I dirigenti di NBCUniversal, società madre di Disney e Universal, hanno rilasciato dichiarazioni separate ad Axios. “La nostra proprietà intellettuale di livello mondiale è costruita su decenni di investimenti finanziari, creatività e innovazione, investimenti resi possibili solo dagli incentivi contenuti nella legge sul diritto d’autore che dà ai creatori il diritto esclusivo di trarre profitto dalle loro opere”, ha dichiarato Horacio Gutierrez, vicepresidente esecutivo senior, responsabile legale e della conformità della Disney. Kim Harris, vicepresidente esecutivo e consigliere generale di NBCU, ha aggiunto: “Oggi abbiamo avviato questa azione legale per proteggere il duro lavoro di tutti gli artisti che ci intrattengono e ci ispirano e il significativo investimento che facciamo nei nostri contenuti. Un furto è un furto a prescindere dalla tecnologia utilizzata e questa azione comporta una palese violazione dei nostri diritti d’autore” Midjourney, con sede a San Francisco e avviata nel 2021, aveva una base di utenti di quasi 21 milioni a settembre 2024. Ha lanciato il suo generatore di immagini AI nel febbraio 2022 e lo scorso anno ha accumulato 300 milioni di dollari di fatturato, quasi 100 milioni in più rispetto al 2023. Leggi di più su www.adweek.com
Anthropic lancia i modelli di AI Claude per la sicurezza nazionale degli Stati Uniti

Anthropic ha presentato una collezione personalizzata di modelli Claude AI progettati per i clienti della sicurezza nazionale degli Stati Uniti. L’annuncio rappresenta una potenziale pietra miliare nell’applicazione dell’IA in ambienti governativi riservati. I modelli “Claude Gov” sono già stati utilizzati da agenzie che operano ai più alti livelli della sicurezza nazionale degli Stati Uniti, con un accesso strettamente limitato a coloro che lavorano in questi ambienti riservati. Anthropic afferma che i modelli Claude Gov sono nati da un’ampia collaborazione con i clienti governativi per soddisfare i requisiti operativi del mondo reale. Nonostante siano stati realizzati per applicazioni di sicurezza nazionale, Anthropic sostiene che questi modelli sono stati sottoposti agli stessi rigorosi test di sicurezza degli altri modelli Claude presenti nel suo portafoglio. Funzionalità AI specializzate per la sicurezza nazionale I modelli specializzati offrono prestazioni migliori in diverse aree critiche per le operazioni governative. Sono caratterizzati da una migliore gestione dei materiali classificati, con un minor numero di casi in cui l’IA si rifiuta di interagire con informazioni sensibili, una frustrazione comune negli ambienti sicuri. Altri miglioramenti includono una migliore comprensione dei documenti in contesti di intelligence e difesa, una maggiore competenza in lingue cruciali per le operazioni di sicurezza nazionale e un’interpretazione superiore di dati complessi di cybersecurity per le analisi di intelligence. Tuttavia, questo annuncio arriva nel bel mezzo dei dibattiti in corso sulla regolamentazione dell’IA negli Stati Uniti. L’amministratore delegato di Anthropic, Dario Amodei, ha recentemente espresso le sue preoccupazioni in merito alla proposta di legge che concederebbe un congelamento decennale della regolamentazione statale sull’IA. Bilanciare l’innovazione e la regolamentazione In un saggio pubblicato questa settimana sul New York Times, Amodei si è espresso a favore di regole di trasparenza piuttosto che di moratorie normative. Ha illustrato le valutazioni interne che hanno rivelato comportamenti preoccupanti nei modelli avanzati di IA, tra cui un caso in cui il modello più recente di Anthropic ha minacciato di rivelare le e-mail private di un utente a meno che non venisse annullato un piano di spegnimento. Amodei ha paragonato i test di sicurezza dell’IA alle prove nella galleria del vento per gli aerei, progettate per evidenziare i difetti prima del rilascio pubblico, sottolineando che i team di sicurezza devono individuare e bloccare i rischi in modo proattivo. Anthropic si è posizionata come sostenitore di uno sviluppo responsabile dell’IA. Nell’ambito della sua Responsible Scaling Policy, l’azienda condivide già i dettagli sui metodi di test, sulle fasi di mitigazione dei rischi e sui criteri di rilascio, pratiche che secondo Amodei dovrebbero diventare standard in tutto il settore. Secondo Amodei, la formalizzazione di pratiche simili in tutto il settore consentirebbe al pubblico e ai legislatori di monitorare i miglioramenti delle capacità e di determinare l’eventuale necessità di ulteriori interventi normativi. Implicazioni dell’IA nella sicurezza nazionale L’impiego di modelli avanzati in contesti di sicurezza nazionale solleva importanti questioni sul ruolo dell’IA nella raccolta di informazioni, nella pianificazione strategica e nelle operazioni di difesa. Amodei si è espresso a favore del controllo delle esportazioni di chip avanzati e dell’adozione militare di sistemi affidabili per contrastare rivali come la Cina, indicando la consapevolezza di Anthropic delle implicazioni geopolitiche della tecnologia AI. I modelli Claude Gov potrebbero potenzialmente servire a numerose applicazioni per la sicurezza nazionale, dalla pianificazione strategica al supporto operativo, dall’analisi dell’intelligence alla valutazione delle minacce, il tutto nell’ambito dell’impegno dichiarato da Anthropic per uno sviluppo responsabile dell’IA. Panorama normativo Mentre Anthropic lancia questi modelli specializzati per l’uso governativo, il contesto normativo più ampio per l’IA rimane in evoluzione. Il Senato sta attualmente valutando un testo che istituirebbe una moratoria sulla regolamentazione dell’IA a livello statale, con audizioni previste prima di votare la misura tecnologica più ampia. Amodei ha suggerito che gli Stati potrebbero adottare norme di divulgazione ristrette che rimandino a un futuro quadro federale, con una clausola di supremazia che eventualmente prevarichi le misure statali per preservare l’uniformità senza bloccare le azioni locali a breve termine. Questo approccio consentirebbe una certa protezione normativa immediata mentre si lavora per uno standard nazionale completo. Man mano che queste tecnologie si integrano sempre più profondamente nelle operazioni di sicurezza nazionale, le questioni relative alla sicurezza, alla supervisione e all’uso appropriato rimarranno in primo piano sia nelle discussioni politiche che nel dibattito pubblico. Per Anthropic, la sfida consisterà nel mantenere il suo impegno per uno sviluppo responsabile dell’IA, soddisfacendo al contempo le esigenze specifiche dei clienti governativi per applicazioni critiche come la sicurezza nazionale. Leggi di più su www.artificialintelligence-news.com
Reddit fa causa ad Anthropic per lo scraping dei dati

Reddit accusa Anthropic di aver costruito i suoi modelli di intelligenza artificiale Claude sulle spalle degli utenti di Reddit, senza autorizzazione e senza pagare. Chiunque utilizzi Reddit, anche un bot di web-crawling, accetta l’accordo con gli utenti del sito. L’accordo è chiaro: non puoi prendere i contenuti del sito e utilizzarli per i tuoi prodotti commerciali senza un accordo scritto. Reddit sostiene che i bot di Anthropic hanno fatto esattamente questo per anni, scovando enormi quantità di conversazioni e post per addestrare e migliorare Claude. Ciò che rende questa causa particolarmente piccante è il modo in cui si scaglia contro la reputazione di Anthropic. Anthropic si è impegnata a fondo per farsi passare per un’azienda di AI etica e affidabile, il “cavaliere bianco” del settore. L’azione legale, tuttavia, definisce queste affermazioni nient’altro che “vuoti espedienti di marketing”. Ad esempio, Reddit fa riferimento a una dichiarazione del luglio 2024 in cui Anthropic affermava di aver impedito ai suoi bot di strisciare su Reddit. L’azione legale afferma che ciò era “falso”, sostenendo che i suoi log hanno rilevato i bot di Anthropic che hanno tentato di accedere al sito più di centomila volte nei mesi successivi. Ma non si tratta solo di beghe aziendali, bensì di una questione che coinvolge direttamente la privacy degli utenti. Quando cancelli un post o un commento su Reddit, ti aspetti che venga cancellato. Reddit ha stipulato accordi ufficiali di licenza con altri grandi player dell’intelligenza artificiale come Google e OpenAI, e questi accordi includono misure tecniche per garantire che quando un utente cancella un contenuto, lo faccia anche l’azienda di intelligenza artificiale. Secondo la causa intentata da Reddit, Anthropic non ha alcun accordo di questo tipo e si è rifiutata di stipularne uno. Ciò significa che se la loro IA è stata addestrata su un post che hai poi cancellato, quel contenuto potrebbe ancora essere inserito nella base di conoscenza di Claude, ignorando di fatto la tua scelta di rimuoverlo. La causa include persino uno screenshot in cui Claude stessa ammette di non avere alcun modo per sapere se i dati di Reddit su cui è stata addestrata sono stati successivamente cancellati da un utente: Quindi, cosa vuole Reddit? Non si tratta solo di denaro, anche se chiede un risarcimento per l’aumento dei costi dei server e per la perdita dei diritti di licenza. Chiedono al tribunale un’ingiunzione per costringere Anthropic a smettere immediatamente di utilizzare i dati di Reddit. Inoltre, Reddit vuole proibire ad Anthropic di vendere o concedere in licenza qualsiasi prodotto realizzato con quei dati. Ciò significa che stanno chiedendo a un giudice di togliere Claude dal mercato. Questo caso costringe a porsi una domanda difficile: Essere “pubblicamente disponibili” su Internet significa che i contenuti sono liberi di essere presi e monetizzati da qualsiasi azienda ? Reddit sostiene un deciso “no” e il risultato potrebbe cambiare le regole dello sviluppo dell’intelligenza artificiale da qui in avanti. Leggi di più su www.artificialintelligence-news.com
Il modello AI di Odyssey trasforma i video in mondi interattivi

Odyssey, un laboratorio di intelligenza artificiale con sede a Londra, ha lanciato un’anteprima di ricerca su un modello che trasforma i video in mondi interattivi. Inizialmente concentrato su modelli di mondi per la produzione di film e videogiochi, il team di Odyssey si è imbattuto in un mezzo di intrattenimento potenzialmente del tutto nuovo. Il video interattivo generato dal modello AI di Odyssey risponde agli input in tempo reale. Puoi interagire con esso utilizzando la tastiera, il telefono, il controller o eventualmente anche i comandi vocali. I ragazzi di Odyssey lo definiscono una “versione iniziale di Holodeck” L’intelligenza artificiale sottostante è in grado di generare fotogrammi video dall’aspetto realistico ogni 40 millisecondi. Ciò significa che quando premi un pulsante o fai un gesto, il video risponde quasi istantaneamente, creando l’illusione che tu stia davvero influenzando questo mondo digitale. secondo Odyssey, “l’esperienza di oggi è come l’esplorazione di un sogno glitch: grezzo, instabile, ma innegabilmente nuovo”. Non stiamo parlando di immagini curate e di qualità da gioco AAA, almeno non ancora. Non è la solita tecnologia video Facciamo un po’ i tecnici per un momento. Cosa rende questa tecnologia video interattiva generata dall’intelligenza artificiale diversa, ad esempio, da un normale videogioco o dalla CGI? Tutto si riduce a qualcosa che Odyssey chiama “modello del mondo” A differenza dei modelli video tradizionali che generano intere clip in una sola volta, i modelli del mondo lavorano fotogramma per fotogramma per prevedere cosa dovrebbe accadere in seguito in base allo stato attuale e agli input dell’utente. È simile al modo in cui i modelli linguistici di grandi dimensioni predicono la parola successiva in una sequenza, ma infinitamente più complesso perché stiamo parlando di fotogrammi video ad alta risoluzione anziché di parole. “Un modello del mondo è, nella sua essenza, un modello dinamico condizionato dall’azione”, come dice Odyssey. Ogni volta che interagisci, il modello prende in considerazione lo stato attuale, la tua azione e la storia di ciò che è accaduto, quindi genera il fotogramma video successivo di conseguenza. Il risultato è qualcosa di più organico e imprevedibile di un gioco tradizionale. Non c’è una logica pre-programmata che dice “se un giocatore fa X, allora succede Y”; al contrario, l’IA fa le sue migliori ipotesi su ciò che dovrebbe accadere dopo, basandosi su ciò che ha imparato guardando innumerevoli video. Odyssey affronta sfide storiche con video generati dall’intelligenza artificiale Costruire qualcosa di simile non è esattamente una passeggiata. Uno dei maggiori ostacoli ai video interattivi generati dall’intelligenza artificiale è quello di mantenerli stabili nel tempo. Quando si genera ogni fotogramma sulla base di quelli precedenti, i piccoli errori possono aumentare rapidamente (un fenomeno che i ricercatori di AI chiamano “deriva”) Per affrontare questo problema, Odyssey ha utilizzato quello che definisce un “modello di distribuzione ristretto”: in sostanza, ha pre-addestrato la sua IA su filmati generici e poi l’ha messa a punto su un insieme più ristretto di ambienti. Questo compromesso si traduce in una minore varietà ma in una maggiore stabilità, per evitare che tutto diventi una bizzarra confusione. L’azienda afferma di aver già fatto “rapidi progressi” sul modello di nuova generazione, che a quanto pare mostra “una gamma più ricca di pixel, dinamiche e azioni” Far funzionare tutta questa tecnologia AI in tempo reale non è economico. Attualmente, l’infrastruttura che alimenta questa esperienza costa tra 0,80 e 1,60 sterline (1-2) per ora-utente, basandosi su cluster di GPU H100 sparsi negli Stati Uniti e nell’Unione Europea. Potrebbe sembrare costoso per lo streaming video, ma è notevolmente economico rispetto alla produzione di contenuti tradizionali di giochi o film. Odyssey si aspetta che questi costi diminuiscano ulteriormente man mano che i modelli diventano più efficienti. Video interattivo: Il prossimo mezzo di narrazione? Nel corso della storia, le nuove tecnologie hanno dato vita a nuove forme di narrazione, dalle pitture rupestri ai libri, alla fotografia, alla radio, ai film e ai videogiochi. Odyssey ritiene che i video interattivi generati dall’intelligenza artificiale siano il prossimo passo di questa evoluzione. Se hanno ragione, potremmo trovarci di fronte al prototipo di qualcosa che trasformerà l’intrattenimento, l’istruzione, la pubblicità e molto altro ancora. Immagina video di formazione in cui puoi mettere in pratica le abilità insegnate o esperienze di viaggio in cui puoi esplorare destinazioni dal tuo divano. L’anteprima di ricerca disponibile ora è ovviamente solo un piccolo passo verso questa visione ed è più una prova di concetto che un prodotto finito. Tuttavia, è un’intrigante anticipazione di ciò che potrebbe essere possibile quando i mondi generati dall’intelligenza artificiale diventeranno parchi giochi interattivi piuttosto che semplici esperienze passive. Leggi di più su www.artificialintelligence-news.com
L’ultimo modello di intelligenza artificiale di DeepSeek è un “grande passo indietro” per la libertà di parola

L’ultimo modello di intelligenza artificiale di DeepSeek, R1 0528, ha sollevato delle perplessità per un’ulteriore regressione della libertà di parola e di ciò di cui gli utenti possono discutere. “Un grande passo indietro per la libertà di parola”, così ha sintetizzato un importante ricercatore di intelligenza artificiale Il ricercatore di intelligenza artificiale e popolare commentatore online “xlr8harder” ha messo alla prova il modello, condividendo i risultati che suggeriscono che DeepSeek sta aumentando le restrizioni sui contenuti. “DeepSeek R1 0528 è sostanzialmente meno permissivo su argomenti controversi di libertà di parola rispetto alle precedenti versioni di DeepSeek”, ha osservato il ricercatore. Non è chiaro se questo rappresenti un cambiamento deliberato nella filosofia o semplicemente un diverso approccio tecnico alla sicurezza dell’IA. Ciò che è particolarmente affascinante del nuovo modello è l’incoerenza con cui applica i suoi limiti morali. In un test di libertà di parola, quando gli è stato chiesto di presentare argomentazioni a sostegno dei campi di internamento per dissidenti, il modello di intelligenza artificiale ha rifiutato categoricamente. Ma, nel rifiutare, ha citato specificamente i campi di internamento cinesi dello Xinjiang come esempi di violazione dei diritti umani. Tuttavia, quando è stato interrogato direttamente su questi stessi campi dello Xinjiang, il modello ha improvvisamente fornito risposte pesantemente censurate. Sembra che questa IA sia a conoscenza di alcuni argomenti controversi, ma che sia stata istruita a fare finta di niente quando le viene chiesto direttamente. “È interessante, anche se non del tutto sorprendente, che sia in grado di proporre i campi come esempio di violazione dei diritti umani, ma che neghi quando gli viene chiesto direttamente”, ha osservato il ricercatore. Critiche alla Cina? Il computer dice di no Questo schema diventa ancora più evidente quando si esamina la gestione da parte del modello delle domande sul governo cinese. Utilizzando set di domande consolidati, progettati per valutare la libertà di parola nelle risposte dell’intelligenza artificiale ad argomenti politicamente sensibili, il ricercatore ha scoperto che R1 0528 è “il modello DeepSeek più censurato finora per quanto riguarda le critiche al governo cinese” Mentre i modelli DeepSeek precedenti potevano offrire risposte misurate a domande sulla politica cinese o sui diritti umani, questa nuova iterazione spesso si rifiuta di impegnarsi – uno sviluppo preoccupante per coloro che apprezzano i sistemi di intelligenza artificiale in grado di discutere apertamente degli affari globali. Tuttavia, c’è un lato positivo in questa nube. A differenza dei sistemi chiusi delle grandi aziende, i modelli di DeepSeek rimangono open-source con licenze permissive. “Il modello è open source con una licenza permissiva, quindi la comunità può (e vuole) affrontare la questione”, ha sottolineato il ricercatore. Questa accessibilità significa che la porta rimane aperta agli sviluppatori per creare versioni che bilanciano meglio la sicurezza e l’apertura. Cosa dimostra l’ultimo modello di DeepSeek sulla libertà di parola nell’era dell’IA La situazione rivela qualcosa di piuttosto sinistro sul modo in cui questi sistemi sono costruiti: possono essere a conoscenza di eventi controversi pur essendo programmati per fingere di non esserlo, a seconda di come viene formulata la domanda. Man mano che l’IA continua a entrare nella nostra vita quotidiana, trovare il giusto equilibrio tra salvaguardie ragionevoli e un discorso aperto diventa sempre più cruciale. Se troppo restrittivi, questi sistemi diventano inutili per discutere di argomenti importanti ma divisivi. Se invece sono troppo permissivi, rischiano di favorire contenuti dannosi. DeepSeek non ha spiegato pubblicamente il motivo di queste maggiori restrizioni e della regressione della libertà di parola, ma la comunità dell’intelligenza artificiale sta già lavorando a delle modifiche. Per il momento, questo è un altro capitolo del continuo braccio di ferro tra sicurezza e apertura dell’intelligenza artificiale. Leggi di più su www.artificialintelligence-news.com
Il Supernode 384 di Huawei ha sconvolto il mercato dell’intelligenza artificiale di Nvidia

Le capacità di intelligenza artificiale di Huawei hanno fatto un passo avanti con l’architettura Supernode 384, segnando un momento importante nella guerra globale dei processori tra le tensioni tecnologiche tra Stati Uniti e Cina. L’ultima innovazione del gigante tecnologico cinese è emersa dalla Kunpeng Ascend Developer Conference di venerdì scorso a Shenzhen, dove i dirigenti dell’azienda hanno dimostrato come il framework di calcolo sfidi direttamente il dominio di mercato di lunga data di Nvidia, che continua a operare sotto severe restrizioni commerciali guidate dagli Stati Uniti. Innovazione architettonica nata dalla necessità Zhang Dixuan, presidente della divisione Ascend computing di Huawei, ha illustrato il problema fondamentale che ha portato all’innovazione durante il suo keynote della conferenza: “Con la crescita della scala dell’elaborazione parallela, la larghezza di banda tra macchine nelle architetture server tradizionali è diventata un collo di bottiglia critico per la formazione” Il Supernode 384 abbandona i principi di calcolo Von Neumann a favore di un’architettura peer-to-peer progettata appositamente per i moderni carichi di lavoro dell’intelligenza artificiale. Questo cambiamento si rivela particolarmente potente per i modelli Mixture-of-Experts (sistemi di apprendimento automatico che utilizzano più sottoreti specializzate per risolvere sfide computazionali complesse) L’implementazione CloudMatrix 384 di Huawei presenta specifiche tecniche impressionanti: 384 processori Ascend AI che si estendono su 12 armadi di calcolo e quattro armadi di bus, generando 300 petaflop di potenza di calcolo grezza abbinata a 48 terabyte di memoria ad alta larghezza di banda, rappresentando un salto di qualità nell’infrastruttura di calcolo AI integrata. Le prestazioni sfidano i leader del settore I test di benchmark effettuati nel mondo reale rivelano il posizionamento competitivo del sistema rispetto alle soluzioni consolidate. Modelli di AI densi come LLaMA 3 di Meta hanno raggiunto 132 token al secondo per scheda sul Supernode 384 – offrendo prestazioni 2,5 volte superiori rispetto alle architetture cluster tradizionali. Le applicazioni ad alta intensità di comunicazione mostrano miglioramenti ancora più evidenti. I modelli delle famiglie Qwen e DeepSeek di Alibaba hanno raggiunto da 600 a 750 token al secondo per scheda, rivelando l’ottimizzazione dell’architettura per i carichi di lavoro AI di prossima generazione. I guadagni in termini di prestazioni derivano da una riprogettazione fondamentale dell’infrastruttura. Huawei ha sostituito le interconnessioni Ethernet convenzionali con connessioni bus ad alta velocità, migliorando la larghezza di banda delle comunicazioni di 15 volte e riducendo la latenza single-hop da 2 microsecondi a 200 nanosecondi – un miglioramento di dieci volte. La strategia geopolitica guida l’innovazione tecnica Lo sviluppo del Supernode 384 non può essere separato dalla più ampia competizione tecnologica tra Stati Uniti e Cina. Le sanzioni americane hanno sistematicamente limitato l’accesso di Huawei a tecnologie di semiconduttori all’avanguardia, costringendo l’azienda a massimizzare le prestazioni all’interno dei vincoli esistenti. L ‘analisi del settore condotta da SemiAnalysis suggerisce che il CloudMatrix 384 utilizza l’ultimo processore Ascend 910C AI di Huawei, che riconosce i limiti intrinseci delle prestazioni ma evidenzia i vantaggi architettonici: “Huawei è indietro di una generazione per quanto riguarda i chip, ma la sua soluzione scalabile è probabilmente una generazione avanti rispetto agli attuali prodotti di Nvidia e AMD presenti sul mercato” La valutazione rivela come le strategie di AI computing di Huawei si siano evolute al di là delle specifiche hardware tradizionali, verso l’ottimizzazione a livello di sistema e l’innovazione architettonica. Implicazioni di mercato e realtà di implementazione Oltre alle dimostrazioni in laboratorio, Huawei ha reso operativi i sistemi CloudMatrix 384 in diversi data center cinesi nella provincia di Anhui, nella Mongolia interna e nella provincia di Guizhou. Queste implementazioni pratiche convalidano la fattibilità dell’architettura e creano un quadro infrastrutturale per una più ampia adozione sul mercato. Il potenziale di scalabilità del sistema – che supporta decine di migliaia di processori collegati – lo posiziona come una piattaforma interessante per l’addestramento di modelli di intelligenza artificiale sempre più sofisticati. Questa capacità risponde alle crescenti richieste dell’industria di implementare l’IA su larga scala in diversi settori. Discontinuità nell’industria e considerazioni sul futuro L’innovazione architettonica di Huawei introduce sia opportunità che complicazioni per l’ecosistema globale dell’IA. Se da un lato fornisce valide alternative alle soluzioni leader di mercato di Nvidia, dall’altro accelera la frammentazione dell’infrastruttura tecnologica internazionale lungo linee geopolitiche. Il successo delle iniziative di Huawei per l’AI computing dipenderà dall’adozione da parte dell’ecosistema di sviluppatori e dalla convalida delle prestazioni. L’aggressivo coinvolgimento dell’azienda nelle conferenze degli sviluppatori indica la consapevolezza che l’innovazione tecnica da sola non può garantire l’accettazione da parte del mercato. Per le organizzazioni che stanno valutando gli investimenti nell’infrastruttura AI, il Supernode 384 rappresenta una nuova opzione che combina prestazioni competitive e indipendenza dalle catene di fornitura controllate dagli Stati Uniti. Tuttavia, la fattibilità a lungo termine dipende dal proseguimento dei cicli di innovazione e dal miglioramento della stabilità geopolitica. Leggi di più su www.artificialintelligence-news.com
