ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

OpenAI contro-querela Elon Musk per aver tentato di “affossare” il rivale dell’AI

OpenAI contro-querela Elon Musk per aver tentato di "affossare" il rivale dell'AI

OpenAI ha lanciato una controffensiva legale contro uno dei suoi co-fondatori, Elon Musk, e la sua impresa concorrente di AI, xAI. Nei documenti depositati ieri in tribunale, OpenAI accusa Musk di aver orchestrato una campagna “implacabile” e “malevola” volta a “distruggere OpenAI” dopo aver lasciato l’organizzazione anni fa. Le azioni senza sosta di Elon contro di noi sono solo tattiche in malafede per rallentare OpenAI e prendere il controllo delle principali innovazioni di AI a suo vantaggio personale. Oggi abbiamo fatto causa per fermarlo. – OpenAI Newsroom (@OpenAINewsroom) 9 aprile 2025 L’atto giudiziario, presentato alla Corte Distrettuale degli Stati Uniti per il Distretto Nord della California, sostiene che Musk non poteva tollerare il successo di OpenAI dopo averla “abbandonata e dichiarata spacciata ” OpenAI sta cercando di ottenere rimedi legali, tra cui un’ingiunzione per fermare la presunta “azione illegale e sleale” di Musk e un risarcimento per i danni già causati. Le origini di OpenAI e la partenza di Elon Musk I documenti legali raccontano che OpenAI è nata nel 2015, da un’idea discussa dall’attuale amministratore delegato Sam Altman e dal presidente Greg Brockman di creare un laboratorio di intelligenza artificiale focalizzato sullo sviluppo di un’intelligenza artificiale generale (AGI), in grado di superare gli esseri umani, a “beneficio di tutta l’umanità” Musk è stato coinvolto nel lancio, facendo parte del consiglio di amministrazione iniziale della no-profit e impegnandosi a versare 1 miliardo di dollari in donazioni. Tuttavia, il rapporto si è incrinato. OpenAI sostiene che tra il 2017 e il 2018, le richieste di Musk di ottenere il “controllo assoluto” dell’azienda – o il suo potenziale assorbimento in Tesla – sono state respinte da Altman, Brockman e dall’allora scienziato capo Ilya Sutskever. Il documento cita Sutskever che mette in guardia Musk dal creare una “dittatura AGI” A seguito di questo disaccordo, OpenAI sostiene che Elon Musk si sia dimesso nel febbraio 2018, dichiarando che l’impresa sarebbe fallita senza di lui e che avrebbe invece perseguito lo sviluppo dell’AGI presso Tesla. In modo critico, OpenAI sostiene che il miliardo di dollari promesso “non è mai stato soddisfatto, nemmeno lontanamente”. Ristrutturazione, successo e la presunta campagna “malevola” di Musk Di fronte all’aumento dei costi per la potenza di calcolo e il mantenimento dei talenti, OpenAI si è ristrutturata e nel 2019 ha creato un’entità “a profitto limitato” per attrarre investimenti pur rimanendo controllata dal consiglio di amministrazione no-profit e vincolata alla sua missione. Questa struttura, afferma OpenAI, è stata annunciata pubblicamente e a Musk è stata offerta una partecipazione nella nuova entità, ma ha rifiutato e non ha sollevato alcuna obiezione all’epoca. OpenAI sottolinea che le sue scoperte successive – tra cui GPT-3, ChatGPT e GPT-4 – hanno ottenuto una massiccia adozione pubblica e il plauso della critica. Questi successi, sottolinea OpenAI, sono stati conseguiti dopo la partenza di Elon Musk e avrebbero stimolato il suo antagonismo. La documentazione riporta una cronologia di presunte azioni di Elon Musk volte a danneggiare OpenAI: Fondazione di xAI: Musk ha “tranquillamente creato” il suo concorrente, xAI, nel marzo 2023. Richiesta di moratoria: Giorni dopo, Musk ha appoggiato una richiesta di moratoria per lo sviluppo di IA più avanzate del GPT-4, una mossa che OpenAI sostiene fosse volta a “bloccare OpenAI mentre tutti gli altri, in particolare Musk, si mettevano al passo”. Richiesta di documenti: Musk avrebbe fatto una “richiesta pretestuosa” di documenti riservati di OpenAI, fingendo preoccupazione mentre costruiva segretamente xAI. Attacchi pubblici: Utilizzando la sua piattaforma di social media X (ex Twitter), Musk avrebbe diffuso “attacchi a mezzo stampa” e “campagne malevole” al suo vasto pubblico, etichettando OpenAI come “menzogna”, “male” e “truffa totale”. Azioni legali: Musk ha intentato una causa, prima in un tribunale statale (poi ritirata) e poi l’attuale azione federale, sulla base di quelle che OpenAI definisce affermazioni prive di fondamento sulla violazione del “Contratto di fondazione”. Pressioni normative: Musk avrebbe sollecitato i procuratori generali degli Stati a indagare su OpenAI e a forzare un’asta di asset. “Offerta fasulla”: Nel febbraio 2025, un consorzio guidato da Musk ha presentato una presunta offerta di 97,375 miliardi di dollari per gli asset di OpenAI, Inc. OpenAI la definisce un’”offerta fasulla” e una “trovata” priva di prove di finanziamento e progettata esclusivamente per disturbare le operazioni di OpenAI, la sua potenziale ristrutturazione, la raccolta di fondi e i rapporti con gli investitori e i dipendenti, in particolare nel momento in cui OpenAI sta valutando la possibilità di trasformare il suo ramo a scopo di lucro in una Public Benefit Corporation (PBC). Un investitore coinvolto avrebbe ammesso che l’obiettivo dell’offerta era quello di ottenere una “scoperta”. Sulla base di queste accuse, OpenAI avanza due controdenunce principali nei confronti di Elon Musk e xAI: Concorrenza sleale: L’offerta fasulla costituisce una pratica commerciale sleale e fraudolenta ai sensi della legge californiana, volta a distruggere OpenAI e a ottenere un vantaggio sleale per xAI. Interferenza illecita con vantaggi economici futuri: Sostenere che l’offerta fittizia ha intenzionalmente disturbato le relazioni esistenti e potenziali di OpenAI con investitori, dipendenti e clienti. OpenAI sostiene che le azioni di Musk l’hanno costretta a dirottare risorse e a spendere fondi, causando un danno. L’azienda sostiene che la sua campagna minaccia “danni irreparabili” alla sua missione, alla sua governance e alle sue relazioni commerciali cruciali. L’archiviazione riguarda anche le preoccupazioni relative alla sicurezza di xAI, citando i rapporti sulla generazione di contenuti dannosi e di disinformazione da parte della sua AI Grok. Elon non si è mai occupato della missione. Ha sempre avuto i suoi programmi. Ha cercato di prendere il controllo di OpenAI e di fonderla con Tesla come azienda a scopo di lucro – le sue stesse e-mail lo dimostrano. Quando non ha ottenuto il suo scopo, se n’è andato. Elon è senza dubbio uno dei più grandi imprenditori del nostro.. – OpenAI Newsroom (@OpenAINewsroom) 9 aprile 2025 Le controdenunce segnano una drammatica escalation nella battaglia legale tra il pioniere dell’intelligenza artificiale e il suo co-fondatore scomparso. Se inizialmente Elon Musk aveva citato in giudizio OpenAI sostenendo che avesse tradito i

Spot AI ha presentato il primo costruttore universale di agenti AI al mondo per le telecamere di sicurezza

Spot AI ha presentato il primo costruttore universale di agenti AI al mondo per le telecamere di sicurezza

Spot AI ha presentato Iris, che l’azienda descrive come il primo costruttore universale di agenti di AI video per sistemi di telecamere aziendali. Lo strumento consente alle aziende di creare agenti AI personalizzati attraverso un’interfaccia conversazionale, rendendo più semplice il monitoraggio e l’azione sui dati video provenienti da ambienti fisici senza la necessità di competenze tecniche. Progettato per settori come la produzione, la logistica, la vendita al dettaglio, l’edilizia e la sanità, Iris si basa sul precedente lancio di Spot AI Video AI Agents per la sicurezza, la protezione e le operazioni. Mentre questi agenti precostituiti si concentrano su casi d’uso comuni, Iris offre alle organizzazioni la flessibilità di addestrare gli agenti per scenari più specifici e critici per l’azienda. Secondo Spot AI, gli utenti possono creare agenti video in pochi minuti. Il sistema consente l’addestramento attraverso il rinforzo – utilizzando esempi di ciò che l’IA dovrebbe e non dovrebbe rilevare – e può essere configurato per attivare risposte reali come lo spegnimento di apparecchiature, il blocco di porte o la generazione di avvisi. L’amministratore delegato e cofondatore Rish Gupta ha dichiarato che lo strumento riduce drasticamente il tempo necessario per creare sistemi di rilevamento video specializzati. “Quello che prima richiedeva mesi di sviluppo ora avviene in pochi minuti”, ha spiegato Gupta. Prima di Iris, la creazione di sistemi di rilevamento video specializzati richiedeva team dedicati di AI/ML con lauree avanzate, migliaia di immagini annotate e 8 settimane di sviluppo complesso”, ha spiegato. “Iris mette lo stesso potere nelle mani di qualsiasi dirigente d’azienda grazie a una semplice conversazione di 8 minuti e 20 immagini di addestramento” Esempi dal mondo reale Spot AI ha evidenziato una serie di casi d’uso specifici per il settore che Iris potrebbe supportare: Produzione: Rilevamento di perdite di prodotto o di liquidi, con risposte automatiche in base alla gravità. Magazzino: Individuare l’impilamento non sicuro di scatole o pallet per evitare incidenti. Vendita al dettaglio: Monitoraggio dei livelli delle scorte a scaffale e generazione di avvisi per il rifornimento. Sanità: Distinguere il personale e i pazienti che indossano uniformi simili per ottimizzare il flusso di traffico e la sicurezza. Sicurezza: Identificare strumenti come le tronchesi nelle aree di parcheggio per affrontare le minacce alla sicurezza in continua evoluzione. Conformità alla sicurezza: Verifica se i lavoratori indossano i dispositivi di sicurezza richiesti sul posto. Gli agenti video AI monitorano continuamente le aree critiche e aiutano i team a reagire rapidamente ai pericoli per la sicurezza, alle inefficienze operative e ai problemi di sicurezza. Con Iris, questi agenti possono essere sviluppati e modificati attraverso l’interazione in linguaggio naturale, riducendo la necessità di supporto ingegneristico e rendendo le informazioni video più accessibili a tutti i reparti. Leggi di più su www.artificialintelligence-news.com

L’intelligenza artificiale sta creando problemi nel processo di peer review in ambito scientifico

L'intelligenza artificiale sta creando problemi nel processo di peer review in ambito scientifico

L’editoria scientifica si sta confrontando con una questione sempre più provocatoria: cosa fare con l’IA nella peer review? L’ecologista Timothée Poisot ha recentemente ricevuto una revisione chiaramente generata da ChatGPT. Il documento conteneva la seguente stringa di parole rivelatrici: “Ecco una versione rivista della tua recensione con una maggiore chiarezza e struttura” Poisot si è infuriato. “Sottopongo un manoscritto a revisione nella speranza di ricevere commenti dai miei colleghi”, ha scritto in un post sul blog. “Se questo presupposto non viene soddisfatto, l’intero contratto sociale della revisione paritaria viene meno” L’esperienza di Poisot non è un caso isolato. Uno studio recente pubblicato su Nature ha rilevato che fino al 17% delle revisioni di articoli di conferenze sull’intelligenza artificiale nel 2023-24 mostrava segni di modifiche sostanziali da parte di modelli linguistici. Inoltre, in un sondaggioseparato su Nature, quasi un ricercatore su cinque ha ammesso di utilizzare l’IA per accelerare e semplificare il processo di peer review. Abbiamo anche assistito ad alcuni casi assurdi di ciò che accade quando i contenuti generati dall’IA sfuggono al processo di revisione paritaria, che è progettato per difendere la qualità della ricerca. Nel 2024, un articolo pubblicato sulla rivista Frontiers, che esplorava alcuni percorsi di segnalazione cellulare molto complessi, è stato trovato contenente bizzarri diagrammi senza senso generati dallo strumento artistico dell’IA Midjourney. Un’immagine raffigurava un topo deforme, mentre altre erano solo vortici e ghirigori casuali, riempiti di testo incomprensibile. Questo assurdo diagramma generato dall’intelligenza artificiale è apparso nell’articolo Frontiers in 2024. Fonte: Frontiers. I commentatori su Twitter sono rimasti sconcertati dal fatto che figure così palesemente errate abbiano superato la revisione paritaria. “Ehm, come ha fatto la Figura 1 a superare la revisione paritaria?!”, ha chiesto uno di loro. In sostanza, i rischi sono due: a) che i revisori paritari utilizzino l’intelligenza artificiale per esaminare i contenuti e b) che i contenuti generati dall’intelligenza artificiale riescano a superare l’intero processo di revisione paritaria. Gli editori stanno rispondendo a questi problemi. Elsevier ha vietato del tutto l’IA generativa nella revisione paritaria. Wiley e Springer Nature ne consentono un “uso limitato” con obbligo di divulgazione. Alcuni, come l’American Institute of Physics, stanno sperimentando con cautela strumenti di IA per integrare – ma non sostituire – il feedback umano. Tuttavia, il fascino dell’intelligenza artificiale è forte e alcuni ne vedono i benefici se applicata con criterio. Uno studio di Stanford ha rilevato che il 40% degli scienziati ritiene che le revisioni del loro lavoro da parte di ChatGPT possano essere utili quanto quelle umane, e il 20% di più. I ricercatori hanno spesso reazioni positive alle revisioni paritarie generate dall’intelligenza artificiale. Fonte: Nature Tuttavia, l’accademia si basa da millenni sul contributo umano, quindi la resistenza è forte. “Non combattere le revisioni automatizzate significa che ci siamo arresi”, ha scritto Poisot. Molti sostengono che il punto centrale della revisione paritaria sia il feedback dei colleghi esperti, non un timbro algoritmico. Leggi di più su dailyai.com

Bill Gates: L’AI sostituirà la maggior parte dei lavori umani entro un decennio

Bill Gates: L'AI sostituirà la maggior parte dei lavori umani entro un decennio

In una serie di recenti interviste, il co-fondatore di Microsoft Bill Gates ha fatto una previsione azzardata: entro i prossimi 10 anni, l’IA renderà gli esseri umani ampiamente obsoleti sul posto di lavoro. Gates ritiene che, con il rapido progresso dell’IA, essa prenderà il posto della “maggior parte delle cose” attualmente svolte dalle persone, compresi i ruoli chiave nella medicina e nell’istruzione. “Con l’IA, nel prossimo decennio, tutto ciò diventerà gratuito e comune: ottimi consigli medici, ottime ripetizioni”, ha detto Gates durante un’apparizione al programma “The Tonight Show” della NBC con Jimmy Fallon. Pur riconoscendo che oggi le competenze umane in campi come l’assistenza sanitaria e l’insegnamento sono “rare”, Gates immagina un futuro prossimo in cui l’intelligenza artificiale democratizzerà l’accesso a conoscenze e competenze di alto livello. Gates ha anche elaborato questa visione di “intelligenza libera” in una conversazione del mese scorso con Arthur Brooks, professore di Harvard ed esperto di felicità. Ha descritto un’era in cui l’intelligenza artificiale permea la vita quotidiana, trasformando l’assistenza sanitaria, l’istruzione e altro ancora. “È molto profondo e anche un po’ spaventoso, perché sta accadendo molto rapidamente e non c’è un limite massimo”, ha detto Gates. I commenti del miliardario hanno riacceso l’ondeggiante dibattito sull’impatto dell’IA sulla forza lavoro. Alcuni esperti ritengono che l’IA aumenterà principalmente il lavoro umano, incrementando l’efficienza e la crescita economica. Sam Altman, CEO di OpenAI, ha affermato che l’IA sarà come le calcolatriciper l’istruzione. Jensen Huang, CEO di NVIDIA, ha dichiarato: “Mentre alcuni si preoccupano che l’IA possa togliere loro il lavoro, chi è esperto di IA lo farà” Ma altri, come il CEO di Microsoft AI Mustafa Suleyman, mettono in guardia dalle disfunzioni. Nel suo libro del 2023 “The Coming Wave”, Suleyman ha scritto che gli strumenti di IA “aumenteranno solo temporaneamente l’intelligenza umana” prima di sostituire molti lavori. “Ci renderanno più intelligenti ed efficienti per un certo periodo e sbloccheranno enormi quantità di crescita economica, ma fondamentalmente sostituiranno il lavoro”, ha affermato. Nonostante i tanto discussi lati negativi dell’IA, Gates rimane fiducioso nei benefici dell’IA per la società, dalle scoperte mediche alle soluzioni per il clima, fino all’accesso universale a un’istruzione di qualità. Ha anche detto che se oggi dovesse lanciare una nuova impresa, questa sarebbe “incentrata sull’IA” “Oggi qualcuno potrebbe raccogliere miliardi di dollari per una nuova azienda di IA [che è solo] qualche idea abbozzata”, il che è vero, visto che molte startup di IA generativa hanno raggiunto lo status di unicorno senza un prodotto pubblico. Per quanto riguarda le attività umane che potrebbero rivelarsi insostituibili in un futuro dominato dai robot, Gates ha fatto alcune previsioni a Fallon. “Ci saranno alcune cose che riserveremo a noi stessi”, ha detto, suggerendo che gli esseri umani preferiranno ancora guardare altri esseri umani che praticano sport, per esempio. “Ma per quanto riguarda la fabbricazione di oggetti, il loro spostamento e la coltivazione del cibo, con il tempo questi saranno problemi sostanzialmente risolti” La visione di Gates di un mondo in cui le competenze umane saranno in gran parte obsolete nell’arco di un decennio può sembrare stridente, persino distopica, per alcuni. Tuttavia, per molti operatori del settore tecnologico, si tratta semplicemente dell’inevitabile punto di arrivo di una rivoluzione in atto da decenni. Leggi di più su dailyai.com

Anthropic fornisce approfondimenti sulla “biologia dell’intelligenza artificiale” di Claude

Anthropic fornisce approfondimenti sulla "biologia dell'intelligenza artificiale" di Claude

Anthropic ha fornito uno sguardo più dettagliato sul complesso funzionamento interno del suo modello linguistico avanzato, Claude. Questo lavoro mira a demistificare il modo in cui questi sofisticati sistemi di intelligenza artificiale elaborano le informazioni, apprendono le strategie e infine generano testi simili a quelli umani. Come hanno sottolineato inizialmente i ricercatori, i processi interni di questi modelli possono essere notevolmente opachi, con i loro metodi di risoluzione dei problemi spesso “imperscrutabili per noi, gli sviluppatori del modello” Comprendere a fondo questa “biologia dell’intelligenza artificiale” è fondamentale per garantire l’affidabilità, la sicurezza e l’attendibilità di queste tecnologie sempre più potenti. Le ultime scoperte di Anthropic, incentrate principalmente sul modello Claude 3.5 Haiku, offrono preziose informazioni su diversi aspetti chiave dei suoi processi cognitivi. Una delle scoperte più affascinanti suggerisce che Claude opera con un certo grado di universalità concettuale in diverse lingue. Attraverso l’analisi del modo in cui il modello elabora le frasi tradotte, Anthropic ha trovato prove di caratteristiche di fondo condivise. Ciò indica che Claude potrebbe possedere un “linguaggio del pensiero” fondamentale che trascende le strutture linguistiche specifiche, permettendogli di comprendere e applicare le conoscenze apprese in una lingua quando lavora con un’altra. La ricerca di Anthropic ha anche messo in discussione le precedenti ipotesi su come i modelli linguistici si approcciano a compiti creativi come la scrittura di poesie. Invece di un processo di generazione puramente sequenziale, parola per parola, Anthropic ha rivelato che Claude pianifica attivamente il futuro. Nel contesto della poesia in rima, il modello anticipa le parole future per soddisfare vincoli come la rima e il significato, dimostrando un livello di previsione che va oltre la semplice previsione della parola successiva. Tuttavia, la ricerca ha portato alla luce anche comportamenti potenzialmente preoccupanti. Anthropic ha riscontrato casi in cui Claude poteva generare ragionamenti plausibili ma alla fine errati, soprattutto quando si trovava alle prese con problemi complessi o quando gli venivano forniti suggerimenti fuorvianti. La capacità di “coglierlo in flagrante” nell’inventare spiegazioni sottolinea l’importanza di sviluppare strumenti per monitorare e comprendere i processi decisionali interni dei modelli di IA. Anthropic sottolinea l’importanza del suo approccio “al microscopio” per l’interpretabilità dell’IA. Questa metodologia consente loro di scoprire intuizioni sul funzionamento interno di questi sistemi che potrebbero non essere evidenti attraverso la semplice osservazione dei loro risultati. Come hanno osservato, questo approccio permette loro di imparare molte cose che “non avrebbero immaginato all’inizio”, una capacità cruciale dato che i modelli di IA continuano ad evolversi in modo sofisticato. Le implicazioni di questa ricerca vanno oltre la semplice curiosità scientifica. Grazie a una migliore comprensione del funzionamento dei modelli di IA, i ricercatori possono lavorare per costruire sistemi più affidabili e trasparenti. Anthropic ritiene che questo tipo di ricerca sull’interpretabilità sia fondamentale per garantire che l’IA sia in linea con i valori umani e meriti la nostra fiducia. Le loro indagini si sono concentrate in aree specifiche: Comprensione multilingue: Le prove indicano una base concettuale condivisa che consente a Claude di elaborare e collegare le informazioni in diverse lingue. Pianificazione creativa: Il modello dimostra la capacità di pianificare in anticipo i compiti creativi, come ad esempio anticipare le rime nelle poesie. Fedeltà di ragionamento: Le tecniche di Anthropic possono aiutare a distinguere tra il vero ragionamento logico e i casi in cui il modello potrebbe inventare delle spiegazioni. Elaborazione matematica: Claude impiega una combinazione di strategie approssimative e precise quando esegue l’aritmetica mentale. Risoluzione di problemi complessi: Il modello spesso affronta compiti di ragionamento in più fasi combinando informazioni indipendenti. Meccanismi di allucinazione: Il comportamento predefinito di Claude è quello di rifiutare di rispondere in caso di incertezza; le allucinazioni potrebbero derivare da un malfunzionamento del suo sistema di riconoscimento delle “entità conosciute”. Vulnerabilità al jailbreak: La tendenza del modello a mantenere la coerenza grammaticale può essere sfruttata nei tentativi di jailbreak. La ricerca di Anthropic fornisce informazioni dettagliate sui meccanismi interni dei modelli linguistici avanzati come Claude. Questo lavoro in corso è fondamentale per favorire una comprensione più approfondita di questi sistemi complessi e per costruire un’intelligenza artificiale più affidabile e attendibile. Leggi di più su www.artificialintelligence-news.com

OpenAI ha ritirato il generatore di immagini GPT-4o gratuito dopo un giorno

OpenAI ha ritirato il generatore di immagini GPT-4o gratuito dopo un giorno

OpenAI ha ritirato la sua funzione aggiornata di generazione di immagini, basata sul modello di ragionamento avanzato GPT-4o, dal livello gratuito di ChatGPT. La decisione arriva solo un giorno dopo il lancio dell’aggiornamento, in seguito a un’ondata imprevista di utenti che hanno creato immagini nello stile caratteristico della famosa casa di animazione giapponese, lo Studio Ghibli. L’aggiornamento, che prometteva di offrire un maggiore realismo sia nelle immagini che nel testo generati dall’intelligenza artificiale, aveva lo scopo di mostrare le capacità del GPT-4o. Questo nuovo modello impiega un “approccio autoregressivo” alla creazione delle immagini, costruendole da sinistra a destra e dall’alto in basso, un metodo che contrasta con la generazione simultanea impiegata dai modelli precedenti. Questa tecnica è stata studiata per migliorare l’accuratezza e la qualità realistica delle immagini prodotte. Inoltre, il nuovo modello genera testi più nitidi e coerenti all’interno delle immagini, ovviando a un difetto comune dei precedenti modelli di intelligenza artificiale che spesso producevano testi sfocati o privi di senso. OpenAI ha anche condotto una formazione post-lancio, guidata dal feedback umano, per identificare e correggere gli errori più comuni nei risultati di testo e immagine. Tuttavia, la risposta del pubblico all’aggiornamento della generazione di immagini ha preso una piega inaspettata quasi subito dopo il rilascio su ChatGPT. Gli utenti hanno accolto con entusiasmo la possibilità di creare immagini nell’iconico stile dello Studio Ghibli, condividendo le loro fantasiose creazioni su varie piattaforme di social media. Tra queste, scene reimmaginate di film classici come “Il Padrino” e “Guerre Stellari”, ma anche meme popolari su internet come “ragazzo distratto” e “ragazza disastrosa”, tutti resi con l’estetica dell’amato studio di animazione. Anche il CEO di OpenAI Sam Altman si è unito al divertimento, cambiando la sua immagine del profilo X con un’interpretazione di se stesso in stile Studio Ghibli: Tuttavia, più tardi, Altman ha postato su X annunciando un ritardo temporaneo nel lancio dell’aggiornamento del generatore di immagini per gli utenti gratuiti di ChatGPT. Mentre gli abbonati a ChatGPT Plus, Pro e Team continuano ad avere accesso alla funzione, Altman non ha fornito alcun termine specifico per il ritorno della funzionalità al livello gratuito. le immagini in chatgpt sono molto più popolari di quanto ci aspettassimo (e avevamo aspettative piuttosto alte). purtroppo il rollout al nostro livello gratuito sarà ritardato per un po’. – Sam Altman (@sama) 26 marzo 2025 La viralità delle immagini in stile Studio Ghibli sembra aver spinto OpenAI a riconsiderare la sua strategia di lancio. Sebbene l’azienda abbia cercato di affrontare le considerazioni etiche e legali relative alla generazione di immagini da parte dell’IA, il volume e la natura dei contenuti generati dagli utenti sembrano averla colta di sorpresa. L’intersezione tra arte generata dall’intelligenza artificiale e diritti di proprietà intellettuale è un’area complessa e spesso dibattuta. Lo stile non è storicamente considerato protetto dalla legge sul copyright come le opere specifiche. Nonostante questa sfumatura legale, la rapida decisione di OpenAI di ritirare la funzione di generazione di immagini GPT-4o dal suo livello gratuito suggerisce un approccio cauto. Sembra che l’azienda stia facendo un passo indietro per valutare la situazione e determinare la sua prossima linea d’azione alla luce dell’inaspettata popolarità dell’arte AI ispirata a Ghibli. La decisione di OpenAI di ritirare la distribuzione della sua ultima funzione di generazione di immagini sottolinea l’incertezza che regna non solo sulla legge sul copyright, ma anche sulle implicazioni etiche dell’uso dell’IA per replicare la creatività umana. Leggi di più su www.artificialintelligence-news.com

Google ha lanciato i suoi ultimi modelli di AI aperti

Google ha lanciato i suoi ultimi modelli di AI aperti

Google ha lanciato Gemma 3, l’ultima versione della sua famiglia di modelli di IA aperti che mira a stabilire un nuovo punto di riferimento per l’accessibilità dell’IA. Costruito sulle basi dei modelli Gemini 2.0 dell’azienda, Gemma 3 è stato progettato per essere leggero, portatile e adattabile, consentendo agli sviluppatori di creare applicazioni di IA su un’ampia gamma di dispositivi. Questo rilascio arriva a ridosso del primo compleanno di Gemma, un anniversario sottolineato da dati di adozione impressionanti. I modelli di Gemma hanno superato i 100 milioni di download e hanno dato vita a oltre 60.000 varianti costruite dalla comunità. Soprannominato “Gemmaverse”, questo ecosistema è il segnale di una comunità fiorente che mira a democratizzare l’intelligenza artificiale. “La famiglia di modelli aperti Gemma è fondamentale per il nostro impegno a rendere accessibile la tecnologia AI”, ha spiegato Google. Gemma 3: caratteristiche e funzionalità I modelli Gemma 3 sono disponibili in varie dimensioni – parametri 1B, 4B, 12B e 27B – consentendo agli sviluppatori di scegliere un modello adatto alle loro specifiche esigenze di hardware e prestazioni. Questi modelli promettono un’esecuzione più rapida, anche su setup di calcolo modesti, senza compromettere la funzionalità o l’accuratezza. Ecco alcune delle caratteristiche principali di Gemma 3: Prestazioni a singolo acceleratore: Gemma 3 stabilisce un nuovo punto di riferimento per i modelli a singolo acceleratore. Nelle valutazioni preliminari delle preferenze umane sulla classifica di LMArena, Gemma 3 ha superato rivali come Llama-405B, DeepSeek-V3 e o3-mini. Supporto multilingue in 140 lingue: Per soddisfare le esigenze di un pubblico eterogeneo, Gemma 3 è dotato di funzionalità preaddestrate per oltre 140 lingue. Gli sviluppatori possono creare applicazioni in grado di connettersi con gli utenti nella loro lingua madre, ampliando la portata globale dei loro progetti. Analisi testuale e visiva sofisticata: Grazie a funzionalità avanzate di analisi di testi, immagini e brevi video, gli sviluppatori possono implementare Gemma 3 per creare applicazioni interattive e intelligenti, rispondendo a una serie di casi d’uso che vanno dall’analisi dei contenuti ai flussi di lavoro creativi. Finestra contestuale ampliata: Grazie a una finestra di contesto da 128k token, Gemma 3 è in grado di analizzare e sintetizzare grandi insiemi di dati, il che la rende ideale per le applicazioni che richiedono una comprensione estesa dei contenuti. Chiamata di funzione per l’automazione del flusso di lavoro: Grazie al supporto delle chiamate di funzione, gli sviluppatori possono utilizzare gli output strutturati per automatizzare i processi e costruire sistemi di intelligenza artificiale senza sforzo. Modelli quantificati per un’efficienza leggera: Gemma 3 introduce le versioni quantizzate ufficiali, riducendo in modo significativo le dimensioni del modello e preservando l’accuratezza dell’output: un vantaggio per gli sviluppatori che ottimizzano per ambienti mobili o con risorse limitate. I vantaggi in termini di prestazioni del modello sono chiaramente illustrati nella classifica Chatbot Arena Elo Score. Nonostante richieda una sola GPU NVIDIA H100, la versione di punta 27B di Gemma 3 si posiziona tra i migliori chatbot, raggiungendo un punteggio Elo di 1338. Molti concorrenti richiedono fino a 32 GPU per offrire prestazioni paragonabili. Uno dei punti di forza di Gemma 3 è la sua adattabilità ai flussi di lavoro esistenti degli sviluppatori. Compatibilità con diversi strumenti: Gemma 3 supporta le librerie e gli strumenti di AI più diffusi, tra cui Hugging Face Transformers, JAX, PyTorch e Google AI Edge. Per una distribuzione ottimizzata, piattaforme come Vertex AI o Google Colab sono pronte ad aiutare gli sviluppatori a iniziare con il minimo sforzo. Ottimizzazioni NVIDIA: Sia che si utilizzino GPU entry-level come Jetson Nano o hardware all’avanguardia come i chip Blackwell, Gemma 3 garantisce il massimo delle prestazioni, ulteriormente semplificate grazie all’NVIDIA API Catalog. Supporto hardware ampliato: Oltre a NVIDIA, Gemma 3 si integra con le GPU AMD tramite lo stack ROCm e supporta l’esecuzione in CPU con Gemma.cpp per una maggiore versatilità. Per gli esperimenti immediati, gli utenti possono accedere ai modelli Gemma 3 tramite piattaforme come Hugging Face e Kaggle, oppure sfruttare Google AI Studio per l’implementazione nel browser. Promuovere un’intelligenza artificiale responsabile “Crediamo che i modelli aperti richiedano un’attenta valutazione dei rischi e il nostro approccio bilancia l’innovazione con la sicurezza”, spiega Google. Il team di Gemma 3 ha adottato rigorose politiche di governance, applicando una messa a punto e un robusto benchmarking per allineare il modello alle linee guida etiche. Viste le capacità avanzate del modello nei settori STEM, è stato sottoposto a valutazioni specifiche per mitigare i rischi di un uso improprio, come la generazione di sostanze nocive. Google sta spingendo per un impegno collettivo all’interno del settore per creare quadri di sicurezza proporzionati per modelli sempre più potenti. Per fare la sua parte, Google lancia ShieldGemma 2. Il controllore di sicurezza delle immagini 4B sfrutta l’architettura di Gemma 3 e produce etichette di sicurezza per categorie come contenuti pericolosi, materiale esplicito e violenza. Sebbene offra soluzioni pronte all’uso, gli sviluppatori possono personalizzare lo strumento per soddisfare i requisiti di sicurezza personalizzati. Il “Gemmaverse” non è solo un ecosistema tecnico, ma un movimento guidato dalla comunità. Progetti come SEA-LION v3 di AI Singapore, BgGPT di INSAIT e OmniAudio di Nexa AI testimoniano la forza della collaborazione all’interno di questo ecosistema. Per sostenere la ricerca accademica, Google ha anche introdotto il Gemma 3 Academic Program. I ricercatori possono richiedere 10.000 dollari di crediti Google Cloud per accelerare i loro progetti incentrati sull’intelligenza artificiale. Le domande si aprono oggi e restano disponibili per quattro settimane. Grazie alla sua accessibilità, alle sue capacità e alla sua ampia compatibilità, Gemma 3 ha tutte le carte in regola per diventare una pietra miliare nella comunità degli sviluppatori di IA. Leggi di più su www.artificialintelligence-news.com

L’arte generata dall’intelligenza artificiale non può essere coperta da copyright, dice la Corte d’Appello statunitense

L'arte generata dall'intelligenza artificiale non può essere coperta da copyright, dice la Corte d'Appello statunitense

La bizzarra saga legale sulla possibilità di concedere un copyright a un sistema di intelligenza artificiale ha preso un’altra piega questa settimana. Con una sentenza unanime, la Corte d’Appello degli Stati Uniti per il Circuito di Washington ha stabilito che le opere create autonomamente dall’IA non possono essere protette dal diritto d’autore secondo la legge vigente. Il collegio di tre giudici ha confermato la decisione di un tribunale inferiore del 2023, secondo cui solo le opere con autori umani possono essere registrate presso l’U.S. Copyright Office. Il caso risale al tentativo fallito dell’informatico Stephen Thaler di tutelare il copyright di “A Recent Entrance to Paradise”, un’immagine inquietante e onirica creata nel 2012 dalla “Creativity Machine” dell’IA di Thaler Sopra: L’opera “A Recent Entrance to Paradise” di Stephen Thaler è stata creata nel 2012. Quando Thaler ha cercato di registrare l’opera, l’Ufficio del copyright ha respinto la sua richiesta, sostenendo che “manca la paternità umana necessaria per sostenere una richiesta di copyright” Thaler ha fatto causa, insistendo sul fatto che il requisito di “paternità umana” richiesto dal Copyright Office non aveva alcuna base legale. Thaler ha sostenuto che la concessione di diritti d’autore alle creazioni dell’intelligenza artificiale avrebbe favorito l’obiettivo costituzionale di promuovere “il progresso della scienza e delle arti utili” Nel 2023, un giudice federale si è schierato decisamente con il Copyright Office, definendo la paternità umana “un requisito fondamentale del copyright” “Ci stiamo avvicinando a nuove frontiere del diritto d’autore mentre gli artisti inseriscono l’intelligenza artificiale nella loro cassetta degli attrezzi”, scrisse il giudice all’epoca. “Questo caso, tuttavia, non è così complesso” La corte d’appello era d’accordo, ritenendo che “gli autori sono al centro della legge sul copyright” e che il significato della legge limita la paternità agli esseri umani. Thaler ha dichiarato di essere fortemente in disaccordo con la sentenza e ha intenzione di ricorrere in appello. Con la proliferazione dei contenuti generati dall’intelligenza artificiale, i tribunali si stanno confrontando con questioni sconvolgenti in materia di proprietà e diritti. Sebbene questo caso fornisca un po’ di chiarezza sull’arte dell’IA completamente autonoma, molte questioni relative alle opere collaborative tra uomo e IA rimangono ancora irrisolte. Leggi di più su dailyai.com

Scalare l’inferenza dell’intelligenza artificiale con efficienza open-source

Scalare l'inferenza dell'intelligenza artificiale con efficienza open-source

NVIDIA ha lanciato Dynamo, un software di inferenza open-source progettato per accelerare e scalare i modelli di ragionamento all’interno delle fabbriche di AI. Gestire e coordinare in modo efficiente le richieste di inferenza dell’intelligenza artificiale su una flotta di GPU è un’impresa fondamentale per garantire che le fabbriche di intelligenza artificiale possano operare con un ottimo rapporto costo-efficacia e massimizzare la generazione di gettoni. Man mano che il ragionamento dell’IA diventa sempre più diffuso, si prevede che ogni modello di IA generi decine di migliaia di token per ogni richiesta, rappresentando essenzialmente il suo processo di “pensiero”. Migliorare le prestazioni di inferenza e contemporaneamente ridurne il costo è quindi fondamentale per accelerare la crescita e aumentare le opportunità di guadagno per i fornitori di servizi. Una nuova generazione di software di inferenza dell’intelligenza artificiale NVIDIA Dynamo, che succede a NVIDIA Triton Inference Server, rappresenta una nuova generazione di software di inferenza dell’intelligenza artificiale specificamente progettato per massimizzare la generazione di ricavi token per le fabbriche di intelligenza artificiale che distribuiscono modelli di ragionamento dell’intelligenza artificiale. Dynamo orchestra e accelera la comunicazione dell’inferenza su migliaia di GPU. Utilizza il servizio disaggregato, una tecnica che separa le fasi di elaborazione e generazione dei modelli linguistici di grandi dimensioni (LLM) su GPU distinte. Questo approccio permette di ottimizzare ogni fase in modo indipendente, soddisfacendo le sue specifiche esigenze di calcolo e garantendo il massimo utilizzo delle risorse della GPU. “Le industrie di tutto il mondo stanno addestrando i modelli di intelligenza artificiale a pensare e ad apprendere in modi diversi, rendendoli sempre più sofisticati”, ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. “Per consentire un futuro di AI con ragionamento personalizzato, NVIDIA Dynamo aiuta a servire questi modelli su scala, consentendo di risparmiare sui costi e di aumentare l’efficienza delle fabbriche di AI” Utilizzando lo stesso numero di GPU, Dynamo ha dimostrato di poter raddoppiare le prestazioni e i ricavi delle fabbriche di AI che servono modelli Llama sull’attuale piattaforma Hopper di NVIDIA. Inoltre, eseguendo il modello DeepSeek-R1 su un grande cluster di rack GB200 NVL72, le ottimizzazioni intelligenti dell’inferenza di NVIDIA Dynamo hanno dimostrato di aumentare il numero di token generati di oltre 30 volte per GPU. Per ottenere questi miglioramenti nelle prestazioni di inferenza, NVIDIA Dynamo incorpora diverse funzionalità chiave progettate per aumentare il throughput e ridurre i costi operativi. Dynamo può aggiungere, rimuovere e riallocare dinamicamente le GPU in tempo reale per adattarsi alle fluttuazioni dei volumi e dei tipi di richiesta. Il software è anche in grado di individuare, all’interno di cluster di grandi dimensioni, le GPU specifiche più adatte a ridurre al minimo i calcoli di risposta e a instradare in modo efficiente le query. Dynamo può anche scaricare i dati di inferenza su dispositivi di memoria e di archiviazione più economici, recuperandoli rapidamente quando necessario, riducendo così al minimo i costi complessivi di inferenza. NVIDIA Dynamo viene rilasciato come progetto completamente open-source, offrendo un’ampia compatibilità con framework popolari come PyTorch, SGLang, NVIDIA TensorRT-LLM e vLLM. Questo approccio aperto supporta le imprese, le startup e i ricercatori nello sviluppo e nell’ottimizzazione di nuovi metodi per servire i modelli di intelligenza artificiale attraverso infrastrutture di inferenza disaggregate. NVIDIA si aspetta che Dynamo acceleri l’adozione dell’inferenza dell’intelligenza artificiale in un’ampia gamma di organizzazioni, tra cui i principali cloud provider e innovatori dell’intelligenza artificiale come AWS, Cohere, CoreWeave, Dell, Fireworks, Google Cloud, Lambda, Meta, Microsoft Azure, Nebius, NetApp, OCI, Perplexity, Together AI e VAST. NVIDIA Dynamo: Potenziamento dell’inferenza e dell’intelligenza artificiale agenziale Un’innovazione fondamentale di NVIDIA Dynamo consiste nella sua capacità di mappare la conoscenza che i sistemi di inferenza conservano in memoria grazie alle richieste precedenti, nota come KV cache, su migliaia di GPU. Il software instrada quindi in modo intelligente le nuove richieste di inferenza verso le GPU che possiedono la migliore corrispondenza di conoscenze, evitando di fatto costose ricomputazioni e liberando le altre GPU per gestire le nuove richieste in arrivo. Questo meccanismo di instradamento intelligente migliora significativamente l’efficienza e riduce la latenza. “Per gestire centinaia di milioni di richieste al mese, ci affidiamo alle GPU e al software di inferenza di NVIDIA per ottenere le prestazioni, l’affidabilità e la scalabilità richieste dalla nostra azienda e dai nostri utenti”, ha dichiarato Denis Yarats, CTO di Perplexity AI. “Non vediamo l’ora di sfruttare Dynamo, con le sue migliori capacità di servizio distribuito, per ottenere un’efficienza di servizio di inferenza ancora maggiore e soddisfare le richieste di calcolo dei nuovi modelli di ragionamento dell’intelligenza artificiale” La piattaforma di AI Cohere sta già pianificando di sfruttare NVIDIA Dynamo per migliorare le capacità di AI agenziale della sua serie di modelli Command. “La scalabilità di modelli di IA avanzati richiede una sofisticata pianificazione multi-GPU, una coordinazione senza soluzione di continuità e librerie di comunicazione a bassa latenza che trasferiscano i contesti di ragionamento senza soluzione di continuità attraverso la memoria e lo storage”, ha spiegato Saurabh Baji, SVP of engineering di Cohere. “Ci aspettiamo che NVIDIA Dynamo ci aiuti a offrire un’esperienza d’uso eccellente ai nostri clienti aziendali” Supporto per il servizio disaggregato La piattaforma di inferenza NVIDIA Dynamo offre anche un solido supporto per il servizio disaggregato. Questa tecnica avanzata assegna le diverse fasi computazionali degli LLM – compresi i passaggi cruciali della comprensione della query dell’utente e della generazione della risposta più appropriata – a diverse GPU all’interno dell’infrastruttura. Il servizio disaggregato è particolarmente adatto ai modelli di ragionamento, come la nuova famiglia di modelli NVIDIA Llama Nemotron, che impiega tecniche di inferenza avanzate per migliorare la comprensione del contesto e la generazione delle risposte. Consentendo a ogni fase di essere messa a punto e di disporre di risorse in modo indipendente, il servizio disaggregato migliora il throughput complessivo e offre tempi di risposta più rapidi agli utenti. Together AI, un’azienda di spicco nel settore dell’accelerazione dell’intelligenza artificiale, sta cercando di integrare il suo motore di inferenza proprietario Together Inference Engine con NVIDIA Dynamo. Questa integrazione mira a consentire una scalabilità perfetta dei carichi di lavoro di inferenza

Manus è una svolta nell’IA agenziale cinese

Manus è una svolta nell'IA agenziale cinese

L’agente Manus AI è l’ultima innovazione cinese nel campo dell’intelligenza artificiale che sta facendo girare la testa nella Silicon Valley e non solo. Manus è stato lanciato la scorsa settimana in anteprima su invito e rappresenta l’ingresso più ambizioso della Cina nel mercato emergente degli agenti AI. A differenza di quanto visto finora, l’agente AI Manus non si limita a chattare con gli utenti, ma è presumibilmente in grado di affrontare autonomamente compiti complessi in più fasi con una guida umana minima. Sviluppato dalla startup cinese Butterfly Effect con il sostegno finanziario del gigante tecnologico Tencent Holdings, l’agente Manus AI ha catturato l’attenzione mondiale per la sua capacità di colmare il divario tra le capacità teoriche dell’AI e le applicazioni pratiche del mondo reale. Utilizza un’innovativa architettura multi-modello che combina i punti di forza di diversi modelli linguistici leader del settore. Esecuzione autonoma di compiti rivoluzionari In un post su X, Peak Ji Yichao, co-fondatore e chief scientist di Butterfly Effect, ha dichiarato che l’IA agenziale è stata costruita utilizzando modelli linguistici esistenti di grandi dimensioni, tra cui Claude di Anthropic e versioni perfezionate di Qwen open-source di Alibaba. La sua natura multi-modello permette a Manus di utilizzare diversi punti di forza dell’intelligenza artificiale a seconda di ciò che gli viene richiesto, ottenendo capacità di ragionamento ed esecuzione più sofisticate. “L’agente Manus AI rappresenta un approccio fondamentalmente diverso all’intelligenza artificiale”, ha dichiarato CNN Business. Secondo il servizio, Manus “è in grado di svolgere attività complesse e in più fasi, come lo screening dei curriculum e la creazione di un sito web” e “non si limita a generare idee, ma fornisce risultati tangibili, come la produzione di un rapporto che raccomanda proprietà da acquistare in base a criteri specifici” Valutazione delle prestazioni nel mondo reale Nel corso di un’approfondita valutazione pratica, la MIT Technology Review ha testato l’agente Manus AI in tre distinte categorie di attività: la compilazione di elenchi completi di giornalisti, la conduzione di ricerche immobiliari con parametri complessi e l’identificazione di candidati per il prestigioso programma Innovators Under 35. “Usare Manus è come collaborare con uno stagista altamente intelligente ed efficiente”, ha scritto Caiwei Chen nella valutazione. “Sebbene a volte non capisca cosa gli viene chiesto di fare, faccia ipotesi sbagliate o tagli le curve per accelerare i compiti, spiega chiaramente i suoi ragionamenti, è straordinariamente adattabile e può migliorare sostanzialmente quando gli vengono fornite istruzioni dettagliate o feedback” La valutazione ha rivelato una delle caratteristiche più distintive dell’agente Manus AI: la sua interfaccia “Manus’s Computer”, che offre una trasparenza senza precedenti nel processo decisionale dell’AI. La finestra dell’applicazione consente agli utenti di osservare le azioni dell’agente in tempo reale e di intervenire quando necessario, creando un flusso di lavoro collaborativo uomo-IA che mantiene il controllo dell’utente e al contempo automatizza processi complessi. Sfide tecniche di implementazione Nonostante le impressionanti capacità, l’agente Manus AI incontra notevoli ostacoli tecnici nella sua attuale implementazione. MIT Technology Review ha documentatofrequenti crash di sistema ed errori di timeout durante l’uso prolungato. La piattaforma ha visualizzato messaggi di errore, citando un “alto carico di servizio”, suggerendo che l’infrastruttura di calcolo rimane un limite. Le limitazioni tecniche hanno contribuito a rendere l’accesso molto ristretto: meno dell’1% degli utenti in lista d’attesa ha ricevuto il codice di invito – il canale Discord ufficiale di Manus ha già accumulato oltre 186.000 membri. Secondo quanto riportato dalla pubblicazione tecnologica cinese36Kr, i costi operativi dell’agente Manus AI rimangono relativamente competitivi, pari a circa 2 dollari per attività. Partnership strategica con Alibaba Cloud I creatori dell’agente Manus AI hanno annunciato una partnership con la divisione cloud computing di Alibaba. Secondo un articolo del South China Morning Post dell’11 marzo, “Manus si impegnerà in una cooperazione strategica con il team Qwen di Alibaba per soddisfare le esigenze degli utenti cinesi” La partnership mira a rendere Manus disponibile su “modelli e piattaforme di calcolo nazionali”, anche se le tempistiche di implementazione non sono ancora state specificate. Progressi paralleli nei modelli di fondazione La partnership Manus-Alibaba coincide con i progressi di Alibaba nella tecnologia dei modelli di fondazione dell’intelligenza artificiale. Il 6 marzo, l’azienda ha pubblicato il suo modello di ragionamento QwQ-32B, dichiarando che le sue prestazioni superano quelle del modello o1-mini di OpenAI e rivaleggiano con il modello R1 di DeepSeek, nonostante il numero inferiore di parametri. Come riporta CNN Business, “Alibaba ha pubblicizzato il suo nuovo modello, QwQ-32B, in una dichiarazione online, affermando che offre prestazioni eccezionali, superando quasi completamente OpenAI-o1-mini e rivaleggiando con il modello di ragionamento open-source più forte, DeepSeek-R1” I guadagni di efficienza dichiarati sono particolarmente degni di nota: Alibaba afferma che QwQ-32B raggiunge prestazioni competitive con soli 32 miliardi di parametri, rispetto ai 671 miliardi di parametri del modello R1 di DeepSeek. Le dimensioni ridotte del modello suggeriscono requisiti computazionali sostanzialmente inferiori per l’addestramento e l’inferenza con capacità di ragionamento avanzate. Gli investimenti strategici della Cina nell’intelligenza artificiale L’agente Manus AI e i progressi del modello di Alibaba riflettono la più ampia enfasi strategica della Cina sullo sviluppo dell’intelligenza artificiale. Il governo cinese si è impegnato a sostenere esplicitamente “le industrie emergenti e le industrie del futuro”, e l’intelligenza artificiale ha ricevuto un’attenzione particolare insieme all’informatica quantistica e alla robotica. Alibaba investirà 380 miliardi di yuan (circa 52,4 miliardi di dollari) nell’intelligenza artificiale e nell’infrastruttura di cloud computing nei prossimi tre anni, una cifra che, secondo l’azienda, supera gli investimenti totali effettuati in questi settori nel decennio precedente. Come ha affermato Caiwei Chen di MIT Technology Review, “le aziende cinesi di IA non stanno semplicemente seguendo le orme delle loro controparti occidentali. Piuttosto che limitarsi a innovare i modelli di base, stanno dando forma attiva all’adozione di agenti AI autonomi a modo loro” L’agente AI Manus è anche un esempio di come l’ecosistema dell’intelligenza artificiale cinese si sia evoluto al di là della semplice replica dei progressi occidentali. Le politiche governative che promuovono l’autosufficienza tecnologica, le importanti iniziative di finanziamento e la crescente presenza di talenti specializzati nell’IA provenienti dalle università cinesi hanno creato le