Divieto di DeepSeek? Il trasferimento di dati dalla Cina aumenta le preoccupazioni per la sicurezza

I legislatori statunitensi stanno spingendo per un divieto di DeepSeek dopo che i ricercatori di sicurezza hanno scoperto che l’app trasferisce i dati degli utenti a una società statale vietata. DeepSeek, praticamente sconosciuta solo poche settimane fa, ha conquistato il mondo della tecnologia, ottenendo il plauso globale per le sue prestazioni all’avanguardia e scatenando al contempo dibattiti che ricordano la saga di TikTok. La sua ascesa è stata alimentata in parte dal suo modello di business: a differenza di molte delle sue controparti americane, tra cui OpenAI e Google, DeepSeek ha offerto i suoi poteri avanzati gratuitamente. Tuttavia, sono state sollevate preoccupazioni sulle pratiche di raccolta dati di DeepSeek ed è stata avviata un’indagine da parte di Microsoft e OpenAI su una violazione del sistema di quest’ultima da parte di un gruppo presumibilmente legato alla startup cinese di AI. Una minaccia per il dominio dell’IA negli Stati Uniti Le sorprendenti capacità di DeepSeek l’hanno resa, nel giro di poche settimane, un concorrente importante per gli stalloni americani dell’IA come ChatGPT di OpenAI e Google Gemini. Tuttavia, accanto alle prodezze dell’applicazione, sono emerse preoccupazioni per i presunti legami con il Partito Comunista Cinese (PCC). Secondo alcuni ricercatori di sicurezza, è stato scoperto che un codice nascosto all’interno dell’intelligenza artificiale di DeepSeek trasmette i dati degli utenti a China Mobile, una società di telecomunicazioni di proprietà statale vietata negli Stati Uniti. La politica sulla privacy di DeepSeek consente la raccolta di dati come indirizzi IP, informazioni sui dispositivi e, cosa più allarmante, persino i modelli di battitura dei tasti. Per tua informazione, @deepseek_ai raccoglie il tuo IP, le tue sequenze di tasti, le informazioni sui dispositivi, ecc. ecc. e li archivia in Cina, dove tutti questi dati sono vulnerabili alle requisizioni arbitrarie dello Stato 🇨🇳. Dalla loro stessa informativa sulla privacy: pic.twitter.com/wueJokHcn3 – Luke de Pulford (@lukedepulford) 27 gennaio 2025 Queste scoperte hanno portato a sforzi bipartisan nel Congresso degli Stati Uniti per limitare l’influenza di DeepSeek, con i legislatori che si affannano a proteggere i dati sensibili dalla potenziale sorveglianza della CCP. I rappresentanti. Darin LaHood (R-IL) e Josh Gottheimer (D-NJ) stanno guidando gli sforzi per introdurre una legislazione che proibisca l’installazione di DeepSeek su tutti i dispositivi in dotazione al governo. DeepSeek raccoglie i dati sensibili dei cittadini americani e li invia direttamente al Partito Comunista Cinese – una minaccia per la sicurezza nazionale. Ecco perché ho presentato una legge bipartisan per vietare immediatamente DeepSeek da tutti i dispositivi del governo americano.https://t.co/bNlGZogu4O – Rep Josh Gottheimer (@RepJoshG) 6 febbraio 2025 Diverse agenzie federali, tra cui la NASA e la Marina degli Stati Uniti, hanno già emesso un divieto preventivo su DeepSeek. Allo stesso modo, anche lo stato del Texas ha introdotto delle restrizioni. Il potenziale divieto di DeepSeek è un redux di TikTok? La controversia che circonda DeepSeek è simile ai dibattiti su TikTok, l’app di social video di proprietà dell’azienda cinese ByteDance. TikTok è tuttora sotto tiro per le accuse di accesso ai dati degli utenti da parte del PCC, anche se le prove definitive non si sono ancora materializzate. Al contrario, il caso di DeepSeek comporta prove evidenti, come rivelato dagli investigatori di cybersicurezza che hanno identificato le trasmissioni di dati non autorizzate dell’app. Sebbene alcuni possano dire che DeepSeek riecheggia la controversia di TikTok, gli esperti di sicurezza sostengono che rappresenta una minaccia molto più grave e documentata. I legislatori di tutto il mondo stanno prendendo nota. Oltre alle proposte degli Stati Uniti, DeepSeek ha già subito il divieto di accesso ai sistemi governativi in paesi come Australia, Corea del Sud e Italia. L’intelligenza artificiale diventa un campo di battaglia geopolitico Le preoccupazioni su DeepSeek esemplificano come l’IA sia diventata un punto di scontro geopolitico tra le superpotenze globali, in particolare tra Stati Uniti e Cina. Le aziende americane di IA, come OpenAI, hanno goduto di una posizione dominante negli ultimi anni, ma le aziende cinesi hanno investito risorse per recuperare e, in alcuni casi, superare i loro concorrenti statunitensi. La crescita fulminea di DeepSeek ha messo in crisi questo equilibrio, non solo per i suoi modelli di intelligenza artificiale ma anche per la sua strategia di prezzo, che ha ridotto la concorrenza offrendo l’applicazione gratuitamente. Ciò fa sorgere la domanda se sia davvero “gratuita” o se il costo sia pagato in termini di perdita di privacy e sicurezza. Il coinvolgimento di China Mobile solleva ulteriori dubbi, viste le precedenti sanzioni e il divieto di accesso al mercato statunitense da parte dell’azienda statale di telecomunicazioni. I critici temono che i dati raccolti attraverso piattaforme come DeepSeek possano colmare le lacune delle attività di sorveglianza cinese o addirittura potenziali manipolazioni economiche. Si prospetta un divieto di DeepSeek a livello nazionale Se la proposta di legge statunitense verrà approvata, potrebbe rappresentare il primo passo verso restrizioni a livello nazionale o un divieto assoluto di DeepSeek. Le tensioni geopolitiche tra Cina e Occidente continuano a influenzare le politiche sulle tecnologie avanzate e l’intelligenza artificiale sembra essere l’ultima arena di questa partita a scacchi in corso. Nel frattempo, è probabile che le richieste di regolamentare applicazioni come DeepSeek diventino sempre più forti. Le conversazioni sulla privacy dei dati, sulla sicurezza nazionale e sui limiti etici dello sviluppo dell’IA stanno diventando sempre più urgenti, mentre individui e organizzazioni di tutto il mondo navigano tra le promesse e le insidie degli strumenti di nuova generazione. L’ascesa di DeepSeek potrebbe aver scosso le gerarchie dell’IA, ma resta da vedere se riuscirà a mantenere il suo slancio di fronte alle crescenti spinte globali. Leggi di più su www.artificialintelligence-news.com
Lanciata una iniziativa francese per leader responsabili dell’IA

ESSEC Business School e Accenture hanno annunciato il lancio di una nuova iniziativa, “AI for Responsible Leadership”, che segna il 10° anniversario dell’istituzione del ruolo di cattedra presso ESSEC, intitolata ESSEC Accenture Strategic Business Analytics Chair. L’iniziativa mira a incoraggiare l’uso dell’intelligenza artificiale da parte dei leader in modi responsabili ed etici e che portino ad alti livelli di performance professionale. L’obiettivo è fornire ai leader attuali e futuri le competenze necessarie per affrontare le sfide del futuro: economiche, ambientali o sociali. Diverse organizzazioni sostengono l’iniziativa, tra cui istituzioni, aziende e gruppi specializzati, tra cui ESSEC Metalab for Data, Technology & Society e Accenture Research. Il direttore esecutivo dell’ESSEC Metalab, Abdelmounaim Derraz, ha parlato della collaborazione affermando: “Le materie tecniche continuano a scuotere le scuole di economia e l’IA ha aperto opportunità di collaborazione tra aziende partner, ricercatori e altri membri dell’ecosistema (studenti, think tank, associazioni [e] servizio pubblico)” ESSEC e Accenture mirano a integrare prospettive provenienti da diversi campi di competenza, un approccio che è il risultato della sperimentazione effettuata nel decennio di esistenza della cattedra. Gli elementi dell’iniziativa comprendono workshop e colloqui volti a promuovere lo scambio di conoscenze e metodi. Comprenderà anche un “barometro” per monitorare l’implementazione dell’IA e l’impatto complessivo sulla leadership responsabile. L’iniziativa si avvarrà di una rete di istituzioni e pubblicazioni accademiche e un Grand Prix annuale premierà i progetti che si concentrano ed esplorano il tema dell’IA e della leadership. Fabrice Marque, fondatore dell’iniziativa e attuale presidente di ESSEC Accenture Strategics Business Analytics, ha dichiarato: “Per anni abbiamo esplorato il potenziale dell’utilizzo dei dati e dell’intelligenza artificiale nelle organizzazioni. Le sinergie che abbiamo sviluppato con i nostri partner (Accenture, Accor, Dataiku, Engie, Eurofins, MSD, Orange) ci hanno permesso di valutare e testare soluzioni innovative prima di implementarle. “Con questa iniziativa stiamo compiendo un passo importante: riunire un ecosistema impegnato a trasformare in modo sostenibile il modo in cui i leader pensano, decidono e agiscono di fronte alle sfide di domani. La nostra ambizione è chiara: fare dell’IA una leva per le prestazioni, l’innovazione e la responsabilità dei leader […]” L’amministratore delegato di Accenture e sponsor della cattedra e dell’iniziativa ESSEC/Accenture, Aurélien Bouriot, ha dichiarato: “L’ecosistema beneficerà delle risorse messe a disposizione da Accenture e anche dei nostri dipendenti che parteciperanno” Laetitia Cailleteau, Managing Director di Accenture e leader di Responsible AI & Generative AI per l’Europa, ha sottolineato l’importanza che i futuri leader comprendano tutti gli aspetti dell’IA. “L’IA è un pilastro della trasformazione industriale in corso. I leader di domani devono comprendere gli aspetti tecnici, etici e umani e i rischi – e sapere come gestirli. In questo modo, saranno in grado di massimizzare la creazione di valore e di generare un impatto positivo per l’organizzazione, i suoi stakeholder e la società nel suo complesso” Leggi di più su www.artificialintelligence-news.com
ChatGPT acquisisce la capacità agent per la ricerca complessa

OpenAI sta rilasciando una potente funzionalità agenziale che consente a ChatGPT di svolgere attività di ricerca complesse e in più fasi online. La funzione, chiamata Deep Research, secondo quanto riferito, riesce a realizzare in decine di minuti ciò che potrebbe richiedere ore o addirittura giorni a un ricercatore umano. OpenAI descrive Deep Research come una pietra miliare significativa nel suo percorso verso l’intelligenza artificiale generale (AGI). “La capacità di sintetizzare la conoscenza è un prerequisito per creare nuova conoscenza”, afferma OpenAI. “Per questo motivo, Deep Research segna un passo significativo verso il nostro obiettivo più ampio di sviluppare l’AGI” L’IA agenziale consente a ChatGPT di assistere le ricerche più complesse Deep Research consente a ChatGPT di trovare, analizzare e sintetizzare autonomamente le informazioni provenienti da centinaia di fonti online. Secondo OpenAI, con una semplice richiesta da parte dell’utente, lo strumento è in grado di fornire un rapporto completo, paragonabile ai risultati di un analista di ricerca. Attingendo le funzionalità da una variante del modello “o3” di OpenAI, l’obiettivo è quello di liberare gli utenti dalla raccolta di informazioni che richiede tempo e lavoro. Che si tratti di un’analisi competitiva delle piattaforme di streaming, di un’analisi politica informata o persino di raccomandazioni personalizzate per una nuova bicicletta da pendolare, Deep Research promette risultati precisi e affidabili. Inoltre, ogni risultato include citazioni complete e una documentazione trasparente che consente agli utenti di verificare i risultati con facilità. Lo strumento sembra particolarmente abile nello scoprire intuizioni di nicchia o non intuitive, il che lo rende una risorsa preziosa in settori come la finanza, la scienza, la politica e l’ingegneria. Ma OpenAI immagina che Deep Research possa essere utile anche per l’utente medio, ad esempio per gli acquirenti che cercano consigli iper-personalizzati o un prodotto specifico. le persone pubblicheranno molti esempi fantastici, ma eccone uno divertente: in questo momento sono in Giappone e sto cercando una vecchia NSX. ho passato ore a cercare senza successo quella perfetta. stavo per arrendermi e la deep research l’ha trovata. – Sam Altman (@sama) 3 febbraio 2025 Quest’ultima funzionalità agenziale funziona attraverso l’interfaccia utente di ChatGPT; gli utenti devono semplicemente selezionare l’opzione “Ricerca profonda” nel compositore di messaggi e digitare la loro domanda. È inoltre possibile caricare file di supporto o fogli di calcolo per creare un contesto aggiuntivo. Una volta avviata, l’intelligenza artificiale intraprende un rigoroso processo in più fasi, che può richiedere 5-30 minuti per essere completato. Una barra laterale fornisce aggiornamenti sulle azioni intraprese e sulle fonti consultate. Gli utenti possono continuare a svolgere altre attività e riceveranno una notifica quando il report finale sarà pronto. I risultati vengono presentati nella chat sotto forma di rapporti dettagliati e ben documentati. Nelle prossime settimane, OpenAI ha in programma di migliorare ulteriormente questi risultati incorporando immagini, visualizzazioni di dati e grafici per offrire ancora più chiarezza e contesto. A differenza di GPT-4o – che eccelle nelle conversazioni multimodali in tempo reale – Deep Research privilegia la profondità e il dettaglio. La sua capacità di citare rigorosamente le fonti e di fornire un’analisi completa la distingue, spostando l’attenzione da risposte veloci e sintetiche a approfondimenti ben documentati e di qualità. Costruito per le sfide del mondo reale Deep Rsearch si avvale di metodologie di formazione sofisticate, basate su attività di navigazione e ragionamento reali in diversi ambiti. Il suo modello è stato addestrato tramite l’apprendimento per rinforzo per pianificare ed eseguire autonomamente processi di ricerca in più fasi, compreso il backtracking e l’affinamento adattivo del suo approccio quando si rendono disponibili nuove informazioni. Lo strumento è in grado di sfogliare i file caricati dall’utente, di generare e iterare grafici utilizzando Python, di incorporare nelle risposte contenuti multimediali come immagini e pagine web generate e di citare frasi o passaggi esatti delle sue fonti. Il risultato di questa lunga formazione è un agente altamente capace di affrontare i complessi problemi del mondo reale. OpenAI ha valutato Deep Research attraverso un’ampia serie di esami di livello esperto noti come “L’ultimo esame dell’umanità”. Gli esami – che comprendono oltre 3.000 domande che spaziano dalla missilistica alla linguistica, dall’ecologia ai classici – mettono alla prova la competenza di un’intelligenza artificiale nel risolvere problemi di varia natura. I risultati sono stati impressionanti: il modello ha raggiunto un’accuratezza record del 26,6% in tutti questi ambiti: GPT-4o: 3.3% Grok-2: 3,8% Claude 3.5 Sonnet: 4.3% OpenAI o1: 9,1% DeepSeek-R1: 9,4% Ricerca profonda: 26.6% (con strumenti Python di navigazione) Deep Research ha anche raggiunto una nuova performance all’avanguardia nel benchmark GAIA, che valuta i modelli di IA su domande del mondo reale che richiedono capacità di ragionamento, fluidità multimodale e abilità nell’uso degli strumenti. Deep Research ha raggiunto la vetta della classifica con un punteggio del 72,57%. Limiti e sfide Sebbene la capacità dell’intelligenza artificiale agenziale di Deep Research in ChatGPT rappresenti un coraggioso passo avanti, OpenAI riconosce che la tecnologia è ancora nelle sue fasi iniziali e presenta dei limiti. Secondo OpenAI, il sistema occasionalmente “allucina” i fatti o offre inferenze errate, anche se a un tasso notevolmente ridotto rispetto ai modelli GPT esistenti. Inoltre, deve fare i conti con la difficoltà di distinguere tra fonti autorevoli e contenuti speculativi e fatica a calibrare i suoi livelli di fiducia, mostrando spesso un’eccessiva sicurezza per risultati potenzialmente incerti. Anche piccoli errori di formattazione nei rapporti e nelle citazioni, così come ritardi nell’avvio delle attività, potrebbero frustrare gli utenti iniziali. OpenAI afferma che questi problemi dovrebbero migliorare con il tempo, grazie a un maggiore utilizzo e a perfezionamenti iterativi. OpenAI sta introducendo la funzionalità gradualmente, a partire dagli utenti Pro, che avranno accesso a un massimo di 100 query al mese. Seguiranno i livelli Plus e Team, mentre l’accesso Enterprise arriverà successivamente. I residenti nel Regno Unito, in Svizzera e nello Spazio Economico Europeo non sono ancora in grado di accedere a questa funzione, ma OpenAI afferma che sta lavorando per estendere il rollout a queste regioni. Nelle prossime settimane, OpenAI espanderà la funzione alle piattaforme mobile e desktop di ChatGPT. La visione a lungo termine prevede
Microsoft e OpenAI indagano sul presunto furto di dati da parte di DeepSeek

Microsoft e OpenAI stanno indagando su una potenziale violazione del sistema dell’azienda di AI da parte di un gruppo presumibilmente legato alla startup cinese DeepSeek. Secondo Bloomberg, l’indagine deriva da un’attività di estrazione di dati sospetti rilevata alla fine del 2024 attraverso l’interfaccia di programmazione delle applicazioni (API) di OpenAI, suscitando preoccupazioni più ampie sulla concorrenza internazionale dell’IA. Microsoft, il principale finanziatore di OpenAI, ha individuato per primo l’estrazione di dati su larga scala e ha informato il produttore di ChatGPT dell’accaduto. Le fonti ritengono che l’attività possa aver violato i termini di servizio di OpenAI o che il gruppo possa aver sfruttato delle scappatoie per aggirare le restrizioni che limitano la quantità di dati da raccogliere. DeepSeek è salita rapidamente alla ribalta nel panorama delle AI competitive, in particolare con il rilascio del suo ultimo modello, R-1, il 20 gennaio. Presentato come un rivale di ChatGPT di OpenAI in termini di prestazioni, ma sviluppato a un costo significativamente inferiore, R-1 ha scosso l’industria tecnologica. Il suo rilascio ha innescato un forte calo dei titoli tecnologici e dell’intelligenza artificiale che ha cancellato miliardi dai mercati statunitensi in una sola settimana. David Sacks, lo “zar delle criptovalute e dell’IA” appena nominato dalla Casa Bianca, ha affermato che DeepSeek potrebbe aver impiegato metodi discutibili per raggiungere le capacità della sua IA. In un’intervista rilasciata a Fox News, Sacks ha rilevato prove che suggeriscono che DeepSeek abbia utilizzato la “distillazione” per addestrare i suoi modelli di IA utilizzando i risultati dei sistemi di OpenAI. “Ci sono prove sostanziali che DeepSeek ha distillato la conoscenza dai modelli di OpenAI e non credo che OpenAI ne sia molto felice”, ha detto Sacks al network. La distillazione dei modelli consiste nell’addestrare un sistema di intelligenza artificiale utilizzando i dati generati da un altro, consentendo potenzialmente a un concorrente di sviluppare funzionalità simili. Questo metodo, se applicato senza un’adeguata autorizzazione, ha suscitato dibattiti etici e sulla proprietà intellettuale mentre la corsa globale alla supremazia dell’IA si fa sempre più accesa. OpenAI ha rifiutato di commentare nello specifico le accuse rivolte a DeepSeek, ma ha riconosciuto il rischio più ampio rappresentato dalla distillazione dei modelli, in particolare da parte delle aziende cinesi. “Sappiamo che le aziende della RPC – e altre – cercano costantemente di distillare i modelli delle aziende statunitensi leader nel settore dell’intelligenza artificiale”, ha dichiarato a Bloomberg un portavoce di OpenAI. Preoccupazioni geopolitiche e di sicurezza Le crescenti tensioni sull’innovazione dell’IA si estendono ora alla sicurezza nazionale. La CNBC ha riferito che la Marina Militare degli Stati Uniti ha vietato al proprio personale l’utilizzo dei prodotti di DeepSeek, per timore che il governo cinese possa sfruttare la piattaforma per accedere a informazioni sensibili. In un’e-mail del 24 gennaio, la Marina ha messo in guardia il suo personale dall’utilizzare l’intelligenza artificiale di DeepSeek “in qualsiasi veste” a causa di “potenziali problemi etici e di sicurezza associati all’origine e all’utilizzo del modello” I critici hanno sottolineato la politica sulla privacy di DeepSeek, che consente la raccolta di dati come indirizzi IP, informazioni sui dispositivi e persino modelli di battitura dei tasti, un ambito di raccolta dei dati considerato eccessivo da alcuni esperti. Per tua informazione, @deepseek_ai raccoglie il tuo IP, i modelli di battitura dei tasti, le informazioni sul dispositivo, ecc. ecc. e li archivia in Cina, dove tutti questi dati sono vulnerabili alle requisizioni arbitrarie dello Stato 🇨🇳. Dalla loro stessa informativa sulla privacy: pic.twitter.com/wueJokHcn3 – Luke de Pulford (@lukedepulford) 27 gennaio 2025 All’inizio di questa settimana, DeepSeek ha dichiarato di essere alle prese con “attacchi malevoli su larga scala” contro i suoi sistemi. Un banner sul suo sito web informava gli utenti di una restrizione temporanea all’iscrizione. La crescente competizione tra Stati Uniti e Cina, in particolare nel settore dell’intelligenza artificiale, ha sottolineato preoccupazioni più ampie riguardanti la proprietà tecnologica, la governance etica e la sicurezza nazionale. Gli esperti avvertono che, man mano che i sistemi di IA progrediscono e diventano sempre più parte integrante della pianificazione economica e strategica globale, le controversie sull’utilizzo dei dati e sulla proprietà intellettuale sono destinate a intensificarsi. Accuse come quelle rivolte a DeepSeek amplificano l’allarme per il rapido sviluppo della Cina nel settore e per la sua potenziale ricerca di aggirare le misure di salvaguardia guidate dagli Stati Uniti attraverso il reverse engineering e altri mezzi. Mentre OpenAI e Microsoft continuano le loro indagini sul presunto uso improprio della piattaforma di OpenAI, le aziende e i governi stanno prestando molta attenzione. Il caso potrebbe costituire un precedente per il modo in cui gli sviluppatori di IA controllano l’utilizzo dei modelli e applicano i termini di servizio. Per ora, la risposta delle parti interessate, sia statunitensi che cinesi, evidenzia come l’innovazione dell’IA sia diventata non solo una gara per il dominio tecnologico, ma anche un’agguerrita competizione geopolitica che sta plasmando le dinamiche di potere del XXI secolo. Leggi di più su www.artificialintelligence-news.com
ChatGPT Gov mira a modernizzare le agenzie governative statunitensi

OpenAI ha lanciato ChatGPT Gov, una versione appositamente progettata del suo chatbot AI per essere utilizzata dalle agenzie governative statunitensi. ChatGPT Gov mira a sfruttare il potenziale dell’intelligenza artificiale per migliorare l’efficienza, la produttività e la fornitura di servizi, salvaguardando i dati sensibili e rispettando i rigorosi requisiti di sicurezza. “Crediamo che l’adozione dell’intelligenza artificiale da parte del governo degli Stati Uniti possa incrementare l’efficienza e la produttività e sia fondamentale per mantenere e rafforzare la leadership globale dell’America in questa tecnologia”, ha spiegato OpenAI. L’azienda ha sottolineato come le sue soluzioni di intelligenza artificiale presentino un “enorme potenziale” per affrontare sfide complesse nel settore pubblico, che vanno dal miglioramento della salute pubblica e delle infrastrutture al rafforzamento della sicurezza nazionale. Con l’introduzione di ChatGPT Gov, OpenAI spera di offrire strumenti che “servano l’interesse nazionale e il bene pubblico, in linea con i valori democratici”, assistendo i politici nell’integrazione responsabile dell’IA per migliorare i servizi per il popolo americano. Il ruolo di ChatGPT Gov Le organizzazioni del settore pubblico possono distribuire ChatGPT Gov all’interno dei propri ambienti Microsoft Azure, sia attraverso il cloud commerciale di Azure che attraverso il cloud specializzato Azure Government. Questa capacità di self-hosting garantisce alle agenzie il rispetto di rigorosi standard di sicurezza, privacy e conformità, come IL5, CJIS, ITAR e FedRAMP High. OpenAI ritiene che questa infrastruttura non solo contribuirà a facilitare la conformità con le norme di cybersecurity, ma anche a velocizzare i processi di autorizzazione interna per la gestione di dati sensibili non pubblici. La versione personalizzata di ChatGPT incorpora molte delle funzionalità presenti nella versione aziendale, tra cui: La possibilità di salvare e condividere le conversazioni all’interno di uno spazio di lavoro governativo sicuro. Caricamento di file di testo e di immagini per semplificare i flussi di lavoro. L’accesso al GPT-4o, il modello all’avanguardia di OpenAI in grado di interpretare, riassumere, codificare, analizzare immagini e matematica in modo avanzato. GPT personalizzabili, che consentono agli utenti di creare e condividere modelli specifici per le esigenze della propria agenzia. Una console amministrativa integrata per aiutare i CIO e i dipartimenti IT a gestire utenti, gruppi, protocolli di sicurezza come il single sign-on (SSO) e altro ancora. Queste caratteristiche assicurano che ChatGPT Gov non sia solo uno strumento di innovazione, ma un’infrastruttura a sostegno di operazioni sicure ed efficienti in tutti gli enti pubblici statunitensi. OpenAI afferma che sta lavorando attivamente per ottenere gli accreditamenti FedRAMP Moderate e High per il suo prodotto SaaS completamente gestito, ChatGPT Enterprise, un passo che rafforzerebbe la fiducia nelle sue offerte di IA per uso governativo. Inoltre, l’azienda sta valutando come espandere le funzionalità di ChatGPT Gov nelle regioni classificate di Azure per ottenere ambienti ancora più sicuri. “ChatGPT Gov riflette il nostro impegno ad aiutare le agenzie governative statunitensi a sfruttare la tecnologia di OpenAI oggi”, ha dichiarato l’azienda. Un curriculum migliore di quello della maggior parte dei politici in ambito governativo Da gennaio 2024, ChatGPT ha visto un’ampia adozione da parte delle agenzie governative statunitensi, con oltre 90.000 utenti in più di 3.500 agenzie federali, statali e locali che hanno già inviato oltre 18 milioni di messaggi per supportare una serie di attività operative. Diverse agenzie di rilievo hanno evidenziato come stanno utilizzando gli strumenti di intelligenza artificiale di OpenAI per ottenere risultati significativi: L’Air Force Research Laboratory: Il laboratorio utilizza ChatGPT Enterprise per scopi amministrativi, tra cui il miglioramento dell’accesso alle risorse interne, l’assistenza di base alla codifica e l’incremento delle attività di formazione sull’IA. Los Alamos National Laboratory: Il laboratorio utilizza ChatGPT Enterprise per la ricerca scientifica e l’innovazione. Questo include il lavoro all’interno della divisione Bioscience, che sta valutando come il GPT-4o possa far progredire in modo sicuro la ricerca bioscientifica in laboratorio. Stato del Minnesota: L’Enterprise Translations Office del Minnesota utilizza ChatGPT Team per fornire servizi di traduzione più rapidi e accurati alle comunità multilingue di tutto lo stato. L’integrazione ha permesso di risparmiare sui costi e di ridurre i tempi di consegna. Commonwealth of Pennsylvania: i dipendenti del programma pilota di AI della Pennsylvania hanno riferito che ChatGPT Enterprise li ha aiutati a ridurre i tempi delle attività di routine, come l’analisi dei requisiti del progetto, di circa 105 minuti al giorno nei giorni in cui hanno utilizzato lo strumento. Questi primi casi d’uso dimostrano il potenziale di trasformazione delle applicazioni di IA a vari livelli di governo. Oltre a fornire miglioramenti tangibili ai flussi di lavoro governativi, OpenAI cerca di promuovere la fiducia del pubblico nell’intelligenza artificiale attraverso la collaborazione e la trasparenza. L’azienda ha dichiarato di essere impegnata a lavorare a stretto contatto con le agenzie governative per allineare i suoi strumenti alle priorità condivise e ai valori democratici. “Non vediamo l’ora di collaborare con le agenzie governative per migliorare la fornitura di servizi al popolo americano attraverso l’intelligenza artificiale”, ha dichiarato OpenAI. Mentre altri governi in tutto il mondo iniziano ad adottare tecnologie simili, l’approccio proattivo dell’America può servire da modello per integrare l’IA nel settore pubblico, salvaguardando i rischi. Che si tratti di supportare i flussi di lavoro amministrativi, le iniziative di ricerca o i servizi linguistici, ChatGPT Gov è una testimonianza del ruolo crescente che l’IA avrà nel plasmare il futuro di una governance efficace. Leggi di più su www.artificialintelligence-news.com
DeepSeek limita le iscrizioni a causa di “attacchi malevoli su larga scala”

DeepSeek è alle prese con interruzioni del servizio e limitazioni all’iscrizione di nuovi account per combattere quelli che descrive come “attacchi malevoli su larga scala” L’app di chat dell’azienda cinese, che di recente ha conquistato la vetta dell’App Store di Apple, ha pubblicato un avviso sul suo sito web in cui si afferma che nel prossimo futuro potranno registrarsi solo gli utenti con numeri di telefono basati in Cina ( 86). Nell’avviso, DeepSeek afferma che: “I servizi online di DeepSeek hanno recentemente subito attacchi malevoli su larga scala. Per garantire la continuità del servizio, la registrazione è temporaneamente limitata a 86 numeri di telefono. Gli utenti esistenti possono accedere come sempre” Al momento in cui scriviamo, le iscrizioni sono state riaperte con l’avviso che “la registrazione potrebbe essere occupata” e di attendere e riprovare. Nonostante le difficoltà, gli utenti esistenti non sono interessati dall’accesso. La pagina di stato di DeepSeek riportava i problemi in corso lunedì mattina, aggiungendo una giornata turbolenta per la piattaforma di intelligenza artificiale. DeepSeek deve affrontare una prova dopo una crescita esplosiva DeepSeek è diventata rapidamente una forza dirompente nella corsa alla supremazia dell’IA. Oltre a ottenere un’ampia adozione da parte degli utenti, il potente modello di intelligenza artificiale open-source dell’app ha suscitato preoccupazioni tra le aziende Big Tech statunitensi. La forza dell’applicazione risiede nella sua capacità di fornire solide prestazioni di IA su chip meno avanzati, creando una soluzione più economica e accessibile rispetto a rivali di alto profilo come ChatGPT di OpenAI. Questa differenziazione chiave ha scosso la fiducia degli investitori lunedì, portando a un calo significativo dei prezzi delle azioni delle principali aziende tecnologiche statunitensi. Gli osservatori del settore suggeriscono che tali scosse potrebbero diventare più frequenti, dato che i concorrenti innovativi come DeepSeek sfidano il dominio degli operatori tecnologici tradizionali. Nigel Green, CEO della società di consulenza finanziaria globale deVere Group, ha commentato: “I progressi tecnologici della Cina, in particolare nel campo dell’intelligenza artificiale, stanno erodendo la capacità degli Stati Uniti di utilizzare le tariffe come strumento per mantenere la supremazia globale”. “L’equilibrio di potere si sta spostando e Washington deve riconoscere che non può sempre dettare le condizioni a Pechino come faceva un tempo. Questa nuova realtà avrà conseguenze di vasta portata per gli investitori e i politici. “L’intelligenza artificiale sarà la tecnologia che definirà il nostro tempo e la corsa per dominarla darà forma ai mercati globali per i decenni a venire” Green ha poi sottolineato il potenziale di attori e regioni non tradizionali per conquistare la corona dell’IA. “I giganti tecnologici tradizionali non sono più i vincitori garantiti. L’attenzione deve ora spostarsi sui settori e sulle regioni che stanno guidando la prossima ondata di innovazione. Questo include non solo l’IA, ma anche le infrastrutture critiche necessarie per supportarla e renderla sicura” Gli ultimi sviluppi si inseriscono in un contesto più ampio di crescente competizione tra Cina e Stati Uniti nel settore dell’IA e delle tecnologie emergenti. Nonostante le restrizioni all’esportazione dell’hardware statunitense, il settore dell’IA di Pechino ha fatto passi da gigante, grazie a significativi investimenti governativi e a un fiorente ecosistema di startup innovative. L’ascesa di applicazioni come DeepSeek indica che il campo di gioco non è più decisamente inclinato a favore della Silicon Valley. Per anni, le aziende statunitensi sono state sostenute dalle tecnologie dei semiconduttori di aziende nazionali come NVIDIA. La capacità della Cina di offrire capacità di IA competitive su hardware meno avanzato potrebbe segnare un punto di svolta significativo. Tuttavia, mentre l’innovazione dell’IA sta aumentando a livello globale, le difficoltà di DeepSeek evidenziano i problemi di crescita che possono accompagnare una crescita esplosiva. Leggi di più su www.artificialintelligence-news.com
I modelli di ragionamento di DeepSeek-R1 rivaleggiano con OpenAI in termini di prestazioni

DeepSeek ha presentato i modelli di prima generazione DeepSeek-R1 e DeepSeek-R1-Zero, progettati per affrontare compiti di ragionamento complessi. DeepSeek-R1-Zero viene addestrato esclusivamente attraverso l’apprendimento per rinforzo (RL) su larga scala, senza ricorrere alla messa a punto supervisionata (SFT) come fase preliminare. Secondo DeepSeek, questo approccio ha portato all’emergere naturale di “numerosi comportamenti di ragionamento potenti e interessanti”, tra cui l’autoverifica, la riflessione e la generazione di ampie catene di pensiero (CoT). “In particolare, [DeepSeek-R1-Zero] è la prima ricerca aperta a convalidare che le capacità di ragionamento dei LLM possono essere incentivate esclusivamente attraverso la RL, senza la necessità di SFT”, hanno spiegato i ricercatori di DeepSeek. Questa pietra miliare non solo sottolinea le basi innovative del modello, ma apre anche la strada a progressi incentrati sulla RL nell’IA ragionante. Tuttavia, le capacità di DeepSeek-R1-Zero presentano alcune limitazioni. Tra i problemi principali ci sono “la ripetizione infinita, la scarsa leggibilità e la mescolanza di linguaggi”, che potrebbero rappresentare un ostacolo significativo nelle applicazioni reali. Per ovviare a queste carenze, DeepSeek ha sviluppato il suo modello di punta: DeepSeek-R1. Presentazione di DeepSeek-R1 DeepSeek-R1 si basa sul suo predecessore incorporando dati a freddo prima dell’addestramento RL. Questa fase aggiuntiva di pre-addestramento migliora le capacità di ragionamento del modello e risolve molte delle limitazioni riscontrate in DeepSeek-R1-Zero. In particolare, DeepSeek-R1 raggiunge prestazioni paragonabili a quelle dell’apprezzato sistema o1 di OpenAI nei compiti di matematica, codifica e ragionamento generale, consolidando il suo ruolo di concorrente leader. DeepSeek ha scelto di rendere open-source sia DeepSeek-R1-Zero che DeepSeek-R1 insieme a sei modelli più piccoli. Tra questi, DeepSeek-R1-Distill-Qwen-32B ha dimostrato risultati eccezionali, superando persino o1-mini di OpenAI in diversi benchmark. MATH-500 (Pass@1): DeepSeek-R1 ha ottenuto il 97,3%, superando OpenAI (96,4%) e altri importanti concorrenti. LiveCodeBench (Pass@1-COT): la versione distillata DeepSeek-R1-Distill-Qwen-32B ha ottenuto un punteggio del 57,2%, una prestazione di rilievo tra i modelli più piccoli. AIME 2024 (Pass@1): DeepSeek-R1 ha ottenuto il 79,8%, stabilendo uno standard impressionante nella risoluzione di problemi matematici. Una pipeline a beneficio dell’industria in generale DeepSeek ha condiviso i dettagli della sua rigorosa pipeline per lo sviluppo di modelli di ragionamento, che integra una combinazione di fine-tuning supervisionato e apprendimento per rinforzo. Secondo l’azienda, il processo prevede due fasi SFT per stabilire le capacità fondamentali di ragionamento e non, e due fasi RL per scoprire modelli di ragionamento avanzati e allineare queste capacità alle preferenze umane. “Crediamo che la pipeline porterà benefici all’industria creando modelli migliori”, ha dichiarato DeepSeek, alludendo al potenziale della sua metodologia di ispirare futuri progressi nel settore dell’IA. Uno dei risultati più significativi del loro approccio incentrato su RL è la capacità di DeepSeek-R1-Zero di eseguire intricati modelli di ragionamento senza precedenti istruzioni umane, una novità assoluta per la comunità di ricerca open-source sull’IA. Importanza della distillazione I ricercatori di DeepSeek hanno anche sottolineato l’importanza della distillazione, il processo di trasferimento delle capacità di ragionamento da modelli più grandi a modelli più piccoli e più efficienti, una strategia che ha permesso di ottenere guadagni di prestazioni anche per le configurazioni più piccole. Le iterazioni più piccole di DeepSeek-R1, come le versioni da 1,5B, 7B e 14B, sono state in grado di reggere il confronto con applicazioni di nicchia. I modelli distillati possono superare i risultati ottenuti con l’addestramento RL su modelli di dimensioni comparabili. 🔥 Bonus: Modelli distillati open-source! 🔬 Distillati da DeepSeek-R1, 6 piccoli modelli completamente open-sourced 📏 Modelli 32B e 70B alla pari con OpenAI-o1-mini 🤝 Dare forza alla comunità open-source 🌍 Spingendo i confini della **open AI**! 🐋 2/n pic.twitter.com/tfXLM2xtZZ – DeepSeek (@deepseek_ai) 20 gennaio 2025 Per i ricercatori, questi modelli sono disponibili in configurazioni che vanno da 1,5 miliardi a 70 miliardi di parametri, supportando le architetture Qwen2.5 e Llama3. Questa flessibilità consente un utilizzo versatile in un’ampia gamma di attività, dalla codifica alla comprensione del linguaggio naturale. DeepSeek ha adottato la Licenza MIT per il suo repository e i suoi pesi, estendendo i permessi per l’uso commerciale e le modifiche a valle. Sono consentiti lavori derivati, come l’utilizzo di DeepSeek-R1 per addestrare altri modelli linguistici di grandi dimensioni (LLM). Tuttavia, gli utenti di modelli specifici devono rispettare le licenze dei modelli di base originali, come le licenze Apache 2.0 e Llama3. Leggi di più su www.artificialintelligence-news.com
Apple ritira le notizie generate dall’intelligenza artificiale dai suoi dispositivi dopo le reazioni dei consumatori

Apple ha eliminato la sua funzione di notizie AI Apple Intelligence dopo che questa aveva inventato storie e stravolto titoli reali. L’AI news di Apple avrebbe dovuto semplificare la vita riassumendo gli avvisi di notizie provenienti da più fonti. Invece, ha creato il caos diffondendo notizie false, spesso sotto marchi di media affidabili. Ecco dove è andato tutto storto: Utilizzando il logo della BBC, ha inventato una storia che sosteneva che la star del tennis Rafael Nadal avesse fatto coming out come gay, fraintendendo completamente una storia su un giocatore brasiliano. Ha fatto un passo falso annunciando che il giovane giocatore di freccette Luke Littler aveva vinto il campionato mondiale PDC, prima ancora di aver giocato la finale. In un errore più grave, ha creato un falso avviso della BBC in cui si affermava che Luigi Mangione, accusato di aver ucciso l’amministratore delegato di UnitedHealthcare Brian Thompson, si era suicidato. Il sistema ha inserito il nome del New York Times in una storia completamente inventata sull’arresto del primo ministro israeliano Benjamin Netanyahu. Un riassunto generato dall’AI di un articolo della BBC affermava erroneamente che il sospettato di aver sparato all’amministratore delegato Luigi Mangione si era suicidato. Il logo della BBC era allegato. La BBC, infuriata per aver visto il suo nome associato a storie false, ha presentato un reclamo formale. I gruppi di stampa si sono uniti a loro, come Reporter Senza Frontiere, che ha avvertito che lasciare che l’intelligenza artificiale riscriva le notizie mette a rischio il diritto del pubblico a un’informazione accurata. Anche il Sindacato Nazionale dei Giornalisti ha chiesto la rimozione della funzione, affermando che i lettori non dovrebbero dover indovinare se ciò che stanno leggendo è reale. Alcune ricerche hanno già dimostrato che anche quando le persone imparano che i media creati dall’intelligenza artificiale sono falsi, lasciano comunque un “segno” psicologico che persiste anche in seguito. Apple L’Intelligenza – che offre una serie di funzioni basate sull’intelligenza artificiale, tra cui le notizie AI – è stata una delle caratteristiche principali della nuova gamma di iPhone 16. Apple è un’azienda che si vanta di prodotti raffinati che “funzionano e basta” – è raro che Apple faccia marcia indietro – quindi evidentemente non aveva molta scelta in questo caso. Detto questo, non è l’unica ad aver commesso errori con l’intelligenza artificiale. Non molto tempo fa, i riassunti delle ricerche generate dall’intelligenza artificiale di Google dicevano alle persone che potevano mangiare sassi e mettere la colla sulla pizza. Apple ha in programma di resuscitare la funzione con etichette di avvertimento e una formattazione speciale per mostrare quando l’intelligenza artificiale crea i riassunti. I lettori devono decodificare font ed etichette diverse solo per sapere se stanno leggendo notizie vere? Ed ecco un’idea radicale: potrebbero continuare a visualizzare il titolo stesso della notizia? Tutto ciò dimostra che, mentre l’intelligenza artificiale continua a penetrare in ogni angolo della nostra vita digitale, alcune cose – come ricevere notizie accurate – sono semplicemente troppo importanti per essere sbagliate. Una grande inversione di rotta da parte di Apple, ma probabilmente non l’ultima che vedremo di questo tipo. Leggi di più su dailyai.com
Microsoft fa avanzare la scoperta dei materiali con MatterGen

La scoperta di nuovi materiali è fondamentale per risolvere alcune delle più grandi sfide dell’umanità. Tuttavia, come evidenziato da Microsoft, i metodi tradizionali di scoperta di nuovi materiali possono sembrare come “trovare un ago in un pagliaio” Storicamente, la ricerca di nuovi materiali si è affidata a esperimenti di prova ed errore, laboriosi e costosi. Più di recente, lo screening computazionale di vasti database di materiali ha aiutato a velocizzare il processo, ma è rimasto un processo che richiede molto tempo. Ora, un nuovo potente strumento di intelligenza artificiale generativa di Microsoft potrebbe accelerare questo processo in modo significativo. Denominato MatterGen, lo strumento si allontana dai metodi di screening tradizionali e progetta direttamente nuovi materiali in base ai requisiti di progettazione, offrendo un approccio potenzialmente rivoluzionario alla scoperta dei materiali. Pubblicato in un articolo su Nature, Microsoft descrive MatterGen come un modello di diffusione che opera all’interno della geometria 3D dei materiali. Mentre un modello di diffusione delle immagini potrebbe generare immagini da messaggi di testo modificando i colori dei pixel, MatterGen genera strutture di materiali modificando elementi, posizioni e reticoli periodici in strutture randomizzate. Questa architettura su misura è stata progettata appositamente per gestire le esigenze uniche della scienza dei materiali, come la periodicità e la disposizione in 3D. “MatterGen consente un nuovo paradigma di progettazione generativa dei materiali assistita dall’intelligenza artificiale che permette un’esplorazione efficiente dei materiali, andando oltre l’insieme limitato di quelli conosciuti”, spiega Microsoft. Un salto oltre lo screening I metodi computazionali tradizionali prevedono lo screening di enormi database di potenziali materiali per identificare quelli con le proprietà desiderate. Tuttavia, anche questi metodi sono limitati nella loro capacità di esplorare l’universo dei materiali sconosciuti e richiedono ai ricercatori di vagliare milioni di opzioni prima di trovare candidati promettenti. MatterGen, invece, parte da zero e genera materiali in base a specifiche richieste di chimica, caratteristiche meccaniche, proprietà elettroniche, comportamento magnetico o combinazioni di questi vincoli. Il modello è stato addestrato utilizzando oltre 608.000 materiali stabili provenienti dai database del Materials Project e di Alexandria. Nel confronto che segue, MatterGen ha superato in modo significativo i metodi di screening tradizionali nel generare nuovi materiali con proprietà specifiche, in particolare un modulo di massa superiore a 400 GPa, che significa che sono difficili da comprimere. Mentre lo screening ha mostrato rendimenti decrescenti nel tempo, man mano che il pool di candidati noti si esauriva, MatterGen ha continuato a generare risultati sempre più innovativi. Una sfida comune incontrata durante la sintesi dei materiali è il disordine compositivo, il fenomeno per cui gli atomi si scambiano casualmente la posizione all’interno di un reticolo cristallino. Gli algoritmi tradizionali spesso non riescono a distinguere tra strutture simili quando si tratta di decidere che cosa conta come materiale “veramente nuovo”. Per risolvere questo problema, Microsoft ha ideato un nuovo algoritmo di corrispondenza delle strutture che incorpora il disordine compositivo nelle sue valutazioni. Lo strumento identifica se due strutture sono semplicemente approssimazioni ordinate della stessa struttura disordinata sottostante, consentendo definizioni più solide di novità. Dimostrare che MatterGen funziona per la scoperta dei materiali Per dimostrare il potenziale di MatterGen, Microsoft ha collaborato con i ricercatori dello Shenzhen Institutes of Advanced Technology (SIAT) – parte dell’Accademia delle Scienze cinese – per sintetizzare sperimentalmente un nuovo materiale progettato dall’intelligenza artificiale. Il materiale, TaCr₂O₆, è stato generato da MatterGen per raggiungere un modulo di massa di 200 GPa. Sebbene il risultato sperimentale sia stato leggermente inferiore all’obiettivo, misurando un modulo di 169 GPa, l’errore relativo è stato solo del 20%, una discrepanza minima dal punto di vista sperimentale. È interessante notare che il materiale finale presentava un disordine compositivo tra gli atomi di Ta e Cr, ma la sua struttura era strettamente allineata alle previsioni del modello. Se questo livello di accuratezza predittiva può essere tradotto in altri settori, MatterGen potrebbe avere un impatto profondo sulla progettazione di materiali per batterie, celle a combustibile, magneti e altro ancora. Oggi su @Nature: Il nostro modello MatterGen rappresenta un cambiamento paradigmatico nella progettazione dei materiali, applicando l’intelligenza artificiale generativa per creare nuovi composti con proprietà specifiche con una precisione senza precedenti. pic.twitter.com/RpnphXUY0c – Satya Nadella (@satyanadella) 16 gennaio 2025 Microsoft posiziona MatterGen come strumento complementare al suo precedente modello di intelligenza artificiale, MatterSim, che accelera le simulazioni delle proprietà dei materiali. Insieme, gli strumenti potrebbero fungere da “volano” tecnologico, migliorando sia l’esplorazione di nuovi materiali che la simulazione delle loro proprietà in cicli iterativi. Questo approccio è in linea con quello che Microsoft definisce il “quinto paradigma della scoperta scientifica”, in cui l’intelligenza artificiale va oltre il riconoscimento dei modelli per guidare attivamente esperimenti e simulazioni. Microsoft ha rilasciato il codice sorgente di MatterGen con licenza MIT. Oltre al codice, il team ha reso disponibili i dataset di addestramento e di messa a punto del modello per supportare ulteriori ricerche e incoraggiare un’adozione più ampia di questa tecnologia. Riflettendo sul più ampio potenziale scientifico dell’IA generativa, Microsoft fa un parallelo con la scoperta dei farmaci, dove questi strumenti hanno già iniziato a trasformare il modo in cui i ricercatori progettano e sviluppano i medicinali. Allo stesso modo, MatterGen potrebbe rimodellare il modo in cui ci approcciamo alla progettazione dei materiali, in particolare per settori critici come le energie rinnovabili, l’elettronica e l’ingegneria aerospaziale. Leggi di più su www.artificialintelligence-news.com
Rendere i cosmetici sostenibili con l’intelligenza artificiale generativa

L’Oréal sfrutterà la tecnologia generativa AI (GenAI) di IBM per creare prodotti cosmetici innovativi e sostenibili. La partnership prevede lo sviluppo di un modello di fondazione AI su misura per potenziare i team di ricerca e innovazione (R&I) di L’Oréal nella creazione di formulazioni ecologiche che utilizzano materie prime rinnovabili. A sua volta, questa iniziativa è pensata per ridurre gli sprechi di energia e di materiali. Descritta come il primo modello di intelligenza artificiale dell’industria cosmetica incentrato sulla formulazione, questa iniziativa rappresenta un’anticipazione di un futuro in cui la tecnologia all’avanguardia guida soluzioni attente all’ambiente. Stéphane Ortiz, Head of Innovation Métiers & Product Development di L’Oréal R&I, ha dichiarato: “Nell’ambito del nostro Programma di Trasformazione Digitale, questa partnership amplierà la velocità e la scala della nostra pipeline di innovazione e riformulazione, con prodotti che raggiungeranno sempre standard più elevati di inclusività, sostenibilità e personalizzazione” AI e bellezza: Un connubio perfetto Unendo l’esperienza di L’Oréal nella scienza cosmetica con le tecnologie di intelligenza artificiale di IBM, le aziende mirano a sbloccare nuovi percorsi sia nell’innovazione cosmetica che nella sostenibilità. Il ruolo dell’intelligenza artificiale nella personalizzazione dei prodotti è ormai consolidato, ma l’approfondimento del suo ruolo nella creazione di formulazioni rinnovabili e di origine sostenibile sottolinea una missione ecologica più ampia. Matthieu Cassier, Chief Transformation & Digital Officer di L’Oréal R&I, ha commentato: “Basandoci su anni di esperienza unica nella scienza della bellezza e nella strutturazione dei dati, questa importante alleanza con IBM apre una nuova entusiasmante era per il nostro processo di innovazione e sviluppo” I modelli Foundation costituiscono la spina dorsale tecnologica di questa collaborazione. Questi sistemi di intelligenza artificiale vengono addestrati su vasti set di dati, consentendo loro di svolgere vari compiti e di trasferire gli apprendimenti in diverse applicazioni. Sebbene questi modelli siano noti soprattutto per aver rivoluzionato l’elaborazione del linguaggio naturale (NLP), IBM ha ampliato i loro casi d’uso al di là del testo, includendo applicazioni nella chimica, nei dati geospaziali e nell’analisi delle serie temporali. In questo contesto, il modello AI personalizzato che si sta sviluppando per L’Oréal elaborerà un enorme database di formule cosmetiche e componenti di materie prime. Dalla creazione di nuovi prodotti alla riformulazione di quelli esistenti e alla scalabilità per la produzione, il modello accelererà le attività critiche per i team di ricerca e sviluppo dell’azienda. “Questa collaborazione è un’applicazione davvero efficace dell’IA generativa, che sfrutta la potenza della tecnologia e delle competenze per il bene del pianeta”, ha dichiarato Alessandro Curioni, IBM Fellow e VP per l’Europa e l’Africa, nonché Direttore di IBM Research Zurich. “In IBM crediamo nel potere dell’IA personalizzata e costruita ad hoc per aiutare a trasformare le aziende. Utilizzando la più recente tecnologia AI di IBM, L’Oréal sarà in grado di ricavare informazioni significative dai suoi ricchi dati sulle formule e sui prodotti per creare un modello AI su misura che la aiuterà a raggiungere i suoi obiettivi operativi e a continuare a creare prodotti di alta qualità e sostenibili.” Una delle dimensioni più affascinanti di questa collaborazione è la possibilità di approfondire la comprensione del comportamento degli ingredienti rinnovabili nelle formulazioni cosmetiche. Guilhaume Leroy-Méline, IBM Distinguished Engineer e CTO di IBM Consulting France, ha dichiarato: “Questa alleanza tra competenze altamente specializzate nel campo dell’intelligenza artificiale e della cosmetica mira a rivoluzionare la formulazione dei cosmetici. Incarna lo spirito della ricerca potenziata dall’intelligenza artificiale, ponendo l’accento sulla sostenibilità e sulla diversità” Per IBM, questa partnership riflette la sua più ampia strategia di estendere le applicazioni dell’IA ai settori che richiedono soluzioni personalizzate. Come ha sottolineato Curioni, l’IA personalizzata ha il potenziale per rimodellare le aziende a più livelli. Sviluppando insieme questo modello di formulazione su misura, IBM e L’Oréal stanno ponendo le basi per un settore della bellezza che premia sia la sostenibilità che l’innovazione all’avanguardia. In caso di successo, questa partnership potrebbe fungere da modello per altri settori che desiderano sfruttare il potenziale di trasformazione dell’IA per gli sforzi di sostenibilità. Leggi di più su www.artificialintelligence-news.com
