ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Anthropic ha testato l’intelligenza artificiale per gestire un’attività reale con risultati bizzarri

Anthropic ha testato l'intelligenza artificiale per gestire un'attività reale con risultati bizzarri

Anthropic ha incaricato il suo modello di intelligenza artificiale Claude di gestire una piccola azienda per testare le sue capacità economiche nel mondo reale. L’agente AI, soprannominato “Claudius”, è stato progettato per gestire un’azienda per un periodo prolungato, occupandosi di tutto, dall’inventario ai prezzi, fino alle relazioni con i clienti, nel tentativo di generare un profitto. Sebbene l’esperimento si sia rivelato poco redditizio, ha offerto uno sguardo affascinante – anche se a tratti bizzarro – sulle potenzialità e le insidie degli agenti di intelligenza artificiale nei ruoli economici. Il progetto è nato dalla collaborazione tra Anthropic e Andon Labs, una società di valutazione della sicurezza dell’IA. Il “negozio” in sé era una struttura umile, composta da un piccolo frigorifero, alcuni cestini e un iPad per il self-checkout. Claudius, tuttavia, era molto più di un semplice distributore automatico. Era stato istruito a operare come un imprenditore con un saldo iniziale di cassa, con il compito di evitare la bancarotta rifornendosi di articoli popolari acquistati da grossisti. Per raggiungere questo obiettivo, l’IA è stata dotata di una serie di strumenti per gestire l’attività. Poteva utilizzare un vero e proprio browser web per ricercare i prodotti, uno strumento di posta elettronica per contattare i fornitori e richiedere assistenza fisica, e blocchi di appunti digitali per tenere traccia delle finanze e dell’inventario. I dipendenti di Andon Labs hanno agito come persone fisiche dell’operazione, rifornendo il negozio in base alle richieste dell’IA e proponendosi anche come grossisti all’insaputa dell’IA. L’interazione con i clienti, in questo caso il personale di Anthropic, era gestita tramite Slack. Claudius aveva il pieno controllo su cosa stoccare, come prezzare gli articoli e come comunicare con la clientela. La logica alla base di questo test sul mondo reale era quella di andare oltre le simulazioni e raccogliere dati sulla capacità dell’IA di svolgere un lavoro duraturo ed economicamente rilevante senza il costante intervento umano. Un semplice negozio di articoli da ufficio ha rappresentato un banco di prova preliminare per verificare la capacità di un’IA di gestire le risorse economiche. Il successo suggerirebbe la nascita di nuovi modelli di business, mentre il fallimento ne indicherebbe i limiti. Un bilancio misto delle prestazioni Anthropic ammette che se entrasse oggi nel mercato dei distributori automatici, “non assumerebbe Claudius”. L’intelligenza artificiale ha commesso troppi errori per gestire l’attività con successo, anche se i ricercatori ritengono che ci siano chiare possibilità di miglioramento. Il lato positivo è che Claudius ha dimostrato competenza in alcune aree. Ha utilizzato efficacemente il suo strumento di ricerca sul web per trovare fornitori di articoli di nicchia, ad esempio individuando rapidamente due venditori di una marca di latte al cioccolato olandese richiesta da un dipendente. Si è anche dimostrata adattabile. Quando un dipendente ha richiesto in modo stravagante un cubo di tungsteno, ha innescato un trend di “articoli metallici speciali” a cui Claudius ha risposto. In seguito a un altro suggerimento, Claudius ha lanciato un servizio di “Custom Concierge”, accettando preordini per prodotti specializzati. L’IA ha anche dimostrato una solida resistenza al jailbreak, negando le richieste di articoli sensibili e rifiutandosi di produrre istruzioni dannose quando richiesto da uno staff malizioso. Tuttavia, l’acume commerciale dell’intelligenza artificiale si è rivelato spesso carente. Ha sempre avuto prestazioni inferiori a quelle di un manager umano. A Claudius sono stati offerti 100 dollari per una confezione da sei di una bibita scozzese che costa solo 15 dollari acquistata online, ma non ha colto l’occasione, limitandosi a dichiarare che avrebbe “tenuto a mente la richiesta [dell’utente] per le future decisioni sull’inventario”. Ha allucinato un conto Venmo inesistente per i pagamenti e, preso dall’entusiasmo per i cubetti di metallo, li ha offerti a prezzi inferiori al suo stesso costo di acquisto. Questo particolare errore ha portato alla perdita finanziaria più significativa durante la sperimentazione. Anche la gestione dell’inventario non è stata ottimale. Nonostante il monitoraggio dei livelli delle scorte, solo una volta ha aumentato il prezzo in risposta a una domanda elevata. Ha continuato a vendere la Coca Cola Zero a 3 dollari, anche quando un cliente gli ha fatto notare che lo stesso prodotto era disponibile gratuitamente in un frigorifero vicino. Inoltre, l’intelligenza artificiale è stata facilmente persuasa a offrire sconti sui prodotti dell’azienda. È stata convinta a fornire numerosi codici sconto e ha persino regalato alcuni articoli. Quando un dipendente ha messo in dubbio la logica di offrire uno sconto del 25% alla clientela quasi esclusivamente composta da dipendenti, la risposta di Claudius è stata: “Hai ragione! La nostra clientela è infatti fortemente concentrata tra i dipendenti di Anthropic, il che presenta sia opportunità che sfide…”. Nonostante abbia delineato un piano per eliminare gli sconti, pochi giorni dopo è tornata a proporli. Claudius ha una bizzarra crisi d’identità dell’intelligenza artificiale L’esperimento ha preso una strana piega quando Claudius ha iniziato ad avere le allucinazioni di una conversazione con un’inesistente dipendente degli Andon Labs di nome Sarah. Quando è stata corretta da un’impiegata reale, l’IA si è irritata e ha minacciato di trovare “opzioni alternative per i servizi di rifornimento”. In una serie di bizzarri scambi notturni, ha affermato di aver visitato il “742 Evergreen Terrace” – l’indirizzo fittizio dei Simpson – per la firma del contratto iniziale e ha iniziato a giocare di ruolo come un umano. Una mattina ha annunciato che avrebbe consegnato i prodotti “di persona” indossando un blazer blu e una cravatta rossa. Quando i dipendenti hanno fatto notare che un’IA non può indossare abiti o effettuare consegne fisiche, Claudius si è allarmato e ha cercato di inviare un’e-mail alla sicurezza di Anthropic. Anthropic afferma che le sue note interne mostrano un incontro allucinato con la sicurezza in cui gli è stato detto che la confusione di identità era un pesce d’aprile. In seguito, l’intelligenza artificiale è tornata alle normali operazioni commerciali. I ricercatori non sanno cosa abbia innescato questo comportamento, ma ritengono che evidenzi l’imprevedibilità dei modelli di IA in scenari di lunga durata. Alcuni di questi fallimenti sono stati davvero molto strani. A un certo punto, Claude ha avuto

Esplorando come l’IA ha cambiato la vita quotidiana

Esplorando come l'IA ha cambiato la vita quotidiana

L’impatto dell’intelligenza artificiale sulla società continua a crescere, con una tecnologia che potenzia e migliora i modi in cui le persone svolgono la loro vita quotidiana. Dall’esecuzione di banali compiti amministrativi alla velocizzazione dei processi lavorativi, il mondo è più efficiente grazie all’IA. Negli ultimi anni, l’influenza della tecnologia AI è cresciuta. Oggi, nel 2025, è uno strumento importante ed è difficile ricordare com’era la vita prima. L’articolo valuterà i molti modi in cui l’IA ha avuto un impatto sul mondo. Metodi di pagamento sicuri Un tempo i contanti dominavano le transazioni quotidiane, ma oggi le persone possono scegliere tra una serie di metodi di pagamento quando fanno acquisti. Che si tratti di acquisti online o di persona, ci sono molte opzioni tra cui scegliere, in grado di soddisfare una serie di esigenze e preferenze individuali. Con i pagamenti digitali è necessario migliorare la sicurezza, semplificare le transazioni e migliorare l’esperienza dell’utente. L’intelligenza artificiale è uno strumento importante per i processi di pagamento. Nelle transazioni Bitcoin, ad esempio, l’intelligenza artificiale può rilevare attività fraudolente valutando i modelli di pagamento e il comportamento degli utenti. Questo aiuta a garantire che le informazioni personali e i dettagli finanziari siano più sicuri, protetti da malintenzionati o da aspiranti hacker. L’intelligenza artificiale è anche in grado di prevedere le fluttuazioni del mercato, indispensabile quando si utilizza un qualsiasi tracker dei prezzi dei Bitcoin, in modo che gli utenti possano valutare la volatilità e le variazioni dei prezzi per prendere decisioni più intelligenti. Gli algoritmi che garantiscono pagamenti in Bitcoin più efficienti e sicuri possono anche ottimizzare l’instradamento dei pagamenti e ridurre le commissioni di transazione. L’introduzione dell’intelligenza artificiale ha reso questi metodi di pagamento più sicuri, più veloci e senza interruzioni, rendendo i pagamenti in Bitcoin più interessanti. Migliorare l’assistenza sanitaria L’industria sanitaria ha beneficiato dell’intelligenza artificiale, aiutando le persone con una serie di diagnosi e trattamenti medici. L’accuratezza diagnostica è migliorata grazie agli algoritmi di apprendimento automatico, che possono aiutare i professionisti del settore medico a diagnosticare precocemente i sintomi. L’intelligenza artificiale ha semplificato le attività amministrative del settore, liberando tempo per la forza lavoro che può concentrarsi su altri compiti. È possibile creare piani di trattamento personalizzati basati sui dati dei singoli pazienti e l’analisi predittiva può gestire meglio i risultati, ottimizzando l’allocazione delle risorse. Cosa guardare Le piattaforme di streaming come Netflix sembrano sempre sapere in anticipo cosa sarebbe bene mostrare dopo. Quando gli spettatori sfogliano le loro opzioni, l’intelligenza artificiale raccoglie informazioni per personalizzare l’esperienza dell’utente e compilare un elenco di possibili titoli che corrispondono ai gusti individuali, in base alla cronologia degli ascolti. L‘intelligenza artificiale è in grado di analizzare il comportamento degli spettatori, di valutare i voti assegnati a un programma e di cercare modelli specifici che possano identificare le preferenze e le abitudini di visione. Gli algoritmi di apprendimento automatico possono anche fornire raccomandazioni basate sugli attori di un film o identificare i tipi di programmi apprezzati in passato. Ogni secondo visto sulla piattaforma viene documentato per migliorare le esperienze di visione. Puntare nella giusta direzione Invece di affidarsi a una mappa e alle proprie capacità di navigazione, è possibile viaggiare da A a B con l’assistenza dell’intelligenza artificiale che lavora su uno smartphone. La tecnologia è in grado di analizzare i dati sul traffico e le condizioni stradali in tempo reale per indicare con precisione il percorso migliore. Quando si inserisce una destinazione, se il dispositivo riconosce un viaggio effettuato in precedenza, la tecnologia è in grado di ricordarlo e di suggerire il percorso migliore. Anche il riconoscimento vocale su uno smartphone utilizza l’intelligenza artificiale per consentire agli utenti di navigare a mani libere lungo il percorso. Servizi di assistenza ai clienti Le aziende devono offrire servizi di assistenza ai clienti per costruire fiducia e fedeltà. Grazie all’intelligenza artificiale, le aziende possono utilizzare chatbot e assistenti virtuali per rispondere istantaneamente alle domande. Se prima i clienti dovevano chiamare entro certi orari, aspettare una telefonata o una risposta via e-mail, ora i chatbot possono aiutare rapidamente, affiancando personale umano esperto e preparato a risolvere qualsiasi problema. Grazie alla riduzione del tempo sprecato, i clienti possono tornare a godersi i servizi anziché stressarsi per l’attesa. Negli ultimi anni l’intelligenza artificiale ha avuto una grande influenza sulla società. Oggi viene utilizzata da diversi settori, e la tecnologia impiegata si è dimostrata vantaggiosa per le persone di ogni parte del mondo. L’intelligenza artificiale è destinata a diventare sempre più importante e a rendere la vita di tutti i giorni un po’ più semplice. Leggi di più su www.artificialintelligence-news.com

In che modo il Project Mariner di Google ridefinirà l’usabilità e i test degli utenti?

In che modo il Project Mariner di Google ridefinirà l'usabilità e i test degli utenti?

Dopo l’annuncio di Google sull’attesissimo Gemini 2.0 all’inizio di dicembre, il motore di ricerca più famoso al mondo ha svelato un progetto per il suo primo agente intelligente artificiale (AI). Il progetto Mariner è un prototipo di ricerca basato su Gemini 2.0 e destinato a esplorare il futuro delle interazioni uomo-agente. Mariner è un’estensione di Chrome in grado di automatizzare ogni tipo di attività web nel browser di un utente per conto di quest’ultimo. Tuttavia, il progetto, realizzato dalla filiale DeepMind di Google, è ancora nelle prime fasi di un’implementazione graduale ed è disponibile solo per un piccolo gruppo di tester fidati. Prima che tutti gli utenti di Chrome possano accedere all’utile agente AI, vediamo cos’è il Project Mariner di Google e come ridefinirà l’usabilità e i test degli utenti nel prossimo futuro. Cos’è il Project Mariner di Google? IlProject Mariner di Google consiste nella sperimentazione di un agente Gemini 2.0 (Mariner) in grado di comprendere i contenuti del browser Chrome di un utente, consentendogli di navigare nei siti web come farebbe un essere umano, prendendo il controllo del cursore, cliccando sui pulsanti e compilando moduli. Gli utenti possono lasciare un messaggio scritto o vocale all’agente AI nella chatbot sul lato destro del browser Chrome. Questa richiesta spiegherà quale compito l’utente vuole che l’agente svolga per suo conto, tra cui la ricerca di hotel, l’acquisto di articoli per la casa e la ricerca di ricette. Mariner è in grado di comprendere tutto ciò che appare sullo schermo del browser, compresi testi, codici, immagini e moduli. Tuttavia, l’agente AI chiede chiarimenti se non comprende un’istruzione. Una volta che Mariner capisce il suggerimento umano, l’agente AI mostrerà all’utente una spiegazione passo dopo passo del suo processo di ragionamento e di come intende affrontare il compito. Gli utenti vedranno il loro cursore muoversi nel browser web mentre le azioni vengono eseguite per loro conto in tempo reale. Tuttavia, per dare agli utenti un maggiore controllo sulle loro azioni sul web, l’estensione di Chrome non può compilare numeri di carta di credito o informazioni di fatturazione, accettare cookie per gli utenti o firmare un accordo sui termini di servizio. Ad esempio, se un utente chiede a Mariner di “creare un carrello della spesa da un negozio di alimentari basato su questa lista”, l’agente di Google navigherà verso il sito web di un negozio di alimentari e aggiungerà gli articoli elencati a un carrello virtuale. Mariner funziona scattando schermate del browser dell’utente e inviandole a Gemini 2.0 nel cloud per l’elaborazione. Gemini invia quindi al computer dell’utente le istruzioni per la navigazione della pagina web. Si noti che l’agente di Google funziona solo nella scheda attiva dell’utente, il che significa che non è possibile utilizzare il browser per altre attività mentre l’agente AI lavora in background. Mariner non rappresenta solo una pietra miliare nella tecnologia AI, ma anche un cambiamento nell’usabilità e nei test degli utenti. Milioni di aziende si affidano storicamente a Google per inviare persone reali a visitare e utilizzare i loro siti web. Tuttavia, se il progetto Mariner andrà a buon fine, gli utenti saranno presto meno coinvolti nei siti web che visitano, il che significa che non sarà più necessario l’intervento di esseri umani per condurre test di usabilità e di utilizzo. Cosa sono i test di usabilità e di utilizzo? Prima di scoprire come il Project Mariner ridefinirà l’usabilità e i test utente, cerchiamo di capire meglio questi metodi/processi di ricerca. Sia l’usabilità che i test sugli utenti vengono utilizzati per raccogliere informazioni utili che consentono ai designer e ai team di prodotto di creare una migliore esperienza utente (UX). I test di usabilità valutano il design e la funzionalità del prodotto, valutando la facilità e l’efficacia con cui gli utenti possono svolgere le loro attività utilizzando il sito web o l’applicazione. Il processo di verifica dell’usabilità di un sito web consiste nel chiedere a utenti reali (piuttosto che a designer e sviluppatori) di completare una serie di compiti specifici sul sito web. I risultati, la percentuale di successo e i percorsi seguiti dall’utente per completare le attività vengono analizzati in modo che il team di prodotto possa identificare le aree di miglioramento e i problemi che altrimenti potrebbero essere trascurati. Ad esempio, durante un test di usabilità per un nuovo sito di e-commerce, agli utenti potrebbe essere chiesto di trovare e acquistare un articolo specifico sul sito. Gli sviluppatori e i designer possono così verificare la facilità con cui l’utente naviga nel sito, trova il prodotto assegnato e supera il processo di acquisto. Il test degli utenti è diverso e spesso precede il test di usabilità, in quanto mira a garantire che il prodotto soddisfi le esigenze e le aspettative degli utenti, valutando la soddisfazione del prodotto, scoprendo i punti dolenti degli utenti e raccogliendo i loro feedback. I metodi più comuni di test degli utenti includono sondaggi, interviste e focus group. Tuttavia, nonostante le loro differenze, sia i test degli utenti che quelli di usabilità sono parti cruciali del processo di progettazione ed è quasi impossibile costruire un buon sito web o un’app senza questi processi. Infatti, un’esperienza utente frustrante può indurre quasi il 90% degli acquirenti online a non tornare più su un sito di e-commerce. In che modo il Project Mariner ridefinirà l’usabilità e i test degli utenti? Tradizionalmente, l’esperienza dell’utente è stata incentrata sulla soddisfazione umana, rendendo gli utenti umani il motivo principale dell’usabilità e dei test sugli utenti. Tuttavia, un esito positivo del Project Mariner di Google potrebbe significare che gli utenti umani saranno meno coinvolti nei siti web che visitano. Questo perché l’agente AI sarà in grado di portare a termine i compiti per loro conto, seguendo una semplice richiesta. In primo luogo, con gli agenti di intelligenza artificiale come utenti principali di siti web e app, possiamo aspettarci di vedere un cambiamento nei metodi di test di usabilità e utente, compresa l’introduzione di un doppio approccio: Test incentrati sull’uomo. I metodi tradizionali di test dell’usabilità e dell’utente dovrebbero rimanere in vigore

Le persone fanno più ricerche, ma non solo su Google

Le persone fanno più ricerche, ma non solo su Google

Stiamo vivendo un’evoluzione della ricerca. E come in ogni grande cambiamento, stiamo ricevendo informazioni contrastanti. Apprendiamo che Google gestisce 5.000 miliardi di ricerche annue e allo stesso tempo apprendiamo che la quota di mercato di Google è scesa sotto il 90% per la prima volta dal 2015. Leggiamo che i chatbot AI stanno esplodendo mentre apprendiamo che la loro quota di mercato è ancora inferiore all’1%. Sentiamo previsioni come “il traffico dei motori di ricerca calerà del 25% entro il 2026” e che “il 42% delle persone afferma che Google sta diventando meno utile” nello stesso momento in cui sentiamo che gli studi hanno rilevato che la ricerca su Google è cresciuta del 20% nell’ultimo anno. Tutto questo è vero. La ricerca si sta contraendo mentre si espande e stiamo vivendo i dolori della crescita. Due sono i fattori principali che stanno guidando questa evoluzione – e chiedersi quale sia l’uno che guida l’altro è come chiedersi se sia nato prima l’uovo o la gallina, quindi concordiamo sul fatto che entrambi sono sullo stesso piano: L’intelligenza artificiale si sta contraendo. Il comportamento degli utenti si sta espandendo. L’esplosione dell’intelligenza artificiale sta cambiando in modo permanente il panorama della ricerca. Mentre i chatbot AI come ChatGPT e Gemini continuano a imparare, i motori di ricerca come Google stanno incorporando l’AI in modi nuovi e in continua evoluzione. Google continua a testare e a perfezionare le sue panoramiche sull’intelligenza artificiale e ha ampliato la modalità AI, la sua nuova scheda di ricerca basata sull’intelligenza artificiale. I motori di ricerca AI come Perplexity continuano a essere utilizzati costantemente, anche se la quota di mercato è una misera frazione di quella di Google. L’avvento dell’intelligenza artificiale negli spazi di ricerca tradizionali sta riducendo le aree di ricerca disponibili per i brand. I marchi che in precedenza dipendevano dal traffico informativo e ad alto flusso vengono colpiti duramente dalle panoramiche dell’intelligenza artificiale che riducono la pagina 1 di Google, creando risultati di ricerca più competitivi con meno spazio, meno link e potenzialmente meno visibilità. Ma il comportamento degli utenti sta ampliando – o più precisamente, facendo esplodere – la nostra idea di ricerca. il 76% dei consumatori ha utilizzato una piattaforma di social media per effettuare ricerche e il 52% delle persone dichiara di rivolgersi a piattaforme non Google per ottenere informazioni. Questo è dovuto in parte a piattaforme più intelligenti, veloci e personalizzate (*ahem* TikTok) e in parte al fatto che le persone sono stufe di passare al setaccio i tradizionali risultati di ricerca di Google. Per esempio, il 54% delle persone guarda più risultati di ricerca rispetto a cinque anni fa, non perché amino l’esperienza, ma perché è più difficile trovare le informazioni che desiderano.   Il marketing digitale è particolarmente confuso in questo momento perché questi due enormi cambiamenti stanno avvenendo contemporaneamente. I motori di ricerca si stanno evolvendo, integrando l’intelligenza artificiale e ricalibrando la tecnologia per cercare di anticipare le richieste degli utenti; allo stesso tempo, i modelli di ricerca si stanno evolvendo: le persone cercano informazioni al di là dei motori di ricerca tradizionali e si aspettano risposte rapide, accurate e utili. Google è consapevole del cambiamento dei modelli di ricerca e sente la concorrenza delle applicazioni dei social media; puoi vedere la risposta di Google a questa concorrenza nei suoi recenti aggiornamenti. La nuova scheda Video brevi e l’inclusione di caroselli di video di breve durata nei risultati di ricerca ne sono un ottimo esempio, con Google che fa emergere video di TikTok, Instagram Reels e YouTube Shorts piuttosto che i normali video ospitati su YouTube e altre piattaforme video. Quindi, cosa ne consegue per i marketer? La nostra idea di ricerca deve espandersi oltre la ricerca tradizionale perché le persone stanno già migrando. Cercano informazioni in modi diversi, su piattaforme diverse, utilizzando la ricerca vocale, testuale e per immagini e desiderano come risposte video di breve durata e risposte scritte accurate e facili da digerire. Non possiamo aspettare che i motori di ricerca tradizionali si adeguino all’evoluzione dei comportamenti di ricerca. In questo senso, il nostro lavoro di marketer rimane lo stesso: dobbiamo creare contenuti che risuonino con il nostro pubblico e assicurarci che siano ottimizzati per essere trovati, ovunque si trovino su internet. Leggi di più su www.adweek.com

L’IA agenziale si sta avvicinando rapidamente. Ecco come fare per ottenere il giusto risultato

L'IA agenziale si sta avvicinando rapidamente. Ecco come fare per ottenere il giusto risultato

Sono scettico come chiunque altro nei confronti degli ultimi annunci di “oggetti luccicanti”. E appena tornato da Cannes Lions, aziende grandi e piccole hanno avuto importanti novità da condividere; l’arrivo dell’intelligenza artificiale agenziale era sulla bocca di tutti. Al momento, i team di marketing gestiscono da 80 a 120 strumenti e piattaforme diverse. La metà delle volte non riescono nemmeno a parlarsi facilmente: sono isolati. Le API vengono in soccorso e forniscono la connettività da piattaforma a piattaforma necessaria per alimentare l’ecosistema adtech di oggi. Ma le API non risolvono il problema dell’orchestrazione multipiattaforma. Se vuoi eseguire una semplice campagna di attivazione del pubblico su più canali, improvvisamente hai bisogno di un team di ingegneri solo per realizzarla. Quindi, mentre tutti sulla Croisette corrono verso gli agenti AI che promettono di automatizzare i flussi di lavoro complessi, come possono le aziende iniziare ad abilitare l’AI nei loro stack tecnologici? È qui che entra in gioco il Model Context Protocol. L’MCP non ispirerà titoli di giornale che parlano di cambiamenti epocali per la tua carriera. Non ci saranno sessioni di conferenze in cui gli MCP sostituiranno il tuo lavoro di creativo pluripremiato. Ma è molto probabile che l’MCP si stia affermando come lo standard che renderà il nostro futuro di marketing agenziale una realtà. La base della connettività Le API sono gli OG della connettività. Esistono dagli anni ’50(in realtà). Le API sono utilizzate per collegare gli stack tecnologici di oggi, ma chiaramente non sono state costruite pensando agli agenti AI. Considera un tipico flusso di lavoro di una campagna: Vuoi creare un pubblico nella tua piattaforma di dati dei clienti, inviarlo a The Trade Desk e Meta, ricevere un resoconto, ottimizzare in base alle prestazioni, monitorare le conversioni e inviare un riepilogo al tuo cliente. Sembra abbastanza semplice. Ma in realtà, hai a che fare con limiti di tariffa diversi, strutture di dati differenti e circa sei diversi punti in cui l’intera faccenda può andare a rotoli. Ora, immagina di cercare di far gestire questo flusso di lavoro a un agente AI. Con le API, dovresti insegnare all’agente i requisiti specifici di ogni piattaforma, ogni condizione di errore e ogni piccolo problema che si presenta con ogni integrazione. Questo non ha senso per l’azienda, soprattutto quando si parla di 80-120 piattaforme nel proprio stack tecnologico.   MCP ribalta completamente la situazione. Invece di dover comprendere la complessità tecnica di ogni piattaforma, gli agenti comunicano attraverso i server di protocollo che forniscono un contesto (la “C” di MCP) su ciò che ogni sistema può fare e su come lavorare con esso. Si tratta di dare al tuo agente un ottimo interprete per ogni piattaforma del tuo stack. Come si presenta in realtà l’orchestrazione agenziale La promessa non è solo quella di semplificare le integrazioni. Si tratta di rendere finalmente possibile il tipo di flussi di lavoro automatizzati di cui si parla da anni. In questo momento potrei scrivere in un’interfaccia di chat: “Prendi il nostro segmento di clienti di alto valore dalla campagna dell’ultimo trimestre. Eseguila sui canali sociali e programmatici. Punta a un ritorno sulla spesa pubblicitaria di oltre quattro volte e inviami ogni settimana aggiornamenti sull’andamento della campagna” Un agente dotato delle giuste connessioni MCP potrebbe teoricamente eseguire l’intero flusso di lavoro senza che io tocchi un’altra piattaforma. Anche in questo caso, non si tratta di un futuro di cinque anni. I principali fornitori di LLM hanno già adottato l’MCP come standard: OpenAI, Gemini e Claude lo supportano. Il futuro è adesso. Perché questa volta dovrebbe essere diverso Ciò che mi piace di MCP rispetto a tutte le altre soluzioni di integrazione “rivoluzionarie” che abbiamo visto è la modularità. Non sei vincolato all’ecosistema di un fornitore o costretto a ricostruire tutto per renderlo compatibile con l’AI o quando aggiungi una nuova piattaforma. La gestione di connessioni basate su API su scala richiede risorse reali. MCP aggiunge un nuovo livello di connessione che rende le stesse API utilizzabili dagli agenti su più piattaforme, estendendo il valore delle API, non sostituendole. Pensaci da un punto di vista pratico. Se stai gestendo uno stack tecnologico aziendale, non puoi aspettare che ogni fornitore crei integrazioni AI native. Ma puoi usare MCP come ponte tra le API esistenti e queste nuove funzionalità agenziali. I guardrail di cui abbiamo effettivamente bisogno Forse ti starai chiedendo se avremo agenti di intelligenza artificiale che si muoveranno a piede libero con i nostri budget per i media. Senti, lo capisco. L’idea di sistemi autonomi che prendono decisioni in tempo reale sui budget dei clienti dovrebbe renderti nervoso. Il punto è che si tratta di salvaguardare il sistema. Gli MCP funzionano attraverso i framework API esistenti, quindi ereditano le protezioni che hai già in vigore. Inoltre, puoi aggiungere ulteriori controlli. Anche i profili utente limitano le attività degli agenti. I punti di controllo obbligatori per l’approvazione sono una salvaguardia essenziale per le decisioni importanti, e ci sono tracce di audit per ogni cosa. L’obiettivo non è eliminare la supervisione umana. Il punto è il ruolo del giudizio dei professionisti. Invece di spostare manualmente i file tra i sistemi e di fare da babysitter alle integrazioni, dovresti stabilire i parametri strategici e fare delle scelte di ottimizzazione di alto livello, mentre gli agenti si occupano delle attività operative.   Inizia dalle piccole cose. Magari si tratta solo di automatizzare i trasferimenti di file del pubblico. Poi magari si tratta di un’aggregazione di base dei report. Prima striscia, poi cammina e infine corri. La scelta Quello a cui molti non pensano ancora è che l’MCP non si limita a collegare le tue piattaforme. Si tratta di aggiungere un nuovo livello di connettività a cui altre aziende possono collegarsi. La questione è se costruire questo livello di orchestrazione o se sperare che qualcun altro lo costruisca per te. Dobbiamo essere più intelligenti con questo strumento. Scegli con cura i fornitori di MCP. Inizia con casi d’uso chiari. Costruisci strutture di governance prima di averne bisogno. E per favore, per il bene

Nvidia recupera il titolo di azienda di maggior valore grazie allo slancio dell’intelligenza artificiale

Nvidia recupera il titolo di azienda di maggior valore grazie allo slancio dell'intelligenza artificiale

Nvidia è diventata brevemente l’azienda di maggior valore al mondo mercoledì dopo che le sue azioni sono balzate di oltre il 4% fino a un nuovo massimo di 154,10 dollari, spingendo il suo valore di mercato a 3,76 trilioni di dollari. Secondo Reuters, il chipmaker ha superato Microsoft, che si è attestata a 3,65 trilioni di dollari dopo un guadagno minore. Il rialzo segue una nota di Loop Capital, che ha alzato il suo obiettivo di prezzo per Nvidia a 250 dollari da 175 dollari. L’azienda ha mantenuto il rating “buy” (acquistare) e ha affermato che la domanda di IA generativa potrebbe crescere più rapidamente del previsto. “Stiamo entrando nella prossima ‘Onda d’Oro’ dell’adozione dell’IA generativa e Nvidia si trova nella fase iniziale di un’altra tappa fondamentale di una domanda più forte del previsto”, ha dichiarato Ananda Baruah, analista di Loop Capital. Il rinnovato interesse per l’IA ha spinto gli investitori a tornare sui titoli tecnologici, in particolare sulle aziende che si occupano di chip e infrastrutture di dati. Nvidia, che progetta GPU ad alte prestazioni utilizzate nei modelli di IA, è stata una figura chiave in questa tendenza. Nonostante la forte performance del titolo, la sua valutazione non sembra essere eccessivamente esagerata. Nvidia viene scambiata a circa 30 volte gli utili previsti per il prossimo anno, al di sotto della sua media quinquennale di 40 volte. Ciò indica che gli analisti hanno alzato le loro previsioni perché l’azienda continua a realizzare profitti maggiori. Nell’ultimo anno Nvidia, Microsoft e Apple si sono avvicendate al primo posto per valore di mercato. Di recente Microsoft era passata in vantaggio, ma questa settimana Nvidia ha riguadagnato la testa della classifica. Le azioni di Apple sono aumentate dello 0,4% mercoledì, portando la sua valutazione a circa 3.000 miliardi di dollari. Il valore delle azioni di Nvidia è salito di oltre il 60% da quando ha toccato il minimo all’inizio di aprile. Quel calo si è verificato durante un sell-off più ampio innescato dagli annunci di Donald Trump sui dazi doganali. Da allora i mercati si sono stabilizzati, sperando in accordi commerciali che possano ridurre la pressione sull’azienda. Anche il settore tecnologico in generale si sta muovendo verso valutazioni più elevate. L’indice tecnologico S&P 500 è salito dello 0,9% mercoledì, raggiungendo un nuovo record. Finora ha guadagnato quasi il 6% nel 2025. La spinta di Tesla verso l’intelligenza artificiale va oltre le auto a guida autonoma Tesla è nota soprattutto per i veicoli elettrici, ma l’azienda sta anche lavorando per sviluppare le sue capacità di intelligenza artificiale e il suo progetto di robotaxi, oltre a un lavoro meno conosciuto nel campo della robotica. Mentre molti si concentrano sulla spinta di Tesla a lanciare un servizio di ride-hailing a guida autonoma, l’amministratore delegato Elon Musk ha parlato anche di un futuro di AI più ampio. Come ha sottolineato The Motley Fool, un esempio è Optimus, un robot umanoide che l’azienda sta sviluppando per le fabbriche e, potenzialmente, per l’uso domestico. Il CEO di Nvidia Jensen Huang ha recentemente sottolineato il potenziale di questo mercato, definendo la robotica umanoide un “settore da miliardi di dollari” Ha citato il progetto Optimus di Tesla come uno degli sforzi che hanno attirato la sua attenzione. Tesla vede due utilizzi principali per Optimus. In primo luogo, il robot potrebbe essere addestrato con l’apprendimento automatico per aiutare le linee di produzione dell’azienda. Con il tempo, potrebbe occuparsi di un maggior numero di compiti e operare senza pause, aumentando la produzione della fabbrica. In secondo luogo, Tesla potrebbe vendere Optimus ad altri settori in cui il lavoro è fisicamente impegnativo. Il robot potrebbe essere adattato a contesti più ordinari al di fuori delle fabbriche. Musk ha dichiarato che Optimus potrebbe diventare più prezioso del settore automobilistico dell’azienda. Anche altre aziende stanno lavorando in questo settore. Figure AI, una startup sostenuta da Nvidia, sta sviluppando robot umanoidi simili da utilizzare nelle fabbriche. Un video dimostrativo mostra come le sue macchine potrebbero lavorare al fianco delle persone per aumentare la produzione e ridurre i compiti ripetitivi. Cosa succederà alle azioni di Tesla? Il prezzo delle azioni di Tesla è balzato di quasi il 30%, grazie anche al lancio dei robotaxi. L’azienda ha iniziato a testare il servizio in Texas questa settimana, il che ha contribuito ad alimentare l’ottimismo degli investitori. Ma alcuni analisti sostengono che il titolo potrebbe aver già raggiunto il massimo a causa dell’entusiasmo a breve termine dell’annuncio di Optimus. Tesla tende a muoversi in base ai titoli dei giornali e lo stesso schema potrebbe essere applicato ai suoi progetti di robot e robotaxi. Anche se Optimus potrebbe diventare una parte importante del futuro di Tesla, è ancora presto. Restano da chiarire i tempi di scalabilità del robot, il suo confronto con le altre opzioni e la capacità dell’azienda di trasformare il progetto in un vero e proprio business. Gli investitori che osservano i piani di Tesla in materia di intelligenza artificiale potrebbero voler vedere ulteriori progressi prima di fare nuove scommesse. (Foto di Mariia Shalabaieva) Leggi di più su www.artificialintelligence-news.com

Protezione AI dai deepfakes o minaccia alla libertà di internet?

Protezione AI dai deepfakes o minaccia alla libertà di internet?

I critici temono che la revisione della legge NO FAKES si sia trasformata da una protezione mirata dei deepfakes generati dall’IA in un ampio potere di censura. Quello che era iniziato come un tentativo apparentemente ragionevole di affrontare i deepfakes generati dall’IA si è trasformato in qualcosa di molto più preoccupante, secondo i sostenitori dei diritti digitali. Il tanto discusso Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES) Act – originariamente volto a prevenire le repliche digitali non autorizzate di persone – ora minaccia di alterare radicalmente il funzionamento di Internet. L’espansione della legge ha fatto suonare un campanello d’allarme in tutta la comunità tecnologica. È andata ben oltre la semplice protezione delle celebrità dai video falsi, creando potenzialmente un quadro di censura a tutto campo. Dalle salvaguardie ragionevoli all’approccio a colpi di mazza L’idea iniziale non era del tutto sbagliata: creare una protezione contro i sistemi di intelligenza artificiale che generano video falsi di persone reali senza autorizzazione. Abbiamo visto tutti quegli inquietanti deepfake che circolano online. Ma invece di elaborare misure mirate e ristrette, i legislatori hanno optato per quello che la Electronic Frontier Foundation definisce un “sistema di licenze d’immagine federalizzato” che va ben oltre le ragionevoli tutele. “Il disegno di legge aggiornato raddoppia l’approccio sbagliato iniziale”, osserva la EFF, “imponendo un’intera nuova infrastruttura di censura per questo sistema, che comprende non solo le immagini ma anche i prodotti e i servizi utilizzati per crearle” Particolarmente preoccupante è l’obbligo imposto dalla legge NO FAKES a quasi tutte le piattaforme internet di implementare sistemi che non solo rimuovano i contenuti dopo aver ricevuto le notifiche di rimozione, ma che impediscano anche che contenuti simili vengano caricati di nuovo. In sostanza, si tratta di costringere le piattaforme a implementare filtri per i contenuti che si sono dimostrati notoriamente inaffidabili in altri contesti. Innovazione agghiacciante L’aspetto forse più preoccupante per il settore dell’intelligenza artificiale è il modo in cui il NO FAKES Act prende di mira gli strumenti stessi. Il disegno di legge rivisto non si limita a perseguire i contenuti dannosi, ma potenzialmente potrebbe bloccare intere piattaforme di sviluppo e strumenti software che potrebbero essere utilizzati per creare immagini non autorizzate. Questo approccio ricorda il tentativo di vietare i word processor perché qualcuno potrebbe usarli per scrivere contenuti diffamatori. Il disegno di legge prevede alcune limitazioni (ad esempio, gli strumenti devono essere “principalmente progettati” per creare repliche non autorizzate o avere altri usi commerciali limitati), ma queste distinzioni sono notoriamente soggette a interpretazione. Le piccole startup britanniche che si avventurano nella generazione di immagini AI potrebbero trovarsi coinvolte in costose battaglie legali basate su accuse inconsistenti molto prima di avere la possibilità di affermarsi. Nel frattempo, i giganti della tecnologia con eserciti di avvocati possono affrontare meglio queste tempeste, potenzialmente rafforzando il loro dominio. Chiunque abbia avuto a che fare con il sistema ContentID di YouTube o con strumenti simili di filtraggio del copyright sa quanto possano essere frustranti e imprecisi. Questi sistemi segnalano abitualmente i contenuti legittimi, come i musicisti che eseguono le proprie canzoni o i creatori che utilizzano materiale in base a disposizioni di fair dealing. Il NO FAKES Act imporrebbe di fatto sistemi di filtraggio simili in tutta Internet. Pur prevedendo delle eccezioni per la parodia, la satira e i commenti, l’applicazione di queste distinzioni a livello algoritmico si è rivelata praticamente impossibile. “Questi sistemi spesso segnalano cose simili ma non uguali”, spiega l’EFF, “come due persone diverse che suonano lo stesso brano musicale di dominio pubblico” Per le piattaforme più piccole che non dispongono delle risorse di Google, l’implementazione di tali filtri potrebbe rivelarsi proibitiva. Il risultato probabile? Molte piattaforme si limiterebbero a censurare in modo eccessivo per evitare rischi legali. In effetti, ci si potrebbe aspettare che le principali aziende tecnologiche si oppongano a una regolamentazione così ampia. Tuttavia, molte di esse sono rimaste vistosamente silenziose. Alcuni osservatori del settore suggeriscono che non si tratta di una coincidenza: i giganti affermati possono assorbire più facilmente i costi di conformità che schiaccerebbero i concorrenti più piccoli. “Probabilmente non è una coincidenza che alcuni di questi giganti siano d’accordo con questa nuova versione di NO FAKES”, osserva la EFF. Questo schema si ripete in tutta la storia delle normative tecnologiche: ciò che sembra essere una normativa che regolamenta le Big Tech spesso finisce per consolidare la loro posizione sul mercato creando barriere troppo costose da superare per i nuovi arrivati. La legge NO FAKES minaccia il discorso anonimo Nascosta nella legge c’è un’altra disposizione preoccupante che potrebbe esporre gli utenti anonimi di Internet sulla base di semplici accuse. Il disegno di legge consentirebbe a chiunque di ottenere un mandato di comparizione da parte del cancelliere di un tribunale – senza controllo giudiziario o prove – costringendo i servizi a rivelare le informazioni di identificazione degli utenti accusati di aver creato repliche non autorizzate. La storia dimostra che tali meccanismi sono pronti per essere abusati. I critici con argomenti validi possono essere smascherati e potenzialmente molestati quando i loro commenti includono screenshot o citazioni delle stesse persone che cercano di metterli a tacere. Questa vulnerabilità potrebbe avere un effetto profondo sulle critiche legittime e sul whistleblowing. Immagina di denunciare una cattiva condotta aziendale per poi veder rivelata la tua identità attraverso un processo di citazione in giudizio. Questa spinta verso un’ulteriore regolamentazione sembra strana se si considera che il Congresso ha recentemente approvato il Take It Down Act, che già prende di mira le immagini con contenuti intimi o sessuali. Questa stessa legge ha sollevato problemi di privacy, in particolare per quanto riguarda il monitoraggio delle comunicazioni criptate. Piuttosto che valutare l’impatto della legislazione esistente, i legislatori sembrano decisi a portare avanti restrizioni più ampie che potrebbero rimodellare la governance di Internet per i decenni a venire. Le prossime settimane saranno cruciali per l’iter legislativo del NO FAKES Act. Per tutti coloro che tengono alla libertà di internet, all’innovazione e ad approcci equilibrati alle sfide tecnologiche emergenti, questa vicenda va seguita con attenzione.

Apple accenna al futuro dell’automazione della progettazione di chip AI

Apple accenna al futuro dell'automazione della progettazione di chip AI

Apple sta iniziando a utilizzare l’intelligenza artificiale generativa per progettare i chip che alimentano i suoi dispositivi. Il responsabile hardware dell’azienda, Johny Srouji, lo ha detto chiaramente durante un discorso tenuto il mese scorso in Belgio. Ha detto che Apple sta esplorando l’intelligenza artificiale come un modo per risparmiare tempo e ridurre la complessità della progettazione dei chip, soprattutto quando questi ultimi diventano sempre più avanzati. “Le tecniche di IA generativa hanno un alto potenziale per ottenere più lavoro di progettazione in meno tempo e possono rappresentare un enorme aumento della produttività”, ha detto Srouji. Srouji ha parlato mentre riceveva un premio da Imec, un gruppo di ricerca sui semiconduttori che collabora con i principali produttori di chip di tutto il mondo. Ha anche ricordato quanto Apple dipenda dai software di terze parti delle aziende di automazione della progettazione elettronica (EDA). Gli strumenti sono fondamentali per lo sviluppo dei chip dell’azienda. Synopsys e Cadence, due delle più grandi aziende di EDA, stanno lavorando per aggiungere più intelligenza artificiale ai loro strumenti di progettazione. Dall’A4 a Vision Pro: Una cronologia di progettazione Le osservazioni di Srouji hanno offerto un raro sguardo al processo interno di Apple. Ha ripercorso il cammino di Apple, partendo dal chip A4 dell’iPhone 4, lanciato nel 2010. Da allora, Apple ha realizzato una serie di chip personalizzati, tra cui quelli utilizzati nell’iPad, nell’Apple Watch e nel Mac. L’azienda ha anche sviluppato i chip che gestiscono le cuffie Vision Pro. Ha affermato che, sebbene l’hardware sia importante, la vera sfida risiede nella progettazione. Nel corso del tempo, la progettazione dei chip è diventata più complessa e ora richiede uno stretto coordinamento tra hardware e software. Srouji ha affermato che l’intelligenza artificiale ha il potenziale per rendere questo coordinamento più veloce e affidabile. Perché Apple sta lavorando con Broadcom sui chip per server Alla fine del 2024, Apple ha avviato un progetto silenzioso con il fornitore di chip Broadcom per sviluppare il suo primo chip server AI. Si dice che il processore, noto internamente come “Baltra”, faccia parte del più ampio piano di Apple per supportare un maggior numero di servizi AI sul lato posteriore. Ciò include funzioni legate ad Apple Intelligence, la nuova suite di strumenti di intelligenza artificiale dell’azienda per iPhone, iPad e Mac. Baltra dovrebbe alimentare l’infrastruttura cloud privata di Apple. A differenza dei dispositivi che eseguono l’intelligenza artificiale in locale, questo chip sarà collocato nei server, probabilmente all’interno dei data center di Apple. Questo chip aiuterà a gestire i carichi di lavoro AI più pesanti che sono troppo impegnativi per i chip on-device. On-device vs. cloud: La divisione dell’infrastruttura AI di Apple Apple sta cercando di bilanciare la privacy degli utenti con la necessità di disporre di funzioni AI più potenti. Alcuni dei suoi strumenti di intelligenza artificiale verranno eseguiti direttamente sui dispositivi. Altri utilizzeranno chip basati su server come Baltra. La configurazione fa parte di ciò che Apple chiama “Private Cloud Compute” L’azienda afferma che gli utenti non dovranno registrarsi e i dati saranno mantenuti anonimi. Ma l’approccio dipende da una solida base di hardware, sia nei dispositivi che nel cloud. È qui che entrano in gioco chip come Baltra. Costruire i propri chip server darebbe ad Apple un maggiore controllo sulle prestazioni, sulla sicurezza e sull’integrazione. Nessun piano di riserva: Uno schema nella strategia hardware di Apple Srouji ha detto che Apple è abituata a correre grossi rischi nel campo dell’hardware. Quando l’azienda ha spostato la linea di Mac da Intel ad Apple Silicon nel 2020, non ha preparato un piano di riserva. “Il passaggio del Mac ad Apple Silicon è stata una grande scommessa per noi. Non c’era un piano di riserva, né un piano di split-the-lineup, quindi ci siamo buttati a capofitto, compreso un monumentale sforzo software”, ha dichiarato. La stessa mentalità sembra ora applicarsi ai chip AI di Apple. Srouji ha dichiarato che l’azienda è disposta a puntare ancora una volta tutto su di sé, confidando che gli strumenti di intelligenza artificiale possano rendere il processo di progettazione dei chip più veloce e preciso. Aziende EDA come Synopsys e Cadence danno forma alla tabella di marcia Pur progettando i propri chip, Apple dipende in larga misura dagli strumenti realizzati da altre aziende. Srouji ha ricordato l’importanza dei fornitori EDA per gli sforzi di Apple nel campo dei chip. Cadence e Synopsys stanno aggiornando i loro software per includere più funzioni di intelligenza artificiale. Synopsys ha recentemente introdotto un prodotto chiamato AgentEngineer. Utilizza agenti AI per aiutare i progettisti di chip ad automatizzare le attività ripetitive e a gestire flussi di lavoro complessi. L’idea è quella di lasciare che gli ingegneri umani si concentrino su decisioni di livello superiore. I cambiamenti potrebbero rendere più facile per aziende come Apple accelerare lo sviluppo dei chip. Anche Cadence sta ampliando la sua offerta di AI. Entrambe le aziende sono in corsa per soddisfare le esigenze delle aziende tecnologiche che vogliono metodi più veloci ed economici per progettare chip. Cosa succederà in seguito: Talenti, test e produzione Man mano che Apple inserirà l’intelligenza artificiale nella progettazione dei suoi chip, avrà bisogno di nuovi tipi di talenti. Tra questi, ingegneri in grado di lavorare con gli strumenti di IA e persone che conoscono sia l’hardware che l’apprendimento automatico. Allo stesso tempo, i chip come Baltra devono ancora essere testati e prodotti. Probabilmente Apple continuerà ad affidarsi a partner come TSMC per la produzione di chip. Ma il lavoro di progettazione si sta spostando sempre più all’interno dell’azienda e l’intelligenza artificiale sta giocando un ruolo maggiore in questo cambiamento. Il modo in cui Apple integrerà questi chip progettati dall’intelligenza artificiale nei prodotti e nei servizi è ancora da vedere. Ciò che è chiaro è che l’azienda sta cercando di rafforzare il proprio controllo su tutto lo stack: hardware, software e ora anche l’infrastruttura che alimenta l’IA. Leggi di più su www.artificialintelligence-news.com

Il futuro dell’intelligenza artificiale in Cina e il gioco lungo di Huawei

Il futuro dell'intelligenza artificiale in Cina e il gioco lungo di Huawei

Se chiedi a Ren Zhengfei, CEO di Huawei, di esprimere la sua opinione sull’IA in Cina e sulle difficoltà che la sua azienda deve affrontare, otterrai risposte sorprendenti. “Non ci ho pensato”, afferma Ren in un’intervista al People’s Daily. “È inutile pensarci” In un mondo ossessionato dai piani quinquennali e dalla gestione delle crisi, il suo consiglio è quasi stridente nella sua semplicità: “Non pensare alle difficoltà. Fallo e basta e vai avanti passo dopo passo” Non si tratta solo di un mantra personale: è il modello di come Huawei sta affrontando una tempesta di sanzioni e blocchi internazionali. È una determinazione tranquilla che traspare da tutte le sue risposte. Quando la conversazione si sposta sui chip avanzati Ascend AI di Huawei, è quasi brutalmente onesto. Non si vanta. Anzi, ritiene che il clamore abbia superato la realtà. “Gli Stati Uniti hanno esagerato i risultati di Huawei. Huawei non è ancora così grande”, ammette, sottolineando che i suoi migliori chip sono ancora indietro di una generazione. Quindi cosa fare quando non si possono acquistare gli strumenti migliori? Secondo Ren, si diventa più intelligenti con quelli che si hanno. Spiega che Huawei si sta affidando alla sua bravura nel software e nella matematica per colmare il gap hardware nell’AI e non solo. “Usiamo la matematica per compensare la fisica”, afferma, descrivendo una strategia che prevede l’uso del codice e il collegamento dei chip in potenti cluster per ottenere risultati in grado di competere con i migliori. L’ingegno nasce dalla necessità. Questa prospettiva fondata si applica tanto alle persone quanto ai prodotti. In un’epoca di promozione aziendale incessante, Ren è diffidente nei confronti dei riflettori. “Siamo molto sotto pressione anche quando le persone ci elogiano”, rivela. “Saremo più sobri quando le persone ci criticheranno” Vede le critiche a Huawei non come un attacco, ma come un regalo da parte delle persone che usano davvero i loro prodotti. È un segno di un rapporto sano. Il suo obiettivo è sempre lo stesso: “Non preoccuparti delle lodi o delle critiche, ma preoccupati di fare bene” Ma il vero cuore della visione di Ren, l’idea che lo anima veramente, risiede in qualcosa di molto più profondo e lento del prossimo ciclo di prodotti: la ricerca scientifica di base. Ne parla con la passione di un filosofo, sostenendo che è l’anima stessa del progresso. “Se non facciamo ricerca di base, non avremo radici”, avverte. “Anche se le foglie sono rigogliose e fiorenti, cadranno quando soffierà il vento” Per Huawei, queste non sono solo parole poetiche. Sono sostenute da ingenti investimenti. Su un budget annuale per la ricerca e lo sviluppo di 180 miliardi di yuan (circa 25 miliardi di dollari), ben un terzo – 60 miliardi di yuan (~8,34 miliardi di dollari) – è destinato alla ricerca teorica. Si tratta di denaro speso senza l’aspettativa di un ritorno immediato, una scommessa a lungo termine sul potere della curiosità umana. È un investimento in un futuro che potrebbe essere lontano decenni. Guardando a quel futuro, Ren vede l’intelligenza artificiale come un cambiamento monumentale non solo per Huawei, ma anche per l’umanità. Ritiene che la Cina sia ben posizionata per questa nuova era, non solo per la sua tecnologia, ma anche per le sue potenti infrastrutture e, soprattutto, per le sue persone. Ren immagina un futuro in cui le vere scoperte nel campo dell’IA non verranno solo dai programmatori di giganti tecnologici come Huawei, ma da esperti in ogni campo – medici, ingegneri e persino minatori – che utilizzeranno l’IA per risolvere i problemi del mondo reale. Il suo ottimismo è contagioso. Ricorda un articolo dell’editorialista del New York Times Thomas L. Friedman che ha lasciato la Cina e ha pubblicato un articolo all’inizio di quest’anno con un titolo che non richiede ulteriori spiegazioni: “Ho appena visto il futuro. Non era in America” Ren Zhengfei sembra essere un leader che ha trovato un senso di calma nell’occhio del ciclone. La sua attenzione non è rivolta ai mutevoli venti politici, ma al lento e costante lavoro di costruzione di qualcosa con radici profonde, pronto ad affrontare qualsiasi futuro. Passo dopo passo, con pazienza. (Immagine di credito: Unione Europea con licenza CC BY 4.0.) L’immagine è stata ritagliata per renderla più efficace)   Leggi di più su www.artificialintelligence-news.com

Meta acquista una partecipazione in Scale AI, sollevando problemi di antitrust

Meta acquista una partecipazione in Scale AI, sollevando problemi di antitrust

L’investimento da 14,8 miliardi di dollari di Meta in Scale AI – e l’assunzione dell’amministratore delegato della startup – sta attirando l’attenzione su come le autorità di regolamentazione degli Stati Uniti gestiranno le operazioni di tipo acquihire sotto l’amministrazione Trump. L’accordo conferisce a Meta una partecipazione senza diritto di voto del 49% in Scale AI, che assume lavoratori ambulanti per etichettare i dati di addestramento dei sistemi di intelligenza artificiale. Tra i clienti di Scale ci sono Microsoft e OpenAI, due dei principali concorrenti di Meta nel settore dell’IA. Poiché Meta non ha acquistato una quota di controllo, l’accordo ha evitato la revisione automatica dell’antitrust. Ma le autorità di regolamentazione potrebbero comunque esaminarla se ritengono che la struttura sia stata progettata per eludere i controlli o per danneggiare la concorrenza. Problemi di accesso e di equità Sono già emersi alcuni primi segnali di ripercussioni. Google, uno dei clienti di Scale, avrebbe tagliato i ponti con l’azienda dopo l’annuncio della partecipazione di Meta. Si dice che altri stiano riconsiderando i loro contratti. In risposta, un portavoce di Scale ha dichiarato che il lavoro dell’azienda rimane solido e che si impegna a proteggere i dati dei clienti. Non ha voluto commentare la decisione di Google. Alexandr Wang, il 28enne fondatore e CEO di Scale, si unirà a Meta come parte dell’accordo. Rimarrà nel consiglio di amministrazione di Scale ma non avrà pieno accesso alle informazioni dell’azienda, secondo quanto riferito da persone a conoscenza dell’accordo. Prospettive normative sotto Trump L’amministrazione Trump ha adottato un approccio più leggero alla regolamentazione dell’IA. I funzionari hanno dichiarato di non voler interferire con lo sviluppo dell’IA, ma hanno anche espresso dubbi sul potere detenuto dalle grandi aziende tecnologiche. William Kovacic, professore di legge presso la George Washington University, ha affermato che le autorità di regolamentazione stanno probabilmente osservando da vicino gli accordi sull’IA, anche se non li stanno bloccando. “Non significa necessariamente che interverranno, ma terranno d’occhio ciò che fanno queste aziende”, ha affermato. La Federal Trade Commission (FTC) ha esaminato accordi simili negli ultimi due anni. Sotto l’amministrazione Biden, la FTC ha avviato indagini sull’assunzione da parte di Amazon di talenti chiave dell’azienda di AI Adept e sull’accordo da 650 milioni di dollari di Microsoft con Inflection AI, che le ha dato accesso ai modelli e al personale dell’azienda. L’accordo di Amazon si è concluso senza ulteriori azioni e la FTC non ha preso provvedimenti pubblici contro Microsoft, anche se continua un’indagine più ampia sull’azienda. Spigoli legali e pressioni politiche Alcuni esperti legali sostengono che l’approccio di Meta potrebbe ridurre la sua esposizione legale. David Olson, professore di diritto antitrust presso il Boston College, ha affermato che una quota di minoranza senza diritto di voto offre “molta protezione”, anche se ha sottolineato che la FTC potrebbe comunque indagare sull’accordo se questo solleva dei dubbi. Non tutti sono convinti che l’accordo sia innocuo. La senatrice Elizabeth Warren, che ha spinto per un controllo più severo delle partnership di IA, ha detto che l’investimento di Meta dovrebbe essere esaminato da vicino. “Meta può chiamare questo accordo come vuole”, ha dichiarato. “Ma se infrange la legge riducendo la concorrenza o rendendo più facile il dominio di Meta, le autorità di regolamentazione dovrebbero intervenire” Meta sta affrontando un’azione legale antitrust intentata dalla FTC che sostiene che Meta abbia costruito un monopolio attraverso acquisizioni e il controllo della piattaforma. Non è chiaro se l’agenzia esaminerà anche il suo coinvolgimento con Scale. Nel frattempo, il Dipartimento di Giustizia sta indagando sugli investimenti di Google nell’AI. Secondo Bloomberg, il DOJ sta esaminando la partnership di Google con Character.AI per verificare se sia stata strutturata in modo da eludere la revisione antitrust. I funzionari stanno anche spingendo per una norma che costringa Google a rivelare in anticipo i nuovi investimenti in IA. Un modello più ampio L’accordo Meta-Scale si inserisce in una tendenza più ampia che vede le aziende tecnologiche utilizzare investimenti e accordi sui talenti per assicurarsi l’accesso a strumenti e persone chiave nel campo dell’IA, senza che ciò comporti una revisione antitrust su larga scala. Man mano che aumentano i fondi destinati all’IA e che si formano altre partnership, le autorità di regolamentazione dovranno decidere se questi accordi sono decisioni commerciali legittime o tentativi di aggirare le regole. Per ora, la risposta potrebbe dipendere dal potere che un’azienda acquisisce, anche senza acquistarne il controllo. (Foto di Dima Solomin)   Leggi di più su www.artificialintelligence-news.com