ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

L’IA sperimentale si conclude con l’aumento dei sistemi autonomi

L'IA sperimentale si conclude con l'aumento dei sistemi autonomi

La fase sperimentale dell’IA generativa si sta concludendo, lasciando spazio nel 2026 a sistemi veramente autonomi che agiscono anziché limitarsi a sintetizzare. il 2026 perderà l’attenzione sui parametri del modello e si concentrerà sull’autonomia, sull’efficienza energetica e sulla capacità di navigare in ambienti industriali complessi. I prossimi dodici mesi rappresentano un allontanamento dai chatbot verso sistemi autonomi che eseguono flussi di lavoro con una supervisione minima, costringendo le organizzazioni a ripensare l’infrastruttura, la governance e la gestione dei talenti. I sistemi autonomi di intelligenza artificiale prendono il volante Hanen Garcia, Chief Architect per le telecomunicazioni di Red Hat, sostiene che mentre il 2025 è stato definito dalla sperimentazione, l’anno prossimo segna un “passaggio decisivo verso l’AI agenziale, entità software autonome in grado di ragionare, pianificare ed eseguire flussi di lavoro complessi senza il costante intervento umano” Letelecomunicazioni e l’industria pesante sono i terreni di prova. Garcia indica una traiettoria verso le operazioni di rete autonome (ANO), andando oltre la semplice automazione per arrivare a sistemi autoconfiguranti e autorigeneranti. L’obiettivo commerciale è quello di invertire la commoditizzazione “dando priorità all’intelligenza rispetto alla pura infrastruttura” e di ridurre le spese operative. Dal punto di vista tecnologico, i fornitori di servizi stanno implementando sistemi multiagente (MAS). Piuttosto che affidarsi a un unico modello, questi sistemi consentono ad agenti diversi di collaborare su attività a più fasi, gestendo interazioni complesse in modo autonomo. Tuttavia, la maggiore autonomia introduce nuove minacce. Emmet King, Founding Partner di J12 Ventures, avverte che “man mano che gli agenti AI acquisiscono la capacità di eseguire autonomamente le attività, le istruzioni nascoste incorporate nelle immagini e nei flussi di lavoro diventano potenziali vettori di attacco” Le priorità della sicurezza devono quindi spostarsi dalla protezione degli endpoint alla “gestione e verifica delle azioni autonome dell’intelligenza artificiale” Man mano che le organizzazioni scalano i carichi di lavoro dell’intelligenza artificiale autonoma, si scontrano con un muro fisico: l’energia. King sostiene che sarà la disponibilità di energia, piuttosto che l’accesso al modello, a determinare la scalabilità delle startup. “La scarsità di calcolo è ora una funzione della capacità della rete”, afferma King, suggerendo che la politica energetica diventerà la politica de facto per l’IA in Europa. I KPI devono adattarsi. Sergio Gago, CTO di Cloudera, prevede che le aziende daranno priorità all’efficienza energetica come parametro principale. “Il nuovo vantaggio competitivo non deriverà dai modelli più grandi, ma dall’uso più intelligente ed efficiente delle risorse” I copiloti orizzontali privi di competenze di dominio o di dati proprietari non supereranno i test sul ROI, poiché gli acquirenti misureranno la produttività reale. Il “ROI aziendale più chiaro” emergerà dai settori della produzione, della logistica e dell’ingegneria avanzata, dove l’IA si integra in flussi di lavoro di alto valore piuttosto che in interfacce rivolte al consumatore. L’IA metterà fine alle app statiche nel 2026 Anche il consumo di software sta cambiando. Chris Royles, Field CTO per l’area EMEA di Cloudera, suggerisce che il concetto tradizionale di “app” sta diventando fluido. “Nel 2026, l’AI inizierà a cambiare radicalmente il modo in cui pensiamo alle app, a come funzionano e a come vengono costruite” Gli utenti richiederanno presto moduli temporanei generati dal codice e da un prompt, sostituendo di fatto le applicazioni dedicate. “Una volta che la funzione ha raggiunto il suo scopo, viene chiusa”, spiega Royles, sottolineando che queste app “usa e getta” possono essere costruite e ricostruite in pochi secondi. In questo caso è necessaria una governance rigorosa; le organizzazioni devono avere visibilità sui processi di ragionamento utilizzati per creare questi moduli per garantire che gli errori vengano corretti in modo sicuro. L’archiviazione dei dati deve fare i conti con una situazione simile, soprattutto se l’intelligenza artificiale diventa sempre più autonoma. Wim Stoop, direttore del marketing di prodotto di Cloudera, ritiene che l’era dell’”accumulo digitale” stia finendo, poiché la capacità di archiviazione raggiunge il suo limite. “I dati generati dall’intelligenza artificiale diventeranno usa e getta, creati e aggiornati su richiesta piuttosto che conservati a tempo indeterminato”, prevede Stoop. I dati verificati e generati dall’uomo aumenteranno di valore mentre i contenuti sintetici verranno scartati. Agenti specializzati nella governance dell’intelligenza artificiale si occuperanno del problema. Questi “colleghi digitali” monitoreranno e proteggeranno continuamente i dati, consentendo agli esseri umani di “governare la governance” piuttosto che applicare regole individuali. Ad esempio, un agente di sicurezza potrebbe regolare automaticamente le autorizzazioni di accesso quando nuovi dati entrano nell’ambiente senza l’intervento umano. Sovranità ed elemento umano La sovranità rimane una preoccupazione pressante per l’IT europeo. I dati dell’indagine di Red Hat indicano che il 92% dei leader IT e AI dell’area EMEA considera il software open-source aziendale fondamentale per raggiungere la sovranità. I fornitori sfrutteranno i data center esistenti per offrire soluzioni di AI sovrane, garantendo che i dati rimangano all’interno di specifiche giurisdizioni per soddisfare le richieste di conformità. Emmet King, socio fondatore di J12 Ventures, aggiunge che il vantaggio competitivo si sta spostando dalla proprietà dei modelli al “controllo delle pipeline di formazione e della fornitura di energia”, con i progressi dell’open-source che consentono a un maggior numero di attori di eseguire carichi di lavoro di frontiera. L’integrazione della forza lavoro sta diventando personale. Nick Blasi, cofondatore di Personos, sostiene che gli strumenti che ignorano le sfumature umane – tono, temperamento e personalità – saranno presto obsoleti. Entro il 2026, Blasi prevede che “la metà dei conflitti sul posto di lavoro sarà segnalata dall’intelligenza artificiale prima che i manager se ne accorgano” Questi sistemi si concentreranno su “comunicazione, influenza, fiducia, motivazione e risoluzione dei conflitti”, suggerisce Blasi, aggiungendo che la scienza della personalità diventerà il “sistema operativo” per la prossima generazione di IA autonome, offrendo una comprensione fondata dell’individualità umana piuttosto che raccomandazioni generiche. L’era dell’”involucro sottile” è finita. Gli acquirenti stanno misurando la produttività reale, mettendo a nudo gli strumenti costruiti sulla base dell’hype piuttosto che dei dati proprietari. Per le aziende, il vantaggio competitivo non deriverà più dal noleggio dell’accesso a un modello, ma dal controllo delle pipeline di formazione e dell’energia che lo alimenta. Leggi di più su

Microsoft ‘Promptions’ corregge i suggerimenti dell’AI che non funzionano

Microsoft 'Promptions' corregge i suggerimenti dell'AI che non funzionano

Microsoft ritiene di aver trovato una soluzione al problema delle richieste dell’intelligenza artificiale, della mancata risposta e del ripetersi del ciclo. Questa inefficienza è una perdita di risorse. Il “ciclo di tentativi ed errori può sembrare imprevedibile e scoraggiante”, trasformando quello che dovrebbe essere un incentivo alla produttività in una perdita di tempo. I lavoratori della conoscenza spesso passano più tempo a gestire l’interazione stessa che a comprendere il materiale che speravano di imparare. Microsoft ha rilasciato Promptions (prompt options), un framework per l’interfaccia utente progettato per risolvere questo attrito sostituendo le vaghe richieste in linguaggio naturale con controlli precisi e dinamici dell’interfaccia. Lo strumento open-source offre un metodo per standardizzare il modo in cui il personale interagisce con i modelli linguistici di grandi dimensioni (LLM), abbandonando la chat non strutturata per passare a flussi di lavoro guidati e affidabili. Il collo di bottiglia della comprensione L’attenzione dell’opinione pubblica si concentra spesso sull’IA che produce testo o immagini, ma una componente massiccia dell’utilizzo aziendale riguarda la comprensione: si chiede all’IA di spiegare, chiarire o insegnare. Questa distinzione è fondamentale per gli strumenti interni. Considera una formula di un foglio di calcolo: un utente potrebbe volere una semplice spiegazione della sintassi, un altro una guida al debug e un altro ancora una spiegazione adatta a insegnare ai colleghi. La stessa formula può richiedere spiegazioni completamente diverse a seconda del ruolo, delle competenze e degli obiettivi dell’utente. Le attuali interfacce di chat raramente catturano in modo efficace questo intento. Gli utenti spesso scoprono che il modo in cui formulano una domanda non corrisponde al livello di dettaglio richiesto dall’intelligenza artificiale. “Chiarire ciò che vogliono veramente può richiedere messaggi lunghi e accuratamente formulati che sono faticosi da produrre”, spiega Microsoft. Promptions opera come un livello di middleware per risolvere questo problema familiare con le richieste dell’intelligenza artificiale. Invece di costringere gli utenti a digitare lunghe specifiche, il sistema analizza l’intento e la cronologia delle conversazioni per generare opzioni cliccabili – come la lunghezza della spiegazione, il tono o le aree di interesse specifiche – in tempo reale. Efficienza contro complessità I ricercatori di Microsoft hanno testato questo approccio confrontando i controlli statici con il nuovo sistema dinamico. I risultati offrono una visione realistica del funzionamento di questi strumenti in un ambiente reale. I partecipanti hanno riferito che i controlli dinamici hanno reso più facile esprimere le specifiche dei loro compiti senza dover riformulare ripetutamente le richieste. Questo ha ridotto lo sforzo di ingegnerizzazione dei messaggi e ha permesso agli utenti di concentrarsi maggiormente sulla comprensione dei contenuti piuttosto che sulla gestione delle meccaniche di formulazione. Facendo emergere opzioni come “Obiettivo di apprendimento” e “Formato di risposta”, il sistema ha spinto i partecipanti a pensare più deliberatamente ai loro obiettivi. Tuttavia, l’adozione comporta dei compromessi. I partecipanti hanno apprezzato l’adattabilità ma hanno anche trovato il sistema più difficile da interpretare. Alcuni hanno faticato a prevedere come un’opzione selezionata avrebbe influenzato la risposta, notando che i controlli sembravano opachi perché l’effetto diventava evidente solo dopo la comparsa dell’output. Questo evidenzia un equilibrio da raggiungere. Le interfacce dinamiche possono semplificare compiti complessi, ma possono introdurre una curva di apprendimento in cui il collegamento tra una casella di controllo e l’output finale richiede un adattamento da parte dell’utente. Promesse: La soluzione per risolvere i prompt dell’intelligenza artificiale? Promptions è stato progettato per essere leggero, funzionando come un livello middleware che si colloca tra l’utente e il modello linguistico sottostante. L’architettura consiste in due componenti principali: Modulo delle opzioni: Esamina la cronologia dei messaggi e delle conversazioni dell’utente per generare elementi dell’interfaccia utente pertinenti. Modulo Chat: Incorpora queste selezioni per produrre la risposta dell’intelligenza artificiale. Un aspetto particolarmente interessante per i team che si occupano di sicurezza è che “non c’è bisogno di memorizzare i dati tra una sessione e l’altra, il che semplifica l’implementazione” Questo design stateless attenua i problemi di governance dei dati tipicamente associati a complesse sovrapposizioni di IA. Passare dalla “progettazione dei prompt” alla “selezione dei prompt” offre un percorso per ottenere risultati di IA più coerenti in tutta l’organizzazione. Implementando i framework dell’interfaccia utente che guidano l’intento dell’utente, i leader tecnologici possono ridurre la variabilità delle risposte dell’IA e migliorare l’efficienza della forza lavoro. Il successo dipende dalla calibrazione. Rimangono problemi di usabilità per quanto riguarda il modo in cui le opzioni dinamiche influenzano l’output dell’IA e la gestione della complessità dei controlli multipli. I leader dovrebbero considerare questa soluzione non come una soluzione completa per risolvere i risultati delle richieste dell’IA, ma come un modello di progettazione da testare all’interno delle loro piattaforme di sviluppo e dei loro strumenti di supporto. Leggi di più su www.artificialintelligence-news.com

Gli agenti di intelligenza artificiale stanno assumendo compiti aziendali complessi

Gli agenti di intelligenza artificiale stanno assumendo compiti aziendali complessi

I nuovi dati di adozione di Perplexity rivelano come gli agenti di IA stiano incrementando l’efficienza del flusso di lavoro assumendo compiti aziendali complessi. Da un anno a questa parte, il settore tecnologico si basa sul presupposto che la prossima evoluzione dell’IA generativa andrà oltre la conversazione e passerà all’azione. Mentre i Large Language Models (LLM) fungono da motore di ragionamento, gli “agenti” agiscono come mani, in grado di eseguire flussi di lavoro complessi e in più fasi con una supervisione minima. Finora, tuttavia, la visibilità sull’utilizzo effettivo di questi strumenti è stata opaca, basandosi in gran parte su schemi speculativi o su indagini limitate. I nuovi dati pubblicati da Perplexity, che analizzano centinaia di milioni di interazioni con il browser e l’assistente Comet, forniscono il primo studio sul campo su larga scala degli agenti di IA generici. I dati indicano che l’IA agenziale viene già utilizzata dai lavoratori della conoscenza di alto valore per ottimizzare la produttività e le attività di ricerca. Capire chi utilizza questi strumenti è essenziale per prevedere la domanda interna e identificare potenziali vettori di shadow IT. Lo studio rivela una forte eterogeneità nell’adozione. Gli utenti delle nazioni con un PIL pro capite e un livello di istruzione più elevato hanno molte più probabilità di utilizzare gli strumenti agenziali. Più indicativa per la pianificazione aziendale è la ripartizione occupazionale. L’adozione è fortemente concentrata nei settori digitali e ad alta intensità di conoscenza. Il cluster “Tecnologia digitale” rappresenta la quota maggiore, con il 28% degli utenti e il 30% delle richieste. Seguono a ruota il mondo accademico, la finanza, il marketing e l’imprenditoria. Nel complesso, questi cluster rappresentano oltre il 70% del totale degli utenti. Ciò suggerisce che le persone più propense a sfruttare i flussi di lavoro agenziali sono le risorse più costose all’interno di un’organizzazione: ingegneri informatici, analisti finanziari e strateghi di mercato. Questi early adopters non si stanno dilettando; i dati mostrano che i “power users” (coloro che hanno accesso più rapidamente) effettuano un numero di interrogazioni agenziali nove volte superiore a quello degli utenti medi, il che indica che una volta integrata in un flusso di lavoro, la tecnologia diventa indispensabile. Agenti AI: Partner per le attività aziendali, non maggiordomi Per andare oltre le narrazioni di marketing, le aziende devono comprendere l’utilità di questi agenti. Una visione comune suggerisce che gli agenti funzioneranno principalmente come “concierge digitali” per le attività amministrative di routine. Tuttavia, i dati mettono in discussione questa visione: il 57% di tutte le attività degli agenti si concentra sul lavoro cognitivo. I ricercatori di Perplexity hanno sviluppato una “tassonomia gerarchica degli agenti” per classificare gli intenti degli utenti, rivelando che l’uso degli agenti AI è pratico piuttosto che sperimentale. Il caso d’uso dominante è “Produttività e flusso di lavoro”, che rappresenta il 36% di tutte le query agenziali. Segue “Apprendimento e ricerca” con il 21%. Alcuni aneddoti specifici dello studio illustrano come questo si traduca in valore aziendale. Un professionista degli acquisti, ad esempio, ha utilizzato l’assistente per analizzare i casi dei clienti e identificare i casi d’uso rilevanti prima di impegnarsi con un fornitore. Allo stesso modo, un addetto alle finanze ha delegato i compiti di filtrare le stock option e analizzare le informazioni sugli investimenti. In questi scenari, l’agente gestisce autonomamente la raccolta delle informazioni e la sintesi iniziale per consentire all’uomo di concentrarsi sul giudizio finale. Questa distribuzione fornisce un’indicazione precisa ai leader operativi: il ROI immediato dell’IA agenziale risiede nel potenziamento delle capacità umane piuttosto che nella semplice automazione degli attriti di basso livello. Lo studio definisce questi agenti come sistemi che “si muovono automaticamente tra tre fasi iterative per raggiungere l’obiettivo finale: pensare, agire e osservare” Questa capacità permette loro di supportare un “lavoro cognitivo profondo”, agendo come un partner di pensiero piuttosto che come un semplice maggiordomo. Appiccicosità e migrazione cognitiva Un aspetto fondamentale per i responsabili IT è la “tenuta” degli agenti AI nei flussi di lavoro aziendali. I dati mostrano che nel breve termine gli utenti mostrano una forte persistenza all’interno dell’argomento. Se un utente si rivolge a un agente per un’attività di produttività, è molto probabile che le sue successive richieste rimangano in quell’ambito. Tuttavia, il percorso dell’utente si evolve spesso. I nuovi utenti spesso “saggiano le acque” con richieste poco impegnative, ad esempio chiedendo consigli sui film o curiosità generali. Con il tempo, si verifica una transizione. Lo studio osserva che, sebbene gli utenti possano entrare in contatto con diversi casi d’uso, le query tendono a migrare verso ambiti cognitivi come la produttività, l’apprendimento e lo sviluppo della carriera. Una volta che un utente utilizza un agente per eseguire il debug di un codice o per riassumere un rapporto finanziario, raramente torna a svolgere compiti di valore inferiore. Le categorie “Produttività” e “Flusso di lavoro” mostrano i tassi di fidelizzazione più elevati. Questo comportamento implica che i primi programmi pilota dovrebbero prevedere una curva di apprendimento in cui l’uso matura dal semplice recupero di informazioni alla delega di compiti complessi. Il “dove” dell’IA agenziale è importante quanto il “cosa”. Lo studio di Perplexity ha monitorato gli ambienti – siti web e piattaforme specifiche – in cui operano questi agenti di IA. La concentrazione delle attività varia a seconda delle attività, ma gli ambienti principali sono i punti fermi dello stack aziendale moderno. Google Docs è l’ambiente principale per la modifica di documenti e fogli di calcolo, mentre LinkedIn domina le attività di networking professionale. Per “Apprendimento e ricerca”, l’attività si divide tra piattaforme di corsi come Coursera e archivi di ricerca. Per i CISO e i responsabili della conformità, questo rappresenta un nuovo profilo di rischio. Gli agenti AI non si limitano a leggere i dati, ma li manipolano attivamente all’interno delle applicazioni aziendali principali. Lo studio definisce esplicitamente le query agenziali come quelle che comportano il “controllo del browser” o azioni su applicazioni esterne tramite API. Quando un dipendente incarica un agente di “riassumere i casi di studio dei clienti”, l’agente interagisce direttamente con i dati proprietari.

Accenture e Anthropic collaborano per incrementare l’integrazione dell’intelligenza artificiale nelle aziende

Accenture e Anthropic collaborano per incrementare l'integrazione dell'intelligenza artificiale nelle aziende

Accenture e Anthropic si propongono di potenziare l’integrazione dell’IA nelle aziende grazie a una partnership appena ampliata. Mentre il 2024 è stato definito dalla curiosità delle aziende nei confronti dei Large Language Models (LLM), l’attuale mandato dei leader aziendali è quello di rendere operativi questi strumenti per ottenere un ritorno sugli investimenti. Il nuovo Accenture Anthropic Business Group combina le capacità dei modelli di Anthropic con i macchinari di implementazione di Accenture per industrializzare l’implementazione dell’IA generativa nei settori regolamentati. Industrializzare il flusso di lavoro degli sviluppatori Una componente primaria di questa collaborazione si concentra sull’ingegneria del software. L’assistenza alla codifica è spesso vista come la via di minor resistenza per l’adozione dell’IA, ma l’integrazione di questi strumenti nelle pipeline CI/CD esistenti rimane complessa. Accenture si sta posizionando come partner principale per Claude Code, lo strumento di codifica di Anthropic, che secondo l’azienda detiene oltre la metà del mercato della codifica dell’IA. L’azienda di consulenza prevede di formare circa 30.000 dei suoi professionisti su Claude, creando uno dei più grandi ecosistemi globali di professionisti che conoscono lo strumento. La promessa di una maggiore integrazione aziendale degli strumenti di codifica dell’intelligenza artificiale è una completa ristrutturazione della gerarchia di sviluppo. L’offerta congiunta suggerisce che gli sviluppatori junior possono utilizzare questi strumenti per produrre codice di livello superiore e completare più rapidamente le attività di integrazione per ridurre i tempi di onboarding da mesi a settimane. Gli sviluppatori senior possono quindi concentrarsi sull’architettura, la convalida e la supervisione di alto valore. Dario Amodei, CEO e co-fondatore di Anthropic, ha dichiarato: “L’intelligenza artificiale sta cambiando il modo in cui quasi tutti lavorano e le aziende hanno bisogno di un’intelligenza artificiale all’avanguardia e di competenze affidabili per implementarla su scala. Accenture ha una profonda esperienza nella trasformazione delle imprese e Anthropic ha i modelli più efficaci. “La nostra nuova partnership significa che decine di migliaia di sviluppatori di Accenture utilizzeranno Claude Code, il che rende la nostra più grande implementazione di sempre, e il nuovo Accenture Anthropic Business Group aiuterà i clienti aziendali a utilizzare i nostri modelli di IA più intelligenti per ottenere importanti aumenti di produttività.” Giustificare i costi dell’inferenza dell’intelligenza artificiale e rimuovere le barriere all’implementazione Un punto di attrito persistente per i leader aziendali che cercano un’integrazione più profonda dell’IA è la giustificazione del costo continuo dell’inferenza rispetto all’effettivo valore aziendale. Per ovviare a questo problema, la partnership sta lanciando un prodotto specifico progettato per aiutare i CIO a misurare il valore e a promuovere l’adozione nelle organizzazioni di ingegneria. Questa offerta cerca di fornire un percorso strutturato per la progettazione e la manutenzione del software, superando l’utilizzo ad hoc degli assistenti di codifica. Combina Claude Code con un framework per quantificare i guadagni di produttività e le riprogettazioni del flusso di lavoro su misura per i team di sviluppo che puntano sull’AI. Per le aziende, l’obiettivo è quello di tradurre l’efficienza dei singoli sviluppatori in un impatto aziendale più ampio, come cicli di sviluppo più brevi e un time-to-market più rapido per i nuovi prodotti. Tuttavia, la barriera più importante all’adozione dell’IA nel Global 2000 rimane la conformità. Settori come i servizi finanziari, l’assistenza sanitaria e il settore pubblico sono soggetti a rigidi requisiti di governance che spesso bloccano le iniziative di IA. Accenture e Anthropic stanno sviluppando soluzioni di IA aziendale specifiche per il settore per affrontare queste sfide di implementazione. Nei servizi finanziari, ad esempio, l’attenzione è rivolta all’automazione dei flussi di lavoro per la conformità e all’elaborazione di documenti complessi con la precisione necessaria per prendere decisioni importanti. Le aziende del settore sanitario e delle scienze della vita si trovano ad affrontare una domanda parallela. In questo caso, la partnership mira a sfruttare le capacità analitiche di Claude per interrogare i set di dati proprietari e ottimizzare l’elaborazione degli studi clinici. Per il settore pubblico, l’utilità risiede negli agenti di intelligenza artificiale che assistono i cittadini nella navigazione dei servizi governativi, rispettando al contempo i requisiti di legge sulla privacy dei dati. Julie Sweet, Presidente e CEO di Accenture, ha commentato: “Grazie alla potente combinazione delle capacità Claude di Anthropic e dell’esperienza di Accenture nel campo dell’IA e della conoscenza del settore e della funzione, le organizzazioni possono incorporare l’IA ovunque in modo responsabile e veloce, dallo sviluppo del software all’esperienza del cliente, per guidare l’innovazione, sbloccare nuove fonti di crescita e costruire la loro fiducia per essere leader nell’era dell’IA” Come Accenture e Anthropic stanno mitigando i rischi per supportare l’integrazione dell’IA nelle aziende Per mitigare i rischi associati all’impiego di modelli non deterministici, la partnership pone l’accento sull’”IA responsabile” Ciò implica la combinazione dei principi di “constitutional AI” di Anthropic – che incorporano le regole di sicurezza direttamente nel modello – con l’esperienza di governance di Accenture. L’implementazione pratica avverrà attraverso la rete di Innovation Hubs di Accenture, che fungeranno da ambienti controllati o “sandbox”. Questi hub consentono ai clienti di prototipare e convalidare le soluzioni senza esporre a rischi i sistemi di produzione o i dati sensibili. Le aziende hanno inoltre in programma di co-investire in un “Claude Center of Excellence” per progettare offerte di intelligenza artificiale su misura per le esigenze specifiche del settore. L’ampliamento della partnership con Accenture fa seguito alla notizia che Anthropic ha registrato una crescita della sua quota di mercato dell’IA aziendale dal 24% al 40%. Per Accenture, la creazione di un gruppo aziendale dedicato con un focus specifico sul mercato riflette un impegno a lungo termine nei confronti della piattaforma. L’era dei progetti pilota autonomi di IA sta scomparendo. La prossima fase dell’integrazione dell’IA aziendale richiede una stretta connessione tra le capacità del modello, la formazione della forza lavoro e una rigorosa misurazione del valore.   Leggi di più su www.artificialintelligence-news.com