ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Microsoft, NVIDIA e Anthropic stringono un’alleanza per l’elaborazione dell’AI

Microsoft, Anthropic e NVIDIA stanno definendo un nuovo standard per gli investimenti nell’infrastruttura cloud e per la disponibilità di modelli di AI con una nuova alleanza di calcolo. Questo accordo segna una divergenza dalla dipendenza da un singolo modello verso un ecosistema diversificato e ottimizzato per l’hardware, modificando il panorama della governance per i leader tecnologici.

Satya Nadella, CEO di Microsoft, ha dichiarato che si tratta di un’integrazione reciproca in cui le aziende “saranno sempre più clienti l’una dell’altra”. Mentre Anthropic sfrutta l’infrastruttura di Azure, Microsoft incorporerà i modelli di Anthropic nel suo stack di prodotti.

Anthropic si è impegnata ad acquistare 30 miliardi di dollari di capacità di calcolo Azure. Questa cifra mostra gli immensi requisiti di calcolo necessari per addestrare e distribuire la prossima generazione di modelli di frontiera. La collaborazione prevede una specifica traiettoria hardware, che inizia con i sistemi Grace Blackwell di NVIDIA e prosegue con l’architettura Vera Rubin.

Jensen Huang, CEO di NVIDIA, si aspetta che l’architettura Grace Blackwell con NVLink offra un “aumento di velocità di un ordine di grandezza”, un salto necessario per ridurre l’economia dei token.

Per coloro che supervisionano la strategia dell’infrastruttura, la descrizione di Huang di un approccio ingegneristico “shift-left” – in cui la tecnologia NVIDIA appare su Azure immediatamente dopo il rilascio – suggerisce che le aziende che eseguono Claude su Azure avranno accesso a caratteristiche prestazionali diverse dalle istanze standard. Questa profonda integrazione può influenzare le decisioni architettoniche relative alle applicazioni sensibili alla latenza o all’elaborazione batch ad alto rendimento.

La pianificazione finanziaria deve ora tenere conto di quelle che Huang identifica come tre leggi di scalabilità simultanee: pre-training, post-training e scalabilità del tempo di inferenza.

Tradizionalmente, i costi di calcolo dell’intelligenza artificiale erano fortemente orientati alla formazione. Tuttavia, Huang osserva che con il test-time scaling – in cui il modello “pensa” più a lungo per produrre risposte di qualità superiore – i costi di inferenza stanno aumentando.

Di conseguenza, la spesa operativa dell’IA (OpEx) non sarà una tariffa fissa per token, ma sarà correlata alla complessità del ragionamento richiesto. La previsione del budget per i flussi di lavoro agenziali deve quindi diventare più dinamica.

L’integrazione nei flussi di lavoro aziendali esistenti rimane un ostacolo primario per l’adozione. Per risolvere questo problema, Microsoft si è impegnata a garantire a Claude un accesso continuo a tutta la famiglia Copilot.

L’enfasi operativa è posta sulle capacità agenziali. Huang ha evidenziato il Model Context Protocol (MCP) di Anthropic come uno sviluppo che ha “rivoluzionato il panorama dell’intelligenza artificiale agonica”. I leader dell’ingegneria del software dovrebbero notare che gli ingegneri di NVIDIA stanno già utilizzando Claude Code per rifattorizzare i codebase legacy.

Dal punto di vista della sicurezza, questa integrazione semplifica il perimetro. I responsabili della sicurezza che controllano gli endpoint delle API di terze parti possono ora fornire le funzionalità di Claude all’interno del perimetro di conformità di Microsoft 365. Questo semplifica la governance dei dati, in quanto i log delle interazioni e la gestione dei dati rimangono all’interno degli accordi di locazione Microsoft.

Il vendor lock-in continua a essere un punto di attrito per i CDO e i risk officer. Questa partnership per l’AI compute allevia questa preoccupazione rendendo Claude l’unico modello di frontiera disponibile su tutti e tre i principali servizi cloud globali. Nadella ha sottolineato che questo approccio multi-modello si basa, e non sostituisce, la partnership esistente di Microsoft con OpenAI, che rimane una componente fondamentale della sua strategia.

Per Anthropic, l’alleanza risolve la sfida del “go-to-market aziendale”. Huang ha osservato che la creazione di un movimento di vendita aziendale richiede decenni. Appoggiandosi ai canali consolidati di Microsoft, Anthropic aggira questa curva di adozione.

Questo accordo trilaterale modifica il panorama degli acquisti. Nadella esorta il settore a superare la “narrazione a somma zero”, suggerendo un futuro di capacità ampie e durature.

Le organizzazioni dovrebbero rivedere i loro attuali portafogli di modelli. La disponibilità di Claude Sonnet 4.5 e Opus 4.1 su Azure giustifica un’analisi comparativa del TCO rispetto alle implementazioni esistenti. Inoltre, l’impegno di “gigawatt di capacità” indica che i vincoli di capacità per questi modelli specifici potrebbero essere meno stringenti rispetto ai cicli hardware precedenti.

A seguito di questa partnership per il calcolo dell’intelligenza artificiale, l’attenzione delle aziende deve ora spostarsi dall’accesso all’ottimizzazione; abbinare la giusta versione del modello allo specifico processo aziendale per massimizzare il rendimento di questa infrastruttura ampliata.

Leggi di più su www.artificialintelligence-news.com

altre news