OpenAI sta spendendo molto per garantire la sua catena di calcolo AI, firmando un nuovo accordo con AWS come parte della sua strategia multi-cloud.
L’azienda ha recentemente chiuso la sua partnership esclusiva per il cloud computing con Microsoft. Da allora ha stanziato 250 miliardi di dollari per Microsoft, 300 miliardi di dollari per Oracle e ora 38 miliardi di dollari per Amazon Web Services (AWS) in un nuovo accordo pluriennale. L’accordo con AWS da 38 miliardi di dollari, sebbene sia il più piccolo dei tre, fa parte del piano di diversificazione di OpenAI.
Per i leader del settore, le azioni di OpenAI dimostrano che l’accesso alle GPU ad alte prestazioni non è più un bene su richiesta. Ora è una risorsa scarsa che richiede un massiccio impegno di capitale a lungo termine.
L’accordo con AWS offre a OpenAI l’accesso a centinaia di migliaia di GPU NVIDIA, comprese le nuove GB200 e GB300, e la possibilità di sfruttare decine di milioni di CPU.
Questa potente infrastruttura non serve solo per l’addestramento dei modelli di domani, ma è necessaria per eseguire gli enormi carichi di lavoro di inferenza dell’attuale ChatGPT. Come ha dichiarato Sam Altman, cofondatore e CEO di OpenAI, “la scalabilità dell’IA di frontiera richiede calcoli massicci e affidabili”.
Questa corsa alla spesa sta imponendo una risposta competitiva da parte degli hyperscaler. Mentre AWS rimane il più grande fornitore di cloud del settore, Microsoft e Google hanno recentemente registrato una crescita più rapida dei ricavi da cloud, spesso grazie all’acquisizione di nuovi clienti AI. L’accordo con AWS è un chiaro tentativo di assicurarsi un carico di lavoro fondamentale per l’AI e di dimostrare le sue capacità di AI su larga scala, che secondo l’azienda includono l’esecuzione di cluster di oltre 500.000 chip.
AWS non si limita a fornire server standard. Sta realizzando un’architettura sofisticata e appositamente costruita per OpenAI, utilizzando gli UltraServer EC2 per collegare le GPU e ottenere la rete a bassa latenza richiesta dalla formazione su larga scala.
“L’ampiezza e la disponibilità immediata di calcolo ottimizzato dimostrano perché AWS è in una posizione unica per supportare i vasti carichi di lavoro dell’IA di OpenAI”, ha dichiarato Matt Garman, CEO di AWS.
Ma “immediata” è relativo. L’intera capacità derivante dall’ultimo accordo di OpenAI sull’AI in cloud non sarà completamente distribuita fino alla fine del 2026, con la possibilità di espandersi ulteriormente fino al 2027. Questa tempistica offre una dose di realismo a tutti i dirigenti che stanno pianificando un’implementazione dell’IA: la catena di fornitura dell’hardware è complessa e opera su programmi pluriennali.
Che cosa dovrebbero dedurre i leader aziendali da questo dato?
Innanzitutto, il dibattito “costruire o comprare” per l’infrastruttura di IA è praticamente finito. OpenAI sta spendendo centinaia di miliardi per costruire su hardware a noleggio. Poche, se non nessuna, altre aziende possono o dovrebbero seguirne l’esempio. Questo spinge il resto del mercato verso piattaforme gestite come Amazon Bedrock, Google Vertex AI o IBM watsonx, dove gli hyperscaler assorbono il rischio dell’infrastruttura.
In secondo luogo, i giorni del sourcing single-cloud per i carichi di lavoro AI potrebbero essere contati. Il passaggio di OpenAI a un modello multi-provider è un caso da manuale di mitigazione del rischio di concentrazione. Per un CIO, affidarsi a un solo fornitore per il calcolo che gestisce un processo aziendale fondamentale sta diventando un azzardo.
Infine, il budget dell’AI ha lasciato il regno dell’IT dipartimentale ed è entrato nel mondo della pianificazione del capitale aziendale. Non si tratta più di spese operative variabili. Garantire l’elaborazione dell’intelligenza artificiale è ora un impegno finanziario a lungo termine, proprio come la costruzione di una nuova fabbrica o di un centro dati.



