Secondo quanto riportato da Artificial Intelligence News, OpenAI ha ufficialmente lanciato GPT-5.5, presentandolo come una nuova classe di intelligenza progettata per il lavoro reale e il potenziamento degli agenti autonomi. Il nuovo modello, rilasciato il 23 aprile, segna un passo avanti significativo nella capacità dell’intelligenza artificiale di pianificare, utilizzare strumenti complessi e verificare autonomamente i propri risultati senza la costante correzione umana.
GPT-5.5 rappresenta il primo modello di base interamente riaddestrato dopo la versione GPT-4.5 ed è stato sviluppato in stretta collaborazione con NVIDIA, sfruttando i sistemi rack-scale GB200 e GB300 NVL72. Secondo OpenAI, la differenza pratica più evidente risiede nella capacità del sistema di gestire flussi di lavoro che prima richiedevano molteplici prompt e interventi manuali. Ora, il modello può operare in modo più indipendente, venendo distribuito progressivamente agli utenti Plus, Pro, Business e ai clienti Enterprise all’interno di ChatGPT e Codex.
Le prestazioni dichiarate si riflettono in benchmark di alto profilo. Su Terminal-Bench 2.0, che testa la gestione dei flussi di lavoro tramite riga di comando, GPT-5.5 ha raggiunto un punteggio dell’82,7%, superando nettamente il 75,1% della versione precedente e il 69,4% di Claude Opus 4.7. Anche nello sviluppo software i progressi sono tangibili: su SWE-Bench Pro, il modello risolve più problemi GitHub in un singolo passaggio rispetto al passato. Risultati eccezionali sono emersi anche nel ragionamento su contesti lunghi (MRCR v2), dove la capacità di individuare informazioni specifiche in documenti da un milione di token è passata dal 36,6% di GPT-5.4 al 74% della nuova versione.
Efficienza dei token e costi operativi
L’accesso alle API di GPT-5.5 ha un costo di 5 dollari per milione di token in input e 30 dollari per milione in output, cifre che raddoppiano i prezzi di GPT-5.4. OpenAI giustifica questo incremento sostenendo che il nuovo modello è molto più efficiente: completando i compiti con un numero inferiore di token, l’aumento effettivo della spesa si attesterebbe intorno al 20%. Per gli utenti più esigenti è disponibile anche GPT-5.5 Pro, che utilizza una potenza di calcolo parallela aggiuntiva per risolvere problemi complessi, raggiungendo il 90,1% nel benchmark di navigazione web agentica BrowseComp.
Applicazioni pratiche e prospettive future
L’integrazione interna in OpenAI mostra già risultati promettenti: oltre l’85% dei dipendenti utilizza settimanalmente GPT-5.5 su Codex per attività che spaziano dall’ingegneria al marketing. Il team di comunicazione, ad esempio, ha automatizzato l’analisi di sei mesi di richieste per conferenze, creando un framework di valutazione del rischio per snellire le approvazioni. Greg Brockman ha descritto questo rilascio come un “vero passo avanti verso l’informatica del futuro”, sottolineando come la latenza per token sia rimasta invariata nonostante l’aumento massiccio dell’intelligenza del modello.
Resta da vedere se questa superiorità nei test sintetici si tradurrà in vantaggi produttivi reali per le aziende che utilizzano pipeline di agenti complessi. Mentre i risultati su Terminal-Bench sono promettenti per l’automazione DevOps, la concorrenza rimane agguerrita, specialmente da parte di Claude Opus 4.7 che continua a guidare in settori specifici come l’uso orchestrato degli strumenti (MCP Atlas). Le prossime settimane saranno cruciali per determinare se l’efficienza di GPT-5.5 sarà sufficiente a giustificare i nuovi listini prezzi per gli sviluppatori.
Foto di: “‘The Agent’ Fossil Watch” di MarkGregory007 è distribuita sotto licenza CC BY-NC-SA 2.0.



