È possibile trasformare l’imprevedibilità dell’intelligenza artificiale in un processo ingegneristico rigoroso e scalabile? Una ricerca innovativa propone di separare nettamente la logica operativa dalle strategie di inferenza, permettendo agli agenti AI di gestire l’incertezza senza compromettere la pulizia del codice, riducendo drasticamente il debito tecnico e ottimizzando i costi computazionali per le imprese.
Perché i prototipi di intelligenza artificiale generativa faticano così tanto a trasformarsi in agenti pronti per la produzione? La risposta, secondo quanto riportato da AI News, risiede nella natura stocastica dei modelli linguistici (LLM). Attualmente, gli sviluppatori sono costretti a “sporcare” il codice core con infiniti cicli di gestione errori e tentativi forzati per mitigare l’imprevedibilità dei modelli. Ma cosa accadrebbe se potessimo scrivere il percorso lineare di un’operazione e lasciare che sia un motore separato a gestire le deviazioni e le incertezze? È questa la sfida lanciata dai ricercatori di Asari AI, del MIT CSAIL e del Caltech, che hanno delineato un nuovo standard architettonico per scalare i flussi di lavoro degli agenti in contesti aziendali.
Il groviglio tra logica e incertezza
Il problema principale risiede nell’entanglement: la confusione tra la logica del flusso di lavoro (cosa deve fare l’agente) e la strategia di inferenza (come navigare l’incertezza). Oggi, se un team vuole passare da un semplice campionamento a una ricerca più complessa per migliorare la precisione, deve spesso riscrivere l’intera struttura del codice. Questo legame morboso limita la sperimentazione: quanti progetti rimangono legati a strategie subottimali solo perché il costo ingegneristico per aggiornarle sarebbe proibitivo? La ricerca introduce il modello PAN (Probabilistic Angelic Nondeterminism) e un’implementazione Python chiamata ENCOMPASS, che permette di marcare i “punti di inaffidabilità” nel codice senza stravolgerne la linearità.
Program-in-control: riprendere il comando
A differenza dei sistemi dove l’LLM ha il controllo totale, il framework ENCOMPASS promuove agenti “program-in-control”. In questo scenario, è il codice a definire il perimetro d’azione, invocando l’intelligenza artificiale solo per sottocompiti specifici.
- Flessibilità: Gli sviluppatori possono applicare algoritmi di ricerca (come il beam search o il Monte Carlo tree search) senza modificare la logica di business.
- Efficienza: Nei test di migrazione di codice da Java a Python, questo approccio ha superato i metodi tradizionali, mantenendo il codice leggibile e manutenibile.
- Governance: La separazione permette di regolare il comportamento dell’AI a livello globale, un requisito fondamentale per le industrie regolate.
Ottimizzazione dei costi e scalabilità
Chi gestisce i budget tecnologici sa che il costo dell’inferenza è una variabile critica. Lo studio dimostra che strategie di ricerca sofisticate possono produrre risultati migliori a costi inferiori rispetto al semplice aumento dei cicli di feedback. Ad esempio, nel pattern “Reflexion” — dove un’AI critica il proprio output — un algoritmo di ricerca ben calibrato ottiene le stesse prestazioni di numerosi cicli di raffinamento, ma con un dispendio energetico e monetario minore. È il tramonto dell’era degli agenti “scatola nera” a favore di una modularità che ricorda i migliori principi dell’ingegneria del software tradizionale?
Mentre il settore osserva come Intuit, Uber e State Farm testano agenti AI nei flussi aziendali, appare chiaro che la scalabilità passerà per questa de-integrazione. Certo, restano sfide aperte: definire metriche di successo oggettive in domini soggettivi come la creatività rimane un collo di bottiglia. Tuttavia, isolare la complessità computazionale dalla logica applicativa sembra essere l’unica via per costruire sistemi AI che siano, finalmente, affidabili e pronti al grande salto su scala globale.



