ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Gli agenti AI di frontiera sostituiscono i chatbot

Secondo AWS, in occasione del re:Invent 2025 di questa settimana, il ciclo di successo dei chatbot è effettivamente morto e gli agenti AI di frontiera hanno preso il loro posto.

Questo è il messaggio senza mezzi termini che arriva da Las Vegas questa settimana. L’ossessione del settore per le interfacce di chat è stata sostituita da un mandato molto più impegnativo: “agenti di frontiera” che non si limitano a parlare, ma lavorano autonomamente per giorni interi.

Stiamo passando dalla fase di novità dell’IA generativa a un’era di economia infrastrutturale e idraulica operativa. Il fattore “wow” di un bot che scrive poesie è svanito; ora è arrivato il momento di pagare l’infrastruttura necessaria per far funzionare questi sistemi su scala.

Affrontare la crisi idraulica a AWS re:Invent 2025

Fino a poco tempo fa, costruire agenti AI di frontiera in grado di eseguire compiti complessi e non deterministici era un incubo di ingegneria su misura. I primi utilizzatori hanno sprecato risorse per mettere insieme strumenti per gestire il contesto, la memoria e la sicurezza.

AWS sta cercando di eliminare questa complessità con Amazon Bedrock AgentCore. Si tratta di un servizio gestito che funge da sistema operativo per gli agenti, gestendo il lavoro di back-end della gestione dello stato e del recupero del contesto. I guadagni in termini di efficienza derivanti dalla standardizzazione di questo livello sono difficili da ignorare.

Prendiamo ad esempio MongoDB. Abbandonando la loro infrastruttura fatta in casa per AgentCore, hanno consolidato la loro catena di strumenti e portato in produzione un’applicazione basata su agenti in otto settimane, un processo che in precedenza richiedeva mesi di tempo per la valutazione e la manutenzione. Il PGA TOUR ha ottenuto risultati ancora più brillanti, utilizzando la piattaforma per costruire un sistema di generazione di contenuti che ha aumentato la velocità di scrittura del 1.000% e ha ridotto i costi del 95%.

Anche i team di software stanno ottenendo una forza lavoro dedicata. A re:Invent 2025, AWS ha presentato tre agenti AI di frontiera specifici: Kiro (uno sviluppatore virtuale), un agente di sicurezza e un agente DevOps. Kiro non è solo uno strumento di completamento del codice, ma si aggancia direttamente ai flussi di lavoro con “poteri” (integrazioni specializzate per strumenti come Datadog, Figma e Stripe) che gli permettono di agire con un contesto piuttosto che indovinare la sintassi.

Gli agenti che funzionano per giorni consumano enormi quantità di calcolo. Se paghi le tariffe standard on-demand per questo, il tuo ROI evapora.

AWS lo sa bene ed è per questo che gli annunci hardware di quest’anno sono aggressivi. I nuovi UltraServer Trainium3, alimentati da chip a 3nm, dichiarano un salto di 4,4 volte nelle prestazioni di calcolo rispetto alla generazione precedente. Per le organizzazioni che si occupano della formazione di modelli di base massicci, questo riduce i tempi di formazione da mesi a settimane.

Ma il cambiamento più interessante riguarda il luogo in cui risiede l’elaborazione. La sovranità dei dati rimane un problema per le aziende globali, che spesso bloccano l’adozione del cloud per i carichi di lavoro AI sensibili. AWS sta contrastando questo problema con le “fabbriche di AI” (essenzialmente spedendo rack di chip Trainium e GPU NVIDIA direttamente nei data center esistenti dei clienti) Si tratta di un’operazione ibrida che riconosce una semplice verità: per alcuni dati, il cloud pubblico è ancora troppo lontano.

Affrontare la montagna del legacy

L’innovazione, come quella che stiamo vedendo con gli agenti AI di frontiera, è fantastica, ma la maggior parte dei budget IT è strangolata dal debito tecnico. I team spendono circa il 30% del loro tempo solo per tenere accese le luci.

Durante re:Invent 2025, Amazon ha aggiornato AWS Transform per affrontare questo problema in modo specifico, utilizzando l’intelligenza artificiale agenziale per gestire il lavoro di aggiornamento del codice legacy. Il servizio è ora in grado di gestire la modernizzazione full-stack di Windows, compreso l’aggiornamento delle applicazioni .NET e dei database SQL Server.

Air Canada lo ha utilizzato per modernizzare migliaia di funzioni Lambda. Hanno finito in pochi giorni. Farlo manualmente sarebbe costato cinque volte di più e avrebbe richiesto settimane.

Per gli sviluppatori che vogliono effettivamente scrivere codice, l’ecosistema si sta ampliando. L’SDK di Strands Agents, che in precedenza era solo Python, ora supporta anche TypeScript. Essendo la lingua franca del web, porta la sicurezza dei tipi nell’output caotico degli LLM e rappresenta un’evoluzione necessaria.

Una governance sensata nell’era degli agenti AI di frontiera

C’è un pericolo. Un agente che lavora autonomamente per “giorni senza intervento” è anche un agente che può distruggere un database o divulgare PII senza che nessuno se ne accorga finché non è troppo tardi.

AWS sta tentando di arginare questo rischio con “AgentCore Policy”, una funzione che consente ai team di definire in linguaggio naturale i limiti di ciò che un agente può o non può fare. Insieme a “Evaluations”, che utilizza metriche predefinite per monitorare le prestazioni degli agenti, fornisce una rete di sicurezza molto necessaria.

Anche i team che si occupano di sicurezza ricevono una spinta grazie agli aggiornamenti di Security Hub, che ora mette in relazione i segnali provenienti da GuardDuty, Inspector e Macie in singoli “eventi”, anziché inondare la dashboard di avvisi isolati. GuardDuty stesso si sta espandendo, utilizzando il ML per rilevare modelli complessi di minacce su cluster EC2 ed ECS.

Abbiamo chiaramente superato la fase dei programmi pilota. Gli strumenti annunciati ad AWS re:Invent 2025, dal silicio specializzato ai framework governati per gli agenti AI di frontiera, sono progettati per la produzione. La domanda che si pongono i leader aziendali non è più “cosa può fare l’IA?”, ma “possiamo permetterci l’infrastruttura per permetterle di fare il suo lavoro?”

Leggi di più su www.artificialintelligence-news.com

altre news