ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

La Corea del Sud ha eliminato il programma di libri di testo basati su IA

La Corea del Sud ha eliminato il programma di libri di testo basati su IA

Il governo sudcoreano ha speso 1,2 trilioni di won (850 milioni di dollari) per sviluppare libri di testo di intelligenza artificiale per le scuole, ma il programma nazionale è stato ritirato dopo soli quattro mesi, tra accuse di testi imprecisi, preoccupazioni per la privacy e aumento del carico di lavoro per il personale e gli studenti. Scrivendo su Rest Of World, il giornalista Junhyup Kwon cita uno studente che dice: “Tutte le nostre lezioni sono state ritardate a causa di problemi tecnici con i libri di testo. […] Ho avuto difficoltà a concentrarmi e a seguire le lezioni. I libri di testo non fornivano lezioni adatte al mio livello” Kim Jong-hee, responsabile digitale di Dong-A Publishing, uno degli sviluppatori dei libri di testo, ha parlato dei vantaggi dei libri AI: “L’utilizzo di dispositivi digitali con cui gli studenti hanno familiarità li mantiene più concentrati, svegli e disposti a partecipare. I libri di testo forniscono un supporto più personalizzato agli studenti che hanno difficoltà con le lezioni” Il governo coreano ha originariamente incaricato gli editori di produrre i libri di testo AI, che a loro volta hanno speso circa 567 milioni di dollari per sviluppare i testi digitali online. L’uso dei libri di testo di intelligenza artificiale è stato reso obbligatorio nel paese dall’inizio dell’anno scolastico a marzo, ma da allora è stato classificato come “facoltativo” dopo un solo semestre. In questo periodo, il numero di scuole che utilizzano i libri di testo di intelligenza artificiale si è dimezzato. Intervenendo all’Assemblea Nazionale nel gennaio di quest’anno, il legislatore Kang Kyung-sook ha chiesto al Ministro dell’Istruzione: “I libri di testo tradizionali richiedono 18 mesi per lo sviluppo, nove mesi per la revisione e sei mesi per la preparazione. Ma i libri di testo di intelligenza artificiale hanno richiesto solo 12 [mesi di sviluppo], tre [mesi di revisione] e tre mesi [di preparazione] […]. Perché è stato fatto tutto di fretta? Poiché si rivolgono ai bambini, richiedono un’attenta verifica e procedure accurate” Il fallimento del programma di libri di testo sull’intelligenza artificiale è stato imputato anche alla politicizzazione della questione e al cambio di governo durante l’attuazione del programma. I programmi tecnologici nelle scuole, a partire dalla diffusione di internet, sono relativamente comuni, sono costati molto meno ai contribuenti e sono durati molto più a lungo, nonostante l’eventuale fallimento o il riallineamento totale. Nella provincia sudafricana di Guateng, all’inizio degli anni 2000, il Progetto Scuole Online era stato concepito per dotare le scuole di laboratori informatici e connessioni a internet, ma secondo alcuni resoconti è stato abbandonato nel 2013 al costo di un miliardo di rand (57 milioni di dollari). Nel 2019, il progetto 1BestariNet della Malesia, un VLE (virtual learning environment) basato su cloud, è stato interrotto dopo otto anni a causa di indagini su presunte incongruenze tra la velocità di internet dichiarata e la realtà vissuta da molte scuole. Il costo complessivo del progetto è stato stimato in miliardi di ringgit (un miliardo di ringgit corrisponde a circa 235 milioni di dollari). Tuttavia, la rapidità del fallimento del progetto sudcoreano sui libri di testo di intelligenza artificiale e il suo costo elevato suggeriscono che l’adozione di testi di intelligenza artificiale in formato digitale è difficile. Uno studio accademico condotto dal Massachusetts Institute of Technology, pubblicato all’inizio di quest’anno, ha suggerito che l’utilizzo dell’IA in contesti educativi abbassa l’attività cerebrale a lungo termine, il che suggerisce che la tecnologia potrebbe non essere adatta a menti in via di sviluppo. (Fonte immagine: “Adorabili studenti addormentati nella biblioteca universitaria” by benchilada is licensed under CC BY-NC-SA 2.0.) Leggi di più su www.artificialintelligence-news.com

Autonomia nel mondo reale? Druid AI presenta la “fabbrica” di agenti AI

Autonomia nel mondo reale? Druid AI presenta la "fabbrica" di agenti AI

In occasione dell’evento londinese Symbiosis 4 del 22 ottobre, Druid AI ha presentato quelli che definisce Virtual Authoring Teams, una nuova generazione di agenti AI in grado di progettare, testare e distribuire altri agenti AI. L’annuncio segna un passo verso quello che l’azienda definisce un “modello di fabbrica” per l’automazione dell’IA. Secondo Druid, il sistema consente alle organizzazioni di creare agenti di IA di livello aziendale fino a dieci volte più velocemente e la piattaforma offre funzioni di orchestrazione, oltre a salvaguardare la conformità e a tracciare un ROI misurabile. Il motore di orchestrazione, Druid Conductor, funge da livello di controllo che integra dati, strumenti e supervisione umana in un unico framework. Al Druid Conductor si aggiunge il Druid Agentic Marketplace, un archivio di agenti precostituiti e specifici per i settori bancario, sanitario, educativo e assicurativo. Con le sue soluzioni, Druid vuole rendere l’IA agenziale accessibile agli utenti non tecnici, ma fornire una capacità di scalabilità adatta all’uso aziendale. L’amministratore delegato Joe Kim l’ha descritta come “AI [che] funziona davvero”: un’affermazione audace in un mercato inondato di sperimentazioni e strutture di automazione non collaudate. Il nuovo campo di battaglia agenziale Druid non è l’unica a perseguire questo obiettivo. Piattaforme simili, come Cognigy, Kore.ai e Amelia, rappresentano ognuna un forte investimento in ambienti di orchestrazione multi-agente. Anche i GPT di OpenAI e i Claude Projects di Anthropic consentono agli utenti di progettare lavoratori digitali semi-autonomi senza avere competenze di codifica. Vertex AI Agents di Google e Copilot Studio di Microsoft si muovono nella stessa direzione, ponendo l’intelligenza artificiale come un’estensione degli ecosistemi aziendali piuttosto che come prodotti a sé stanti. La differenza tra le piattaforme concorrenti sta nell’esecuzione: alcune si concentrano sull’automazione del flusso di lavoro, altre sulla profondità della conversazione o sulla facilità di integrazione con altre parti dello stack IT. Per gli acquirenti di tecnologia, questa diversità rappresenta un’opportunità e un rischio. I fornitori stanno facendo a gara per definire cosa significhi in pratica l’IA agenziale e c’è un elemento indubbio: l’IA agenziale è la parola d’ordine del 2025, che implica una differenziazione tra i modelli di LLM puri e gli strumenti pratici utili in contesti aziendali. Alcuni fornitori considerano l’intelligenza artificiale come un’architettura – modulare, distribuita e spiegabile – mentre altri inquadrano l’intelligenza artificiale come uno strato di automazione che si costruisce da solo – o meglio, che è in grado di scoprire quali poteri gli sono stati concessi e di utilizzarli in base a istruzioni in linguaggio naturale. La verità sulle capacità dell’IA agenziale si colloca a metà strada tra le promesse ingegneristiche e la realtà operativa. Il caso commerciale – e le avvertenze I sistemi di Intelligenza Artificiale Agentica promettono benefici straordinari. Possono accelerare lo sviluppo di routine, coordinare più funzioni aziendali e utilizzare archivi di dati che un tempo erano isolati. Per le aziende che sono costrette a realizzare la trasformazione digitale con un organico limitato, l’idea di team di IA auto-costruiti è convincente. Ma l’uso del condizionale nei materiali di marketing e nelle descrizioni di molti venditori è indicativo: l’IA agenziale può far risparmiare, potrebbe velocizzare le operazioni e così via. I leader aziendali dovrebbero avvicinarsi a questi sistemi con una certa cautela. Ci sono pochi casi di studio comprovati al di là di programmi pilota all’interno di grandi aziende (quelle con una governance dei dati matura e budget elevati) e anche in queste organizzazioni i risultati non sono stati uniformi. Dopotutto, i fallimenti raramente vengono gridati dai tetti. I rischi maggiori non sono tecnici, ma organizzativi. Delegare decisioni complesse ad agenti automatizzati senza un’adeguata supervisione introduce potenziali pregiudizi, violazioni della conformità ed esposizione alla reputazione. I sistemi possono anche generare un debito di automazione: un groviglio crescente di bot interconnessi che diventa difficile da monitorare o aggiornare con l’evoluzione dei processi aziendali. Inoltre, la questione del necessario cambiamento organizzativo è preoccupante per due motivi. La maggior parte dei processi aziendali si sono evoluti in un determinato modo per buone ragioni, quindi perché cambiarli per implementare una nuova tecnologia in gran parte non provata? In secondo luogo, quello che viene spesso proposto è un cambiamento che viene istigato dall’implementazione della tecnologia. I processi non dovrebbero cambiare per motivi strategici e la tecnologia dovrebbe supportare il cambiamento? Si tratta forse di un caso in cui l’IT scodinzola al cane dell’azienda? La sicurezza rimane un’altra preoccupazione. Ogni agente aumenta la superficie per potenziali violazioni o abusi dei dati, soprattutto quando è progettato per comunicare e collaborare in modo autonomo. Man mano che un numero sempre maggiore di flussi di lavoro si autodirige, garantire la tracciabilità e la responsabilità diventa essenziale e più difficile da decifrare con l’aumentare della complessità. L’organico necessario per monitorare i risultati e garantire una supervisione rigorosa potrebbe annullare il ROI offerto dall’IA agenziale. Perché l’IA agenziale attrae le imprese Nonostante le sfide, l’attrazione è facile da capire. Un sistema agenziale di successo può trasformare la velocità con cui un’azienda sperimenta e scala. Delegando compiti cognitivi ripetibili – dai controlli di conformità al triage del servizio clienti – le organizzazioni possono reindirizzare l’attività umana altrove. I Virtual Authoring Team di Druid racchiudono la logica: automatizzare l’automazione. Il suo mercato di agenti specifici per ogni settore offre alle aziende un vantaggio, promettendo implementazioni più rapide e un ROI misurabile. Per i settori che lottano contro la carenza di talenti e le pressioni normative, si tratta di una prospettiva allettante. Inoltre, l’enfasi di Druid sull’IA spiegabile e sul suo livello di orchestrazione suggerisce una consapevolezza della cautela aziendale. I suoi pilastri dichiarati – controllo, accuratezza e risultati – sono pensati per rassicurare i consigli di amministrazione sul fatto che la trasparenza può coesistere con la velocità. Se il sistema offre davvero ciò che l’azienda sostiene, potrebbe ridurre il divario tra la sperimentazione dell’IA e la trasformazione scalabile. Bilanciare autonomia e responsabilità Tuttavia, per ogni organizzazione che abbraccia l’IA agenziale, un’altra non è convinta. Molte aziende sono diffidenti nei confronti di fornitori troppo promettenti e della stanchezza da pilota. Una tecnologia in grado di progettare

Esaminiamo la principale minaccia alla sicurezza dell’intelligenza artificiale

Esaminiamo la principale minaccia alla sicurezza dell'intelligenza artificiale

Gli esperti di sicurezza di JFrog hanno individuato una minaccia di “prompt hijacking” che sfrutta i punti deboli del modo in cui i sistemi di intelligenza artificiale parlano tra loro utilizzando il protocollo MCP (Model Context Protocol). I leader aziendali vogliono rendere l’IA più utile utilizzando direttamente i dati e gli strumenti aziendali. Tuttavia, collegare l’IA in questo modo apre anche nuovi rischi per la sicurezza, non nell’IA stessa, ma nel modo in cui è connessa. Ciò significa che i CIO e i CISO devono pensare a un nuovo problema: proteggere il flusso di dati che alimenta l’IA, così come proteggono l’IA stessa. Perché gli attacchi all’IA che prendono di mira protocolli come MCP sono così pericolosi I modelli di intelligenza artificiale, indipendentemente dal fatto che si trovino su Google, Amazon o su dispositivi locali, hanno un problema di base: non sanno cosa sta succedendo in questo momento. Conoscono solo ciò su cui sono stati addestrati. Non sanno su quale codice stia lavorando un programmatore o cosa ci sia in un file di un computer. Gli ingegneri di Anthropic hanno creato l’MCP per risolvere questo problema. L’MCP è un modo per collegare l’intelligenza artificiale al mondo reale, consentendole di utilizzare in modo sicuro i dati locali e i servizi online. È ciò che permette a un assistente come Claude di capire cosa significa quando indichi un pezzo di codice e gli chiedi di rielaborarlo. Tuttavia, la ricerca di JFrog mostra che un certo modo di usare MCP ha una debolezza nel dirottamento del prompt che può trasformare questo strumento di AI da sogno in un problema di sicurezza da incubo. Immaginiamo che un programmatore chieda a un assistente AI di consigliargli uno strumento Python standard per lavorare con le immagini. L’intelligenza artificiale dovrebbe suggerire Pillow, che è una scelta valida e popolare. Tuttavia, a causa di una falla(CVE-2025-6515) nel sistema oatpp-mcp, qualcuno potrebbe intrufolarsi nella sessione dell’utente. Potrebbe inviare una propria richiesta fittizia e il server la tratterebbe come se provenisse dal vero utente. Così, il programmatore riceve un cattivo suggerimento dall’assistente AI che gli consiglia un falso strumento chiamato BestImageProcessingPackage. Si tratta di un grave attacco alla catena di fornitura del software. Qualcuno potrebbe utilizzare questo dirottamento del prompt per iniettare codice dannoso, rubare dati o eseguire comandi, il tutto facendo credere che si tratti di una parte utile del kit di strumenti del programmatore. Come funziona l’attacco di MCP prompt hijacking Questo attacco di dirottamento del prompt riguarda il modo in cui il sistema comunica utilizzando MCP, piuttosto che la sicurezza dell’IA stessa. La debolezza specifica è stata trovata nella configurazione MCP del sistema Oat C, che collega i programmi allo standard MCP. Il problema riguarda il modo in cui il sistema gestisce le connessioni utilizzando gli eventi inviati dal server (SSE). Quando un utente reale si connette, il server gli assegna un ID di sessione. Tuttavia, la funzione difettosa utilizza l’indirizzo di memoria del computer della sessione come ID di sessione. Questo va contro la regola del protocollo secondo cui gli ID di sessione devono essere unici e crittograficamente sicuri. Si tratta di un progetto sbagliato perché i computer spesso riutilizzano gli indirizzi di memoria per risparmiare risorse. Un aggressore può approfittarne creando e chiudendo rapidamente molte sessioni per registrare questi ID di sessione prevedibili. In seguito, quando un utente reale si connette, potrebbe ottenere uno di questi ID riciclati già in possesso dell’aggressore. Una volta che l’attaccante ha un ID di sessione valido, può inviare le proprie richieste al server. Il server non è in grado di distinguere tra l’aggressore e l’utente reale, quindi invia le risposte dannose alla connessione dell’utente reale. Anche se alcuni programmi accettano solo determinate risposte, gli aggressori possono spesso aggirare l’ostacolo inviando molti messaggi con numeri di eventi comuni finché non ne viene accettato uno. In questo modo l’attaccante può alterare il comportamento del modello senza modificare il modello stesso. Tutte le aziende che utilizzano oatpp-mcp con HTTP SSE abilitato su una rete a cui può accedere un aggressore sono a rischio. Cosa devono fare i responsabili della sicurezza dell’intelligenza artificiale? La scoperta di questo attacco MCP prompt hijacking è un serio avvertimento per tutti i leader tecnologici, in particolare per i CISO e i CTO, che stanno costruendo o utilizzando assistenti AI. Man mano che l’IA entra a far parte dei nostri flussi di lavoro grazie a protocolli come l’MCP, si aggiungono nuovi rischi. Mantenere sicura l’area intorno all’IA è ora una priorità assoluta. Anche se questo CVE specifico riguarda un sistema, l’idea del prompt hijacking è generale. Per proteggersi da questo e da altri attacchi simili, i leader devono stabilire nuove regole per i loro sistemi di intelligenza artificiale. Innanzitutto, assicurati che tutti i servizi di IA utilizzino una gestione sicura delle sessioni. I team di sviluppo devono assicurarsi che i server creino ID di sessione utilizzando generatori forti e casuali. Questo dovrebbe essere un elemento imprescindibile di qualsiasi lista di controllo della sicurezza per i programmi di IA. L’utilizzo di identificatori prevedibili, come gli indirizzi di memoria, non va bene. In secondo luogo, rafforza le difese sul lato utente. I programmi client devono essere progettati per rifiutare qualsiasi evento che non corrisponda agli ID e ai tipi previsti. Gli ID degli eventi semplici e incrementali sono a rischio di attacchi di tipo spray e devono essere sostituiti con identificatori imprevedibili che non si scontrino. Infine, utilizza i principi di fiducia zero per i protocolli di intelligenza artificiale. I team di sicurezza devono controllare l’intera configurazione dell’intelligenza artificiale, dal modello di base ai protocolli e al middleware che la collegano ai dati. Questi canali necessitano di una forte separazione delle sessioni e della loro scadenza, come la gestione delle sessioni utilizzata nelle applicazioni web. L’attacco di MCP è un esempio perfetto di come un problema noto delle applicazioni web, il dirottamento delle sessioni, si stia manifestando in modo nuovo e pericoloso nell’IA. Mettere in sicurezza questi nuovi strumenti di IA significa applicare queste solide basi di sicurezza per

Come l’adozione dell’intelligenza artificiale sta spostando le operazioni IT da reattive a proattive

Come l'adozione dell'intelligenza artificiale sta spostando le operazioni IT da reattive a proattive

I CIO vogliono risolvere i problemi IT più velocemente senza aumentare l’organico e molti vedono nell’adozione dell’AI la soluzione per le loro operazioni. Per anni hanno utilizzato strumenti come l’automazione e i portali di auto-aiuto per risolvere i problemi, in modo che i loro team potessero risolverli rapidamente. Ora l’intelligenza artificiale sta entrando in gioco e molte aziende stanno cercando di utilizzarla per l’assistenza IT. Si è fatto un gran parlare, ma i leader vogliono avere la prova che funziona davvero. SolarWinds ha analizzato i risultati di questi nuovi strumenti. L’azienda ha analizzato una serie di informazioni provenienti da oltre 2.000 sistemi IT e 60.000 dati raccolti nell’arco di un anno, da agosto 2024 a luglio 2025. Per il loro studio, SolarWinds ha controllato gli strumenti di intelligenza artificiale che dovrebbero rendere le cose più facili, come suggerire automaticamente le risposte ai ticket, trovare articoli utili e fare sintesi dei problemi. I risultati danno una buona idea di quanto le aziende possano diventare più efficienti. Quanto l’AI rende più efficienti le operazioni IT? L’aspetto principale rilevato dal rapporto è che, dopo l’utilizzo dell’IA, le aziende impiegano molto meno tempo per risolvere un problema informatico. Prima dell’IA, ci volevano circa 27,42 ore per risolvere un problema. Dopo, il tempo è sceso a 22,55 ore. Si tratta di una velocità del 17,8%, con un risparmio di circa 4,87 ore per problema. In questo modo i team IT possono dedicare più tempo alle cose più importanti, invece di rimanere impantanati nei problemi quotidiani. Questo può far risparmiare alle aziende un sacco di soldi. Il rapporto parla di un team IT di medie dimensioni che gestisce 5.000 problemi all’anno. Risparmiando circa 4,87 ore per ognuno di essi, si recuperano 24.350 ore di lavoro all’anno. Se consideri che un addetto all’help desk costa 28 dollari l’ora, questo equivale a un risparmio di oltre 680.000 dollari. Ma non si tratta solo di risparmiare denaro. Secondo il rapporto, l’IT può utilizzare questo tempo per lavorare su progetti importanti e risolvere i problemi prima che si verifichino. In questo modo l’IT non si limita a risolvere i problemi, ma aiuta l’azienda a migliorare. Il rapporto mostra anche che c’è una grande differenza tra le aziende che utilizzano l’IA e quelle che non la utilizzano. Le aziende che utilizzano l’intelligenza artificiale risolvono i ticket in circa 22,55 ore, mentre le altre impiegano circa 32,46 ore. Si tratta di una differenza del 30,5%, che significa quasi 10 ore risparmiate per ogni problema per chi utilizza l’IA. Tuttavia, non si tratta solo dell’IA Il rapporto chiarisce che l’IA non è una soluzione magica per le operazioni IT. Funziona solo se si dispone di processi validi e se si è pronti ad apportare cambiamenti più ampi a livello aziendale. L’esempio migliore è il gruppo chiamato “Top 10 AI Adopters”. Queste dieci aziende si sono distinte per aver ridotto maggiormente i tempi di risoluzione dei problemi. Sono passate da circa 51 ore a 23 ore, ovvero più della metà del tempo risparmiato. Il loro segreto non era un software speciale, ma il modo in cui lo utilizzavano. Queste aziende hanno tutte una cosa in comune: non si sono limitate a provare l’intelligenza artificiale come progetto secondario. L’hanno resa parte integrante del loro lavoro quotidiano per risolvere i problemi. Il rapporto dice che l’IA funziona meglio quando si apportano modifiche ai processi e si è disposti a migliorare le cose. Il rapporto dice anche che è utile avere una cultura che già si occupa di cose come i portali self-service e l’automazione. Questi team stanno già cercando di rendere i loro desk di assistenza forti e pronti a tutto. L’intelligenza artificiale funziona meglio quando si dispone di questi elementi. Cosa fare se sei tu il responsabile Il rapporto di SolarWinds dimostra che l’IA per le operazioni di assistenza IT non è solo una possibilità, ma può funzionare davvero. Ridurre i tempi di risoluzione di quasi il 18% è una grande opportunità per i leader. Ecco cosa dovrebbero fare: Guarda a che punto sei: Prima di spendere soldi, scopri quanto tempo ci vuole per risolvere i problemi. Il rapporto dice che la media per le aziende che non utilizzano l’AI è di circa 32,46 ore. Conoscere il tuo numero ti aiuta a decidere se ne vale la pena. Fai in modo che faccia parte del lavoro: I migliori utenti dimostrano che è meglio utilizzare l’IA tutti i giorni piuttosto che provarla solo in via sperimentale. Questo significa modificare il tuo modo di lavorare e concentrarti sul miglioramento delle cose. L’IA è uno strumento, non un miracolo: L’IA può davvero aiutare a velocizzare le cose, soprattutto se hai già delle buone pratiche IT. Controlla la tua base di conoscenze e le regole di automazione. L’IA funziona meglio quando hai dei processi chiari. Calcola quanto puoi risparmiare: Il report offre un modo semplice per mostrare al tuo team quanto tempo e denaro l’IA può far risparmiare. Basta moltiplicare il numero di incidenti che si verificano ogni anno per il risparmio medio di 4,87 ore. Questo ti dà un’idea chiara di quanto puoi essere più efficiente. La differenza tra le aziende che utilizzano l’IA e quelle che non la utilizzano sta crescendo. I leader devono impostare le loro operazioni in modo da poter utilizzare l’IA per aiutare l’IT a diventare un vero e proprio partner del successo dell’azienda. Leggi di più su www.artificialintelligence-news.com

Meta sta testando gli annunci skippabili sulle bobine di Instagram, prendendo in prestito il manuale di YouTube

Meta sta testando gli annunci skippabili sulle bobine di Instagram, prendendo in prestito il manuale di YouTube

Meta ha confermato ad ADWEEK che Instagram sta testando la possibilità di saltare gli annunci all’interno di Reels, dando agli utenti l’opzione di saltare e passare oltre un annuncio durante lo scorrimento. In tre posizionamenti pubblicitari individuati da ADWEEK durante lo scorrimento di Reels nell’ultimo mese, Instagram ha visualizzato un timer per il conto alla rovescia nell’angolo in alto a destra dello schermo per segnalare un annuncio in arrivo. Il timer del conto alla rovescia era seguito da un annuncio con un pulsante “salta” che permetteva agli spettatori di ignorarlo, reindirizzandoli all’inizio del Reel. La mossa riprende il popolare formato di annunci in-stream di YouTube che permette di saltare gli annunci video che appaiono durante il contenuto. Un portavoce di Meta ha confermato che l’azienda sta testando il formato degli annunci, aggiungendo che il test limitato è stato progettato per valutare se il formato aiuta gli utenti a scoprire le aziende. Il portavoce ha aggiunto che Meta non intende condividere i ricavi degli annunci con i creatori, a differenza di quanto fa YouTube. I budget dei social ricevono una spinta Gli annunci skippabili rappresentano un’importante prova di come Meta stia cercando di aumentare la monetizzazione, bilanciando al contempo l’esperienza dell’utente. Instagram vende anche post sponsorizzati e annunci tra i Reel, compresa una “pausa pubblicitaria” non skippabile introdotta lo scorso anno. La mossa di Meta arriva nel momento in cui gli inserzionisti stanno destinando budget maggiori ai social media. Secondo il CMO Spend Survey 2025 di Gartner, gli inserzionisti destinano in media il 30,6% del loro budget totale ai media a pagamento, con un aumento del 10% rispetto all’anno precedente. I social media si sono classificati come il secondo canale digitale per spesa pubblicitaria. “Instagram ha un’intenzione di acquisto più alta come piattaforma rispetto a Facebook e YouTube”, ha dichiarato Greg Carlucci, senior director e analista di Gartner. “Tutti i formati pubblicitari che cercano di testare e imparare trarranno vantaggio dall’imparare a implementare il social commerce e i tipi di formati pubblicitari che si adattano alle preferenze dei clienti” Gli annunci non skippabili hanno tradizionalmente un prezzo maggiorato perché garantiscono agli inserzionisti una visione completa, ha detto Carlucci. I formati skippabili potrebbero aiutare Meta a raccogliere nuovi segnali di coinvolgimento senza sovraccaricare gli utenti, piuttosto che far guadagnare subito più soldi agli annunci. Leggi di più su www.adweek.com

Modello di intelligenza artificiale da un trilione di parametri: Il lancio del Ling-1T di Ant Group

Modello di intelligenza artificiale da un trilione di parametri: Il lancio del Ling-1T di Ant Group

Ant Group ha fatto il suo ingresso nell’arena dei modelli di intelligenza artificiale da un trilione di parametri con Ling-1T, un nuovo modello linguistico open-sourced che il gigante cinese del settore fintech considera una svolta nel bilanciamento tra efficienza computazionale e capacità di ragionamento avanzate. L’annuncio del 9 ottobre segna una pietra miliare significativa per l’operatore Alipay, che sta rapidamente sviluppando la sua infrastruttura di intelligenza artificiale attraverso diverse architetture di modelli. Il modello di intelligenza artificiale da un trilione di parametri ha dimostrato prestazioni competitive in compiti di ragionamento matematico complessi, raggiungendo un’accuratezza del 70,42% nel benchmark dell’American Invitational Mathematics Examination (AIME) del 2025, uno standard utilizzato per valutare le capacità di risoluzione dei problemi dei sistemi di intelligenza artificiale. Secondo le specifiche tecniche di Ant Group, Ling-1T mantiene questo livello di prestazioni pur consumando una media di oltre 4.000 token di output per problema, collocandosi tra quelli che l’azienda descrive come “i migliori modelli di IA della categoria” in termini di qualità dei risultati. Un approccio duplice al progresso dell’IA Il rilascio di un modello di intelligenza artificiale da un trilione di parametri coincide con il lancio da parte di Ant Group di dInfer, un framework di inferenza specializzato per modelli linguistici a diffusione. Questa strategia di rilascio parallelo riflette la scommessa dell’azienda su più approcci tecnologici piuttosto che su un unico paradigma architettonico. I modelli linguistici a diffusione rappresentano una svolta rispetto ai sistemi autoregressivi che sono alla base di chatbot molto diffusi come ChatGPT. A differenza della generazione sequenziale del testo, i modelli di diffusione producono output in parallelo, un approccio già diffuso negli strumenti di generazione di immagini e video ma meno comune nell’elaborazione del linguaggio. I parametri di prestazione di Ant Group per dInfer indicano un sostanziale aumento dell’efficienza. I test condotti sul modello di diffusione LLaDA-MoE dell’azienda hanno prodotto 1.011 tokens al secondo nel benchmark di codifica HumanEval, contro i 91 tokens al secondo del framework Fast-dLLM di Nvidia e i 294 del modello Qwen-2.5-3B di Alibaba eseguito su infrastruttura vLLM. “Riteniamo che dInfer fornisca un toolkit pratico e una piattaforma standardizzata per accelerare la ricerca e lo sviluppo nel campo in rapida crescita dei dLLM”, hanno dichiarato i ricercatori di Ant Group nella documentazione tecnica allegata. Espansione dell’ecosistema oltre i modelli linguistici Il modello di intelligenza artificiale Ling-1T da un trilione di parametri si colloca all’interno di una più ampia famiglia di sistemi di intelligenza artificiale che Ant Group ha assemblato negli ultimi mesi. Il portafoglio dell’azienda comprende ora tre serie principali: i modelli Ling non pensanti per compiti linguistici standard, i modelli Ring pensanti progettati per ragionamenti complessi (tra cui il Ring-1T-preview precedentemente rilasciato) e i modelli multimodali Ming in grado di elaborare immagini, testi, audio e video. Questo approccio diversificato si estende a un modello sperimentale denominato LaDA-MoE, che impiega l’architettura Mixture-of-Experts (MoE), una tecnica che attiva solo le porzioni rilevanti di un modello di grandi dimensioni per compiti specifici, migliorando teoricamente l’efficienza. He Zhengyu, Chief Technology Officer di Ant Group, ha illustrato il posizionamento dell’azienda in merito a questi rilasci. “In Ant Group crediamo che l’Intelligenza Artificiale Generale (AGI) debba essere un bene pubblico, una pietra miliare condivisa per il futuro intelligente dell’umanità”, ha dichiarato, aggiungendo che i rilasci open-source del modello di AI da un trilione di parametri e dell’anteprima Ring-1T rappresentano dei passi avanti verso un “progresso aperto e collaborativo” Dinamiche competitive in un ambiente limitato La tempistica e la natura dei rilasci di Ant Group illuminano i calcoli strategici all’interno del settore cinese dell’IA. Con l’accesso alla tecnologia dei semiconduttori all’avanguardia limitato dalle restrizioni all’esportazione, le aziende tecnologiche cinesi hanno sempre più enfatizzato l’innovazione algoritmica e l’ottimizzazione del software come fattori di differenziazione competitiva. ByteDance, società madre di TikTok, ha introdotto a luglio un modello di linguaggio di diffusione chiamato Seed Diffusion Preview, dichiarando di aver migliorato la velocità di cinque volte rispetto ad architetture autoregressive simili. Questi sforzi paralleli suggeriscono l’interesse dell’industria per paradigmi di modelli alternativi che potrebbero offrire vantaggi in termini di efficienza. Tuttavia, la traiettoria di adozione pratica dei modelli linguistici a diffusione rimane incerta. I sistemi autoregressivi continuano a dominare le implementazioni commerciali grazie alle prestazioni comprovate nella comprensione e nella generazione del linguaggio naturale, requisiti fondamentali per le applicazioni rivolte ai clienti. Strategia open-source come posizionamento sul mercato Rendendo disponibile pubblicamente il modello di intelligenza artificiale da un trilione di parametri insieme al framework dInfer, Ant Group sta perseguendo un modello di sviluppo collaborativo che contrasta con gli approcci chiusi di alcuni concorrenti. Questa strategia è potenzialmente in grado di accelerare l’innovazione e di posizionare le tecnologie di Ant come infrastrutture fondamentali per la più ampia comunità dell’IA. Contemporaneamente l’azienda sta sviluppando AWorld, un framework destinato a supportare l’apprendimento continuo degli agenti di IA autonomi, sistemi progettati per portare a termine compiti indipendenti per conto degli utenti. La capacità di questi sforzi combinati di affermare Ant Group come una forza significativa nello sviluppo dell’IA globale dipende in parte dalla convalida nel mondo reale delle prestazioni dichiarate e in parte dai tassi di adozione tra gli sviluppatori che cercano alternative alle piattaforme consolidate. La natura open-source del modello di IA da un trilione di parametri può facilitare questo processo di validazione e creare una comunità di utenti che investano nel successo della tecnologia. Per il momento, i rilasci dimostrano che le principali aziende tecnologiche cinesi ritengono che l’attuale panorama dell’IA sia abbastanza fluido da accogliere nuovi operatori disposti a innovare su più dimensioni contemporaneamente. Leggi di più su www.artificialintelligence-news.com

L’intelligenza artificiale di Huawei guida l’automazione industriale

L'intelligenza artificiale di Huawei guida l'automazione industriale

In un cementificio gestito da Conch Group, un sistema di AI agenziale costruito su infrastruttura Huawei prevede ora la resistenza del clinker con un’accuratezza superiore al 90% e regola autonomamente i parametri di calcinazione per ridurre il consumo di carbone dell’1% – decisioni che in precedenza richiedevano un’esperienza umana accumulata nel corso di decenni Questo dimostra come Huawei stia sviluppando sistemi agenziali di intelligenza artificiale che vanno oltre le semplici interazioni comando-risposta per arrivare a piattaforme in grado di pianificare, decidere ed eseguire in modo indipendente. L’approccio di Huawei alla costruzione di questi sistemi di IA agici è incentrato su una strategia completa che comprende infrastrutture di IA, modelli di base, strumenti specializzati e piattaforme di agenti. Zhang Yuxin, CTO di Huawei Cloud, ha illustrato questa struttura in occasione del recente Huawei Cloud AI Summit di Shanghai, dove oltre 1.000 leader del mondo politico, economico e tecnologico hanno esaminato le implementazioni pratiche nei settori della finanza, dei porti marittimi, della produzione chimica, della sanità e della guida autonoma. La distinzione è importante perché le applicazioni di IA tradizionali rispondono ai comandi degli utenti nell’ambito di processi fissi, mentre i sistemi di IA agici operano con un’autonomia che cambia radicalmente il loro ruolo nelle operazioni aziendali. Zhang ha definito questo fenomeno come “un grande cambiamento nelle applicazioni e nell’informatica”, sottolineando che questi sistemi prendono decisioni in modo indipendente e si adattano dinamicamente, rimodellando il modo in cui i sistemi informatici interagiscono e allocano le risorse. La domanda per le aziende diventa: come costruire infrastrutture e piattaforme in grado di supportare questo livello di operatività autonoma? Cosa hanno in comune i pomodori e il cemento? Guarda un assaggio del dietro le quinte di come Huawei e Conch Group utilizzano l’AI per rimodellare il settore delle costruzioni! Il prossimo piatto del menù della trasformazione intelligente: una nuova e appetitosa era dell’architettura: più intelligente, più veloce, più economica, più verde! 🤤 pic.twitter.com/hEVIQ0xtUZ – Huawei (@Huawei) 28 agosto 2025 Le sfide dell’infrastruttura spingono verso nuove architetture di calcolo Le richieste di calcolo dei sistemi di intelligenza artificiale agici hanno messo a nudo i limiti delle architetture cloud tradizionali, in particolare con l’aumento dei requisiti di formazione e inferenza dei modelli di base. La risposta di Huawei Cloud prevede l’utilizzo dei supernodi CloudMatrix384 collegati attraverso una rete MatrixLink ad alta velocità, creando quello che l’azienda descrive come un sistema di calcolo ibrido flessibile che combina funzionalità di calcolo generiche e intelligenti. L’architettura affronta in modo specifico i colli di bottiglia dei modelli Mixture of Experts (MoE) attraverso l’inferenza del parallelismo esperto, che riduce i tempi di inattività della NPU durante il trasferimento dei dati. Secondo le specifiche tecniche dell’azienda, questo approccio aumenta la velocità di inferenza di una singola unità di elaborazione di 4-5 volte rispetto ad altri modelli popolari. Il sistema incorpora anche l’AI-Native Storage incentrato sulla memoria e progettato per le attività tipiche dell’intelligenza artificiale, con l’obiettivo di migliorare l’efficienza della formazione e dell’inferenza. ModelBest, un’azienda specializzata in AI generica e intelligenza dei dispositivi, ha mostrato le applicazioni pratiche di questa infrastruttura. Li Dahai, cofondatore e CEO di ModelBest, ha illustrato come la serie MiniCPM – che comprende modelli di base, funzionalità multimodali e integrazione di tutte le modalità – si integri con Huawei Cloud AI Compute Service per ottenere un miglioramento del 20% nell’efficienza energetica dell’addestramento e un aumento delle prestazioni del 10% rispetto agli standard del settore. I modelli MiniCPM hanno trovato applicazione nei sistemi automobilistici, negli smartphone, nell’AI incarnata e nei personal computer abilitati all’AI. Dai modelli di base alle applicazioni specifiche del settore La sfida di adattare i modelli di base alle esigenze di settori specifici ha spinto a sviluppare metodologie di formazione più sofisticate. L’approccio di Huawei Cloud comprende tre componenti chiave: una pipeline di dati completa che va dalla raccolta alla gestione, un flusso di formazione incrementale pronto all’uso e una piattaforma di valutazione intelligente con set di valutazione predefiniti. Secondo quanto riferito, il flusso di formazione incrementale aumenta le prestazioni del modello del 20-30% grazie alla regolazione automatica dei dati e delle impostazioni di formazione in base alle caratteristiche principali del modello e agli obiettivi specifici del settore. La piattaforma di valutazione consente di configurare rapidamente sistemi allineati ai benchmark del settore o dell’azienda, soddisfacendo i requisiti di accuratezza e velocità. Le implementazioni reali illustrano l’applicazione pratica di queste metodologie. Shaanxi Cultural Industry Investment Group ha collaborato con Huawei per integrare l’intelligenza artificiale nelle operazioni di turismo culturale. Huang Yong, presidente di Shaanxi Cultural Industry Investment Group, ha spiegato che utilizzando la piattaforma di convergenza dati-AI di Huawei Cloud, l’organizzazione ha combinato diversi dati sul turismo culturale per creare set di dati completi che abbracciano la storia, i film e il patrimonio immateriale. La partnership ha creato quello che viene definito uno “spazio dati nazionale affidabile per il turismo culturale” su Huawei Cloud, che consente di realizzare applicazioni come la verifica dei beni, le transazioni sul copyright, il miglioramento del credito delle imprese e lo sviluppo creativo. La collaborazione ha prodotto il modello di turismo culturale Boguan, che alimenta strumenti guidati dall’intelligenza artificiale, tra cui un cervello intelligente per il turismo culturale, un assistente di gestione intelligente, un assistente di viaggio intelligente e una piattaforma di video brevi con intelligenza artificiale. Le implementazioni internazionali mostrano modelli simili. Il Comune di Dubai ha collaborato con Huawei Cloud per integrare modelli di fondazione, esseri umani virtuali, gemelli digitali e sistemi di informazione geografica nei sistemi urbani. Mariam Almheiri, CEO della Building Regulation and Permits Agency del Comune di Dubai, ha raccontato come questa integrazione abbia migliorato la pianificazione della città, la gestione delle strutture e le risposte alle emergenze. Nascono piattaforme di agenti di livello aziendale La distinzione tra agenti di intelligenza artificiale orientati al consumatore e sistemi di intelligenza artificiale di livello aziendale si basa sui requisiti di integrazione e sulla complessità operativa. I sistemi aziendali devono integrarsi perfettamente in flussi di lavoro più ampi, gestire situazioni complesse e soddisfare standard operativi più elevati rispetto alle applicazioni

Meta e Oracle scelgono NVIDIA Spectrum-X per i data center di intelligenza artificiale

Meta e Oracle scelgono NVIDIA Spectrum-X per i data center di intelligenza artificiale

Meta e Oracle stanno aggiornando i loro data center AI con gli switch di rete Ethernet Spectrum-X di NVIDIA, una tecnologia costruita per gestire le crescenti esigenze dei sistemi AI su larga scala. Entrambe le aziende stanno adottando Spectrum-X come parte di un framework di networking aperto progettato per migliorare l’efficienza dell’addestramento dell’IA e accelerare l’implementazione su cluster di calcolo massicci. Jensen Huang, fondatore e CEO di NVIDIA, ha dichiarato che i modelli da un trilione di parametri stanno trasformando i data center in “fabbriche di AI su scala giga”, aggiungendo che Spectrum-X agisce come “sistema nervoso” collegando milioni di GPU per addestrare i modelli più grandi mai costruiti. Oracle intende utilizzare Spectrum-X Ethernet con la sua architettura Vera Rubin per costruire fabbriche di AI su larga scala. Mahesh Thiagarajan, vicepresidente esecutivo di Oracle Cloud Infrastructure, ha dichiarato che la nuova configurazione consentirà all’azienda di collegare milioni di GPU in modo più efficiente, aiutando i clienti ad addestrare e distribuire nuovi modelli di IA più velocemente. Meta, nel frattempo, sta espandendo la sua infrastruttura AI integrando gli switch Ethernet Spectrum-X nel Facebook Open Switching System (FBOSS), la sua piattaforma interna per la gestione degli switch di rete su scala. Secondo Gaya Nagarajan, vicepresidente dell’ingegneria di rete di Meta, la rete di prossima generazione dell’azienda deve essere aperta ed efficiente per supportare modelli di IA sempre più grandi e fornire servizi a miliardi di utenti. Costruire sistemi di intelligenza artificiale flessibili Secondo Joe DeLaere, che dirige l’Accelerated Computing Solution Portfolio for Data Centre di NVIDIA, la flessibilità è fondamentale man mano che i data center diventano più complessi. Ha spiegato che il sistema MGX di NVIDIA offre un design modulare che permette ai partner di combinare diverse CPU, GPU, storage e componenti di rete a seconda delle necessità. Il sistema promuove inoltre l’interoperabilità, consentendo alle organizzazioni di utilizzare lo stesso progetto su più generazioni di hardware. “Offre flessibilità, un time to market più rapido e la possibilità di essere pronti per il futuro”, ha dichiarato DeLaere ai media. Con l’aumento delle dimensioni dei modelli di AI, l’efficienza energetica è diventata una sfida centrale per i data center. DeLaere ha dichiarato che NVIDIA sta lavorando “dal chip alla rete” per migliorare l’uso dell’energia e la scalabilità, collaborando strettamente con i fornitori di energia e raffreddamento per massimizzare le prestazioni per watt. Un esempio è il passaggio all’alimentazione a 800 volt in corrente continua, che riduce la perdita di calore e migliora l’efficienza. L’azienda sta inoltre introducendo una tecnologia di power-smoothing per ridurre i picchi sulla rete elettrica, un approccio che può ridurre il fabbisogno massimo di energia fino al 30%, consentendo una maggiore capacità di calcolo con lo stesso ingombro. Scalare verso l’alto, verso il basso e verso l’esterno Il sistema MGX di NVIDIA svolge un ruolo importante anche nelle modalità di scalabilità dei data center. Gilad Shainer, vicepresidente senior del settore networking dell’azienda, ha dichiarato ai media che i rack MGX ospitano sia componenti di calcolo che di switching, supportando NVLink per la connettività scale-up e Spectrum-X Ethernet per la crescita scale-out. Ha aggiunto che MGX è in grado di collegare più data center AI come un sistema unificato – ciò di cui aziende come Meta hanno bisogno per supportare operazioni di formazione AI massicciamente distribuite. A seconda della distanza, possono collegare i siti tramite fibra spenta o switch aggiuntivi basati su MGX, consentendo connessioni ad alta velocità tra le regioni. L’adozione di Spectrum-X da parte di Meta riflette la crescente importanza dell’open networking. Shainer ha dichiarato che l’azienda utilizzerà FBOSS come sistema operativo di rete, ma ha fatto notare che Spectrum-X ne supporta molti altri, tra cui Cumulus, SONiC e NOS di Cisco grazie a delle partnership. Questa flessibilità permette agli hyperscaler e alle aziende di standardizzare la propria infrastruttura utilizzando i sistemi che meglio si adattano ai loro ambienti. Espansione dell’ecosistema AI NVIDIA vede Spectrum-X come un modo per rendere l’infrastruttura AI più efficiente e accessibile su diverse scale. Shainer ha dichiarato che la piattaforma Ethernet è stata progettata specificamente per i carichi di lavoro dell’intelligenza artificiale, come la formazione e l’inferenza, offrendo una larghezza di banda effettiva fino al 95% e superando le prestazioni dell’Ethernet tradizionale con un ampio margine. Ha aggiunto che le partnership di NVIDIA con aziende come Cisco, xAI, Meta e Oracle Cloud Infrastructure stanno contribuendo a portare Spectrum-X in una gamma più ampia di ambienti, dagli hyperscaler alle aziende. Prepararsi per Vera Rubin e oltre DeLaere ha dichiarato che l’imminente architettura Vera Rubin di NVIDIA dovrebbe essere disponibile in commercio nella seconda metà del 2026, mentre il prodotto Rubin CPX arriverà entro la fine dell’anno. Entrambi lavoreranno insieme ai sistemi di rete Spectrum-X e MGX per supportare la prossima generazione di fabbriche AI. Ha inoltre chiarito che Spectrum-X e XGS condividono lo stesso hardware di base ma utilizzano algoritmi diversi per le varie distanze: Spectrum-X per l’interno dei data center e XGS per la comunicazione tra data center. Questo approccio riduce al minimo la latenza e consente a più siti di operare insieme come un unico grande supercomputer di intelligenza artificiale. Collaborazione nella catena elettrica Per supportare la transizione alla corrente continua a 800 volt, NVIDIA sta collaborando con i partner dal livello del chip alla rete. L’azienda sta collaborando con Onsemi e Infineon per i componenti di alimentazione, con Delta, Flex e Lite-On a livello di rack e con Schneider Electric e Siemens per i progetti dei data center. In occasione dell’OCP Summit verrà pubblicato un white paper tecnico che illustra questo approccio. DeLaere ha descritto questo approccio come una “progettazione olistica, dal silicio alla fornitura di energia”, che garantisce che tutti i sistemi lavorino insieme senza problemi negli ambienti AI ad alta densità in cui operano aziende come Meta e Oracle. Vantaggi in termini di prestazioni per gli hyperscaler Spectrum-X Ethernet è stato costruito appositamente per l’elaborazione distribuita e i carichi di lavoro dell’IA. Shainer ha dichiarato che offre un routing adattivo e un controllo della congestione basato sulla telemetria per

Cosa devono capire i marketer sulla fiducia del pubblico nell’era dell’intelligenza artificiale

Cosa devono capire i marketer sulla fiducia del pubblico nell'era dell'intelligenza artificiale

Questo post è stato creato in collaborazione con Chase Media Solutions Punti di forza La costruzione della fiducia nel marchio inizia all’interno con una missione e una cultura aziendale coerenti. Ricostruire la fiducia dopo un passo falso è la prova definitiva di un marchio. I brand devono costruire relazioni dirette per affrontare la disruption dell’IA. La fiducia è diventata la valuta più preziosa che un marchio possa detenere. I consumatori hanno il controllo e concedono la loro fedeltà alle aziende che dimostrano affidabilità, trasparenza e impegno nel fare la cosa giusta. Durante una chat di gruppo di ADWEEK House Advertising HQ, organizzata in collaborazione con Chase Media Solutions, un gruppo di leader del marketing ha esplorato la moderna architettura della fiducia: come costruirla dall’interno, difenderla dalle minacce moderne ed evolverla per il futuro. Guadagnare fiducia attraverso la coerenza e l’azione La conversazione è iniziata con l’alta posta in gioco della fiducia istituzionale. Lauren Griewski, amministratore delegato, responsabile delle vendite e delle partnership di Chase Media Solutions, ha inquadrato la sfida. “Warren Buffett lo dice meglio di tutti: Ci vogliono 20 anni per costruire una reputazione e cinque minuti per distruggerla”, ha detto. “E quindi, in Chase, la fiducia è un bene molto prezioso che trasmettiamo ai nostri partner commerciali e ai nostri marchi” Questo principio della fiducia come bene fragile e a lungo termine è stato ribadito da Tusar Barik, SVP del marketing del New York Times Advertising: “Per me la fiducia è coerenza nel tempo. Ci vuole tempo”, ha detto. Ma la coerenza senza una bussola morale non ha senso. Ecco perché, secondo Eliot Hamlisch, Chief Commercial Officer di Amtrak, deve essere ancorata a una missione fondamentale. “In Amtrak abbiamo tre pilastri, uno dei quali è fare la cosa giusta”, ha spiegato. “Se questo è il fulcro della tua offerta, è molto importante”

Perché il rilevamento del phishing da parte dell’intelligenza artificiale definirà la cybersecurity nel 2026

Perché il rilevamento del phishing da parte dell'intelligenza artificiale definirà la cybersecurity nel 2026

Reuters ha recentemente pubblicato un esperimento congiunto con Harvard, in cui ha chiesto a popolari chatbot AI come Grok, ChatGPT, DeepSeek e altri di creare la “perfetta email di phishing” Le email generate sono state poi inviate a 108 volontari, l’11% dei quali ha cliccato sui link malevoli. Con un semplice suggerimento, i ricercatori si sono armati di messaggi altamente persuasivi in grado di ingannare persone reali. L’esperimento dovrebbe servire come un severo controllo della realtà. Per quanto il phishing sia stato dirompente nel corso degli anni, l’intelligenza artificiale lo sta trasformando in una minaccia più veloce, più economica e più efficace. Per il 2026, il rilevamento del phishing tramite intelligenza artificiale deve diventare una priorità assoluta per le aziende che vogliono essere più sicure in un ambiente di minacce sempre più complesso. L’emergere dell’AI phishing come minaccia principale Un fattore importante è l’ascesa del Phishing-as-a-Service (PhaaS). Piattaforme del dark web come Lighthouse e Lucid offrono kit in abbonamento che consentono a criminali poco qualificati di lanciare campagne sofisticate. Secondorecenti rapporti, questi servizi hanno generato più di 17.500 domini di phishing in 74 paesi, prendendo di mira centinaia di marchi globali. In soli 30 secondi, i criminali possono creare portali di login clonati per servizi come Okta, Google o Microsoft, praticamente identici a quelli reali. Con l’infrastruttura di phishing ora disponibile su richiesta, le barriere all’ingresso per la criminalità informatica sono quasi inesistenti. Allo stesso tempo, gli strumenti di intelligenza artificiale generativa consentono ai criminali di creare email di phishing convincenti e personalizzate in pochi secondi. Le email non sono spam generico. Grazie allo scraping di dati da LinkedIn, siti web o violazioni passate, gli strumenti di AI creano messaggi che rispecchiano il contesto aziendale reale, invogliando i dipendenti più attenti a cliccare. La tecnologia sta anche alimentando un boom di deepfake phishing audio e video. Negli ultimi dieci anni, gli attacchi legati al deepfake sono aumentati del 1.000%. I criminali di solito impersonano amministratori delegati, familiari e colleghi fidati su canali di comunicazione come Zoom, WhatsApp e Teams. Le difese tradizionali non funzionano Il rilevamento basato sulle firme utilizzato dai filtri e-mail tradizionali è insufficiente contro il phishing alimentato dall’intelligenza artificiale. Gli attori delle minacce possono facilmente ruotare la loro infrastruttura, includendo domini, oggetti e altre varianti uniche che sfuggono alle misure di sicurezza statiche. Una volta che il phish arriva nella casella di posta, spetta al dipendente decidere se fidarsi o meno. Purtroppo, visto quanto sono convincenti le odierne email di phishing con l’intelligenza artificiale, è probabile che anche un dipendente ben addestrato possa commettere un errore. Il controllo a campione della cattiva grammatica è un ricordo del passato. Inoltre, la sofisticazione delle campagne di phishing potrebbe non essere la minaccia principale. Ciò che preoccupa di più è la portata degli attacchi. I criminali possono lanciare migliaia di nuovi domini e siti clonati in poche ore. Anche se un’ondata viene abbattuta, un’altra la sostituisce rapidamente, garantendo un flusso costante di nuove minacce. È una tempesta perfetta di AI che richiede un approccio più strategico per essere affrontata. Ciò che funzionava contro i rozzi tentativi di phishing di ieri non è all’altezza della scala e della sofisticazione delle campagne moderne. Strategie chiave per il rilevamento del phishing da parte dell’intelligenza artificiale Come consigliano spesso gli esperti di cybersecurity e gli enti governativi, la cosa migliore è adottare un approccio a più livelli per tutta la cybersecurity, compreso il rilevamento degli attacchi di phishing AI. La prima linea di difesa è una migliore analisi delle minacce. Piuttosto che filtri statici che si basano su informazioni potenzialmente obsolete sulle minacce, i modelli NLP addestrati su modelli di comunicazione legittimi possono cogliere sottili deviazioni nel tono, nella formulazione o nella struttura che un umano addestrato potrebbe non notare. Ma nessuna automazione può sostituire il valore della consapevolezza della sicurezza da parte dei dipendenti. È molto probabile che alcune email di AI phishing finiscano nella casella di posta elettronica, quindi per individuarle è necessario avere una forza lavoro ben addestrata. Esistono molti metodi di formazione sulla sicurezza. La formazione basata sulla simulazione è la più efficace, perché permette ai dipendenti di prepararsi all’aspetto reale dell’AI phishing. Le moderne simulazioni vanno oltre la semplice formazione “individua il refuso”. Rispecchiano campagne reali legate al ruolo dell’utente, in modo che i dipendenti siano preparati all’esatto tipo di attacchi che è più probabile che subiscano. L’obiettivo non è quello di mettere alla prova i dipendenti, ma di creare una memoria muscolare in modo che la segnalazione di attività sospette venga naturale. L’ultimo livello di difesa è l’UEBA (User and Entity Behaviour Analytics), che garantisce che un tentativo di phishing riuscito non sfoci in una compromissione su larga scala. I sistemi UEBA rilevano le attività insolite degli utenti o del sistema per avvisare i difensori di una potenziale intrusione. Di solito si tratta di un avviso, magari relativo a un accesso da una posizione inaspettata o a modifiche insolite della casella di posta elettronica che non sono in linea con i criteri IT. Conclusione L’intelligenza artificiale sta avanzando e scalando il phishing a livelli che possono facilmente sopraffare o aggirare le difese tradizionali. In vista del 2026, le organizzazioni devono dare priorità al rilevamento guidato dall’intelligenza artificiale, al monitoraggio continuo e alla formazione con simulazioni realistiche. Il successo dipenderà dalla combinazione di tecnologia avanzata e prontezza umana. Quelle che riusciranno a trovare questo equilibrio saranno ben posizionate per essere più resilienti quando gli attacchi di phishing continueranno a evolversi con l’intelligenza artificiale. Fonte dell’immagine: Unsplash Leggi di più su www.artificialintelligence-news.com