ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

OpenAI e Google chiedono l’intervento del governo statunitense per garantire la leadership dell’IA

OpenAI e Google chiedono l'intervento del governo statunitense per garantire la leadership dell'IA

OpenAI e Google esortano il governo degli Stati Uniti a intraprendere un ‘azione decisiva per garantire la leadership dell’IA della nazione. “Mentre il settore dell’IA dell’America, leader a livello mondiale, si avvicina all’AGI, con il Partito Comunista Cinese (PCC) determinato a superarci entro il 2030, il nuovo Piano d’azione per l’IA dell’amministrazione Trump può garantire che l’IA guidata dagli americani e costruita su principi democratici continui a prevalere sull’IA autocratica e autoritaria costruita dal PCC”, ha scritto OpenAI in una lettera all’Office of Science and Technology Policy. In una lettera separata, Google ha fatto eco a questo sentimento affermando: “Sebbene l’America sia attualmente leader mondiale nel campo dell’IA – e sia la patria dei modelli e degli strumenti di IA più capaci e ampiamente adottati – il nostro primato non è assicurato” Un piano per il piano d’azione sull’IA OpenAI ha sottolineato il potenziale dell’IA di “scalare l’ingegno umano”, promuovendo produttività, prosperità e libertà. L’azienda ha paragonato gli attuali progressi dell’IA a salti storici nell’innovazione, come l’addomesticamento del cavallo, l’invenzione della stampa e l’avvento del computer. Secondo Sam Altman, CEO di OpenAI, siamo “alle porte del prossimo salto di qualità”. L’azienda sottolinea l’importanza della “libertà dell’intelligenza”, sostenendo la necessità di un accesso aperto all’intelligenza artificiale, salvaguardando al contempo il controllo autocratico e le barriere burocratiche. OpenAI ha anche delineato tre principi di scalabilità: L’intelligenza di un modello di intelligenza artificiale equivale all’incirca al log delle risorse utilizzate per addestrarlo e farlo funzionare. Il costo dell’utilizzo di un determinato livello di capacità di IA diminuisce di circa 10 volte ogni 12 mesi. Il tempo di calendario necessario per migliorare un modello di IA continua a diminuire. Google ha anche un piano in tre punti su cui gli Stati Uniti devono concentrarsi: Investire nell’IA: Google ha chiesto un’azione coordinata per affrontare il crescente fabbisogno energetico dell’infrastruttura dell’IA, controlli equilibrati sulle esportazioni, finanziamenti continui per la R&S e quadri politici federali favorevoli all’innovazione. Accelerare e modernizzare l’adozione dell’IA da parte dei governi: Google ha esortato il governo federale a dare l’esempio nell’adozione e nell’implementazione dell’IA, tra cui l’implementazione di soluzioni di IA interoperabili e multi-vendor e la semplificazione dei processi di approvvigionamento. Promuovere approcci pro-innovazione a livello internazionale: Google si è espressa a favore di una politica economica internazionale attiva a sostegno dell’innovazione dell’IA, sostenendo standard tecnici orientati al mercato, collaborando con i Paesi allineati per affrontare i rischi per la sicurezza nazionale e combattendo le barriere estere restrittive in materia di IA. Raccomandazioni politiche sull’IA per il governo degli Stati Uniti Entrambe le aziende hanno fornito raccomandazioni dettagliate sulle politiche da adottare per il governo degli Stati Uniti. Le proposte di OpenAI includono: Una strategia normativa che garantisca la libertà di innovare attraverso una partnership volontaria tra il governo federale e il settore privato. Una strategia di controllo delle esportazioni che promuova l’adozione globale dei sistemi di IA americani, proteggendo al contempo la leadership americana nel campo dell’IA. Una strategia di copyright che protegga i diritti dei creatori di contenuti, preservando al contempo la capacità dei modelli di IA americani di apprendere da materiale protetto da copyright. Una strategia di opportunità infrastrutturale per favorire la crescita, che includa politiche a sostegno di una forza lavoro fiorente e pronta per l’IA e di ecosistemi di laboratori, start-up e grandi aziende. Un’ambiziosa strategia di adozione governativa per garantire che il governo degli Stati Uniti dia l’esempio di utilizzo dell’IA a beneficio dei suoi cittadini. Le raccomandazioni di Google includono Promuovere le politiche energetiche per l’alimentazione dei centri dati nazionali, compresa la riforma della trasmissione e dei permessi. L‘adozione di politiche di controllo delle esportazioni equilibrate, che supportino l’accesso al mercato e allo stesso tempo si concentrino sui rischi pertinenti. Accelerare la ricerca e lo sviluppo dell’intelligenza artificiale, semplificare l’accesso alle risorse di calcolo e incentivare i partenariati pubblico-privati. Creare un quadro federale favorevole all’innovazione per l’IA, che comprenda una legislazione federale che eviti un mosaico di leggi statali, che garantisca all’industria l’accesso a dati che consentano un apprendimento equo, che ponga l’accento su una governance dell’IA specifica per settore e basata sul rischio e che sostenga le iniziative della forza lavoro per sviluppare le competenze in materia di IA. Sia OpenAI che Google sottolineano la necessità di un’azione rapida e decisa. OpenAI ha avvertito che il vantaggio dell’America nell’IA si sta riducendo, mentre Google ha sottolineato che le decisioni politiche determineranno l’esito della competizione globale sull’IA. “Siamo in una competizione globale sull’IA e le decisioni politiche ne determineranno l’esito”, ha spiegato Google. “Un approccio favorevole all’innovazione, che protegga la sicurezza nazionale e garantisca che tutti traggano vantaggio dall’IA, è essenziale per realizzare il potenziale di trasformazione dell’IA e garantire che l’America mantenga la sua leadership” Leggi di più su www.artificialintelligence-news.com

4 casi di utilizzo dell’AI Marketing Analytics per aumentare le prestazioni delle campagne PPC

4 casi di utilizzo dell'AI Marketing Analytics per aumentare le prestazioni delle campagne PPC

Le campagne PPC sono caratterizzate da molti elementi in movimento. Da un lato, devi ricercare le parole chiave, scrivere contenuti e tenere d’occhio i concorrenti. D’altra parte, devi creare report sulle prestazioni per i clienti, monitorare le campagne e regolare costantemente le offerte. In tutto questo, è facile che le campagne poco performanti passino inosservate e consumino la tua spesa pubblicitaria senza ottenere grandi ritorni. È qui che entra in gioco l’AI marketing analytics. Può: identificare più velocemente le parole chiave ad alto impatto generare e perfezionare le varianti della copia dell’annuncio senza alcuno sforzo automatizza il monitoraggio e ottieni informazioni chiave da tutti i tuoi dati PPC in pochi secondi Qui di seguito, analizziamo esattamente come l’intelligenza artificiale può non solo migliorare le prestazioni delle campagne PPC, ma anche farti risparmiare tempo prezioso. Caso d’uso 1: AI per la pianificazione delle parole chiave La ricerca delle parole chiave è la spina dorsale delle campagne PPC, ma è anche una delle parti della pubblicità a pagamento che richiede più tempo. Gli strumenti di analisi di AI marketing eliminano le congetture analizzando enormi set di dati e facendo emergere parole chiave ad alto impatto che si allineano con l’intento degli utenti. Come ha scritto Brooke Osmundson, Direttore del Growth Marketing di Smith Micro Software, nel suo articolo sul Search Engine Journal: La ricerca di parole chiave guidata dall’intelligenza artificiale consiste nel rendere più efficace la pianificazione delle parole chiave facendo emergere intuizioni che potrebbero sfuggire all’uomo. Ecco tutti i modi in cui l’AI può aiutare nella pianificazione delle parole chiave: 1. Identificare nuove opportunità di parole chiave L’intelligenza artificiale analizza milioni di query di ricerca per individuare le tendenze emergenti e le opportunità long-tail. Inoltre, prevede l’intento degli utenti, aiutando gli inserzionisti a fare offerte sui termini di maggior valore. 💡 Esempio di richiesta di identificazione di nuove parole chiave: “Sei un manager di Google Ads e il tuo cliente è [nome del cliente], [tipo di prodotto/azienda]. Fornisci un elenco completo di tutte le parole chiave per le quali consiglieresti di fare offerte nelle aste di Google Ad. Per questa ricerca, fai riferimento al loro sito web: [link al sito web]” Prompt da ElectricKite, agenzia di marketing creativo 2. Ampliare gli elenchi di parole chiave esistenti L’intelligenza artificiale trova sinonimi, varianti e corrispondenze semantiche delle parole chiave per ampliare la copertura delle parole chiave senza allargare troppo il target. 💡 Esempio di richiesta di espansione delle parole chiave: “Genera un elenco di parole chiave PPC a coda lunga basate su ‘migliori scarpe da corsa per principianti’ Includi varianti che si concentrino su prestazioni, comfort e durata” 3. Ottimizzare le parole chiave negative L’intelligenza artificiale analizza lo storico delle query di ricerca e segnala il traffico irrilevante, evitando sprechi di pubblicità. Inoltre, perfeziona le esclusioni per evitare di bloccare le ricerche di alto valore. 💡 Esempio di richiesta di ottimizzazione delle parole chiave negative: “Analizza i dati della mia campagna PPC e suggerisci parole chiave negative che stanno prosciugando il budget ma non convertono” [Carica i tuoi dati PPC in formato CSV o PDF] 4. Analizzare le parole chiave dei concorrenti e prevederne le tendenze L’intelligenza artificiale analizza le campagne PPC dei concorrenti per trovare le parole chiave più performanti su cui stanno facendo offerte. Inoltre: Monitora le variazioni delle offerte e le tendenze della copia degli annunci per aiutarti a stare al passo con la concorrenza Prevede i cambiamenti stagionali nel comportamento di ricerca in modo da poter adattare la tua strategia prima che i trend raggiungano il picco massimo 💡 Esempio di richiesta di approfondimenti sui concorrenti: “Analizza le principali parole chiave PPC su cui il mio concorrente [Brand X] sta facendo offerte e suggeriscimi dei modi per contrastare la strategia” Caso d’uso 2: IA per la generazione di contenuti dinamici Il testo dell’annuncio può fare la differenza nella tua campagna PPC. Ma la creazione di un testo pubblicitario convincente e di diverse varianti è estremamente dispendiosa in termini di tempo. È qui che entra in gioco l’intelligenza artificiale. Gli strumenti di intelligenza artificiale possono generare più versioni di titoli, descrizioni e immagini, per poi testarle in tempo reale su diversi segmenti di pubblico. La parte migliore è che i modelli dell’intelligenza artificiale imparano continuamente quali sono gli elementi del testo dell’annuncio che determinano il maggior coinvolgimento e le conversioni. In questo modo, ogni iterazione dell’annuncio supera la precedente (in teoria). “Con l’intelligenza artificiale stiamo sperimentando contenuti che nessun essere umano potrebbe mai avere il tempo di eseguire. Supponiamo di voler testare 20 versioni di un titolo di un annuncio su LinkedIn; in pochi secondi, l’intelligenza artificiale è in grado di scriverle e di eseguirle tutte insieme”, afferma Peter Lewis, fondatore e CEO di Strategic Pete, un’agenzia di consulenza di marketing. Ma la qualità dei tuoi suggerimenti è importante. Come scrive Braveen Kumar per Foreplay, un software per il flusso di lavoro degli annunci end-to-end, in questo articolo, la chiave per ottenere un output di alta qualità è quella di: Fornisci parametri di copia specifici Chiedere di scegliere tra più generazioni Fornire un contesto tramite istruzioni personalizzate o nel messaggio stesso Condivide un semplice suggerimento per ottenere diverse varianti di copia per la stessa campagna: Prompt 💬 Sei un esperto di copy pubblicitari su Facebook. [Marchio/sito web] vende [prodotto] che [valore aggiunto dell’elenco]. Sto conducendo una [campagna/tipo di promozione] rivolta a [pubblico di riferimento]. La voce del mio marchio è [elencare 3 aggettivi]. Scrivi il copy di 5 varianti di annunci Facebook per il mio pubblico di riferimento utilizzando questo modello di copy: Titolo (max 40 caratteri), Testo principale (125-300 caratteri), Descrizione (max 30 caratteri). Esempio 🤖 Sei un esperto di annunci su Facebook. Lushbakes.biz vende torte artigianali fatte a mano e personalizzabili per ogni occasione. Sto organizzando una promozione per San Valentino rivolta alle coppie che vogliono rendere il loro giorno più speciale. La voce del mio marchio è romantica, carina e calorosa. Genera 5 varianti di copy pubblicitario su Facebook per il mio pubblico di riferimento utilizzando

Opera introduce un agent AI integrato nel browser

Opera introduce un agent AI integrato nel browser

Opera ha presentato “Browser Operator”, un agente AI nativo progettato per svolgere attività per gli utenti direttamente all’interno del browser. Piuttosto che agire come uno strumento separato, Browser Operator è un’estensione del browser stesso, progettata per potenziare gli utenti automatizzando attività ripetitive come l’acquisto di prodotti, la compilazione di moduli online e la raccolta di contenuti web. A differenza delle integrazioni AI basate su server che richiedono l’invio di dati sensibili a server di terze parti, Browser Operator elabora le attività localmente all’interno del browser Opera. Il video dimostrativo di Opera mostra come Browser Operator può semplificare un’attività quotidiana come l’acquisto di calzini. Invece di scorrere manualmente le pagine dei prodotti o di compilare i moduli di pagamento, gli utenti possono delegare l’intero processo a Browser Operator, consentendo loro di concentrarsi su attività più importanti per loro, come trascorrere del tempo con i propri cari. Sfruttando l’elaborazione del linguaggio naturale grazie all’AI Composer Engine di Opera, Browser Operator interpreta le istruzioni scritte dagli utenti ed esegue le attività corrispondenti all’interno del browser. Tutte le operazioni avvengono localmente sul dispositivo dell’utente, sfruttando l’infrastruttura del browser per completare i comandi in modo sicuro e rapido. Se Browser Operator incontra una fase delicata del processo, come l’inserimento dei dati di pagamento o l’approvazione di un ordine, si mette in pausa e richiede l’intervento dell’utente. Hai anche la libertà di intervenire e prendere il controllo del processo in qualsiasi momento. Ogni passo che Browser Operator compie è trasparente e completamente rivedibile, in modo da fornire agli utenti una chiara comprensione del modo in cui le attività vengono eseguite. Se si verificano degli errori, come l’inserimento di un ordine errato, puoi istruire l’agente AI a fare delle correzioni, come l’annullamento dell’ordine o la modifica di un modulo. I principali fattori di differenziazione: Privacy, prestazioni e precisione Ciò che distingue Browser Operator da altri strumenti integrati nell’intelligenza artificiale è la sua architettura localizzata e orientata alla privacy. A differenza dei concorrenti che dipendono dagli screenshot o dalle registrazioni video per comprendere il contenuto delle pagine web, l’approccio di Opera utilizza l’albero del Document Object Model (DOM) e i dati di layout del browser, una rappresentazione testuale della pagina web. Questa differenza offre diversi vantaggi chiave: Completamento più rapido delle attività: Browser Operator non ha bisogno di “vedere” e interpretare i pixel sullo schermo o di emulare i movimenti del mouse. Al contrario, accede direttamente agli elementi della pagina web, evitando inutili spese generali e consentendo di elaborare le pagine in modo olistico senza scorrere. Maggiore privacy: Poiché tutte le operazioni vengono eseguite sul browser stesso, i dati dell’utente – compresi i login, i cookie e la cronologia di navigazione – rimangono al sicuro sul dispositivo locale. Nessuna schermata, pressione dei tasti o informazione personale viene inviata ai server di Opera. Interazione più semplice con gli elementi della pagina: L’intelligenza artificiale può interagire con elementi nascosti alla vista dell’utente, come ad esempio i popup dei cookie o le finestre di verifica, consentendo un accesso continuo ai contenuti delle pagine web. Consentendo al browser di svolgere autonomamente le proprie attività, Opera compie un significativo passo avanti nel rendere i browser “agici”, non solo strumenti per accedere a internet, ma assistenti che migliorano attivamente la produttività. Leggi di più su www.artificialintelligence-news.com

Implementazione AI per le agenzie: 7 buone pratiche dagli esperti

Implementazione AI per le agenzie: 7 buone pratiche dagli esperti

In pochi anni, da quando l’intelligenza artificiale è decollata, si è trasformata da nuovo giocattolo scintillante nel marketing a spina dorsale del funzionamento delle agenzie. Infatti, secondo il rapporto 2024 di Forrester, il 91% delle agenzie pubblicitarie statunitensi sta utilizzando o esplorando l’IA generativa. Ma implementare l’IA con successo non è così semplice come collegare uno strumento e aspettarsi una magia. È necessaria una chiara strategia di implementazione dell’IA per assicurarsi che migliori il loro lavoro anziché interromperlo. Per aiutarti, abbiamo parlato con i leader delle agenzie e con gli esperti di IA per scoprire i consigli pratici e le best practice per integrare l’IA nel flusso di lavoro della tua agenzia. Ecco cosa ci hanno detto. 1. Assegna un chiaro campione di intelligenza artificiale Una delle maggiori difficoltà che le agenzie incontrano nell’adozione dell’IA è la mancanza di concentrazione. In genere le agenzie cadono in una delle due trappole (o in entrambe): I team non hanno il tempo (o non lo riservano) per provare gli strumenti di IA o per formarli adeguatamente. Alcuni dipendenti provano gli strumenti qua e là, ma non ne segue un’implementazione adeguata a livello generale. “Se dicessimo: ‘tutti devono implementare l’IA’ senza che nessuno lo faccia davvero, non arriveremmo da nessuna parte”, afferma Artūras Lazejevas, CTO di Whatagraph. Il modo migliore per combattere questo problema è nominare una persona responsabile di guidare l’adozione dell’IA in tutti i reparti. Nella maggior parte delle organizzazioni, si tratta del CEO o del CMO, secondo il rapporto State of Marketing AI 2024 di Salesloft e Marketing AI Institute. Sorprendentemente, il CTO si colloca al quarto posto, appena sotto “nessuno possiede l’IA”. 2. Identifica le aree in cui il tempo del tuo team viene sprecato Una volta che hai un campione di intelligenza artificiale, il suo primo compito dovrebbe essere quello di individuare i punti in cui i team perdono tempo in attività ripetitive. Artūras suggerisce un semplice esercizio: Tieni traccia delle ore di lavoro del team per una settimana: cosa sta consumando tempo? Identifica le attività ripetitive e di scarso valore: i report manuali, la creazione di contenuti o l’inserimento di dati occupano ore preziose? Trova i successi rapidi dell’automazione: ad esempio, il team SEO di Whatagraph ha risparmiato ore automatizzando la generazione di alt-text con uno strumento AI a basso codice. Ma mentre lo fai, è anche importante valutare se un’attività o un processo specifico è effettivamente necessario e vale la pena automatizzarlo con l’IA. “Un processo sbagliato, se automatizzato, diventa un processo sbagliato più veloce”, afferma Peter Lewis, fondatore e CEO di Strategic Pete, un’agenzia di consulenza di marketing. “Ho visto agenzie lanciarsi nell’IA per la generazione di lead senza un buon sistema per seguirli. I contatti iniziavano ad arrivare, ma le vendite no, perché il team non aveva un buon flusso di lavoro per gestire il carico” Prima di automatizzare qualcosa, verifica i tuoi processi. Chiediti: Questo processo è prezioso ed effettivamente necessario? Quali inefficienze possiamo eliminare? Esiste un modo più intelligente per raggiungere lo stesso obiettivo? Una volta individuato che un processo specifico è necessario e prezioso, puoi decidere di automatizzarlo con l’intelligenza artificiale. 3. Iniziare in piccolo e creare una prova di concetto L’intelligenza artificiale sembra enorme e travolgente per la maggior parte delle agenzie, ma non deve esserlo per forza. Invece di revisionare interi flussi di lavoro, inizia con piccoli progetti pilota a basso rischio. “Le aziende si bloccano perché l’intelligenza artificiale sembra un elefante e temono di non essere in grado di affrontarla”, afferma Artūras. “Ma è possibile adottarla passo dopo passo. Inizia con compiti semplici, ad esempio usando Perplexity AI per le ricerche invece di Google” Il suo consiglio è di concentrarsi su: Vittorie rapide: Individua piccole attività ripetitive che l’intelligenza artificiale può automatizzare. Iterazioni rapide: Costruisci e testa soluzioni semplici senza complicarle troppo. Scalabilità: Una volta che un concetto funziona, scalalo rapidamente per massimizzarne l’impatto. Questo è anche il modo in cui Justin Belmont, fondatore e CEO di Prose ed ex caporedattore di Google, ha implementato l’intelligenza artificiale nella sua agenzia. Ci racconta: “Abbiamo iniziato a testare gli strumenti su progetti interni e a vedere cosa funzionava. Una volta definito il flusso di lavoro, lo abbiamo ampliato per il lavoro dei clienti. Non è stato un lancio in grande stile, ma una serie di piccoli successi” 4. Addestra il tuo team, ma non pensarci troppo Un’altra area chiave per una strategia di implementazione dell’IA di successo è la formazione, ma non è necessario che sia un’iniziativa massiccia e ricca di risorse. “L’allenamento non deve essere perfetto, deve solo accadere”, dice Artūras. Ad esempio, quando voleva che i non ingegneri imparassero a scrivere i prompt, Artūras ha trovato rapidamente le diapositive di Anthropic online, si è esercitato su di esse e poi ha organizzato una rapida sessione di gruppo, registrandola per un uso futuro. “Il lavoro di preparazione mi ha richiesto solo quattro ore. Non ho progettato un intero programma di allenamento, ho semplicemente deciso di farlo”, racconta. Per formare il tuo team in modo efficace: Mantieni le cose semplici: Concentrati su piccole competenze specifiche di cui il tuo team ha bisogno per adottare l’IA in modo efficace. Inizia con i risultati rapidi: Scegli uno strumento o un processo che fornisca un valore immediato, come migliorare la scrittura dei messaggi o automatizzare le attività ripetitive. Itera man mano che procedi: Non è necessario che la formazione sia perfetta fin dall’inizio. Esegui una sessione veloce, raccogli il feedback e perfeziona se necessario. 5. Prepara i tuoi dati L’intelligenza artificiale è buona quanto i dati con cui lavora. Se i tuoi dati sono disordinati, incompleti o sparsi su più piattaforme, anche gli strumenti di IA più avanzati non saranno in grado di fornire informazioni accurate. “La preparazione e la pulizia dei dati sono davvero importanti”, afferma Artūras. “Se consolidi i dati cross-channel e chiedi all’IA di generare dei riepiloghi, ti stupirai di quanto l’IA sia in grado di rilevare tutto” Ecco come garantire che i tuoi dati siano pronti per l’intelligenza artificiale:

Alibaba Qwen QwQ-32B: vetrina dell’apprendimento per rinforzo scalato

Alibaba Qwen QwQ-32B: vetrina dell'apprendimento per rinforzo scalato

Il team Qwen di Alibaba ha presentato QwQ-32B, un modello di intelligenza artificiale da 32 miliardi di parametri che ha dimostrato di poter competere con il più grande DeepSeek-R1. Questa scoperta evidenzia il potenziale della scalabilità dell’Apprendimento Rinforzato (RL) su modelli di base robusti. Il team di Qwen ha integrato con successo le capacità degli agenti nel modello di ragionamento, consentendogli di pensare in modo critico, di utilizzare gli strumenti e di adattare il ragionamento in base al feedback ambientale. “La scalabilità dell’RL ha il potenziale per migliorare le prestazioni del modello al di là dei metodi convenzionali di pre-formazione e post-formazione”, ha dichiarato il team. “Studi recenti hanno dimostrato che l’RL può migliorare significativamente le capacità di ragionamento dei modelli” QwQ-32B raggiunge prestazioni paragonabili a quelle di DeepSeek-R1, che vanta 671 miliardi di parametri (con 37 miliardi di parametri attivati), a riprova dell’efficacia dell’RL quando viene applicato a modelli di base robusti e preaddestrati sulla base di un’ampia conoscenza del mondo. Questo notevole risultato sottolinea il potenziale di RL nel colmare il divario tra le dimensioni del modello e le prestazioni. Il modello è stato valutato attraverso una serie di benchmark, tra cui AIME24, LiveCodeBench, LiveBench, IFEval e BFCL, progettati per valutare il ragionamento matematico, la capacità di codifica e le capacità generali di risoluzione dei problemi. I risultati evidenziano le prestazioni di QwQ-32B rispetto ad altri modelli leader, tra cui DeepSeek-R1-Distilled-Qwen-32B, DeepSeek-R1-Distilled-Llama-70B, o1-mini e il DeepSeek-R1 originale. Risultati dei benchmark: AIME24: QwQ-32B ha ottenuto un punteggio di 79,5, leggermente inferiore al 79,8 di DeepSeek-R1-6718, ma nettamente superiore al 63,6 di OpenAl-o1-mini e ai modelli distillati. LiveCodeBench: QwQ-32B ha ottenuto un punteggio di 63,4, anche in questo caso molto vicino al 65,9 di DeepSeek-R1-6718 e superando i modelli distillati e il 53,8 di OpenAl-o1-mini. LiveBench: QwQ-32B ha ottenuto 73,1, mentre DeepSeek-R1-6718 ha ottenuto 71,6, superando i modelli distillati e OpenAl-o1-mini (57,5). IFEval: QwQ-32B ha ottenuto un punteggio di 83,9, molto vicino all’83,3 di DeepSeek-R1-6718, superando i modelli distillati e il 59,1 di OpenAl-o1-mini. BFCL: QwQ-32B ha ottenuto un punteggio di 66,4, mentre DeepSeek-R1-6718 ha ottenuto un punteggio di 62,8, dimostrando un vantaggio rispetto ai modelli distillati e al 49,3 di OpenAl-o1-mini. L’approccio del team di Qwen prevedeva un checkpoint di avvio a freddo e un processo di RL in più fasi guidato da ricompense basate sui risultati. La fase iniziale si è concentrata sulla scalabilità dell’RL per compiti matematici e di codifica, utilizzando verificatori di precisione e server di esecuzione del codice. La seconda fase si è estesa alle capacità generali, incorporando ricompense da modelli di ricompensa generali e verificatori basati su regole. “Abbiamo scoperto che questa fase di addestramento RL con una piccola quantità di passi può aumentare le prestazioni di altre capacità generali, come il seguire le istruzioni, l’allineamento con le preferenze umane e le prestazioni dell’agente, senza un calo significativo delle prestazioni in matematica e codifica”, ha spiegato il team. QwQ-32B è aperto e disponibile su Hugging Face e ModelScope con licenza Apache 2.0 ed è accessibile anche tramite Qwen Chat. Il team di Qwen ritiene che questo sia un primo passo verso la scalabilità dell’RL per migliorare le capacità di ragionamento e intende esplorare ulteriormente l’integrazione degli agenti con l’RL per il ragionamento a lungo termine. “Mentre lavoriamo allo sviluppo della prossima generazione di Qwen, siamo fiduciosi che la combinazione di modelli di base più solidi con l’RL alimentato da risorse computazionali scalabili ci porterà più vicino al raggiungimento dell’Intelligenza Generale Artificiale (AGI)”, ha dichiarato il team. Leggi di più su www.artificialintelligence-news.com

Il primo scienziato creato dall’intelligenza artificiale ha scritto le sue prime peer review

Il primo scienziato creato dall'intelligenza artificiale ha scritto le sue prime peer review

L’Autoscience Institute, di recente costituzione, ha presentato “Carl”, il primo sistema di intelligenza artificiale che elabora documenti di ricerca accademici e che ha superato un rigoroso processo di peer-review in doppio cieco. I documenti di ricerca di Carl sono stati accettati nella sezione Tiny Papers della Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento (ICLR). In particolare, questi lavori sono stati generati con un coinvolgimento umano minimo, inaugurando una nuova era per la scoperta scientifica guidata dall’intelligenza artificiale. Ti presentiamo Carl: il “ricercatore automatizzato” Carl rappresenta un balzo in avanti nel ruolo dell’IA non solo come strumento, ma come partecipante attivo alla ricerca accademica. Descritto come “uno scienziato di ricerca automatizzato”, Carl applica modelli di linguaggio naturale per ideare, ipotizzare e citare accuratamente i lavori accademici. In particolare, Carl è in grado di leggere e comprendere gli articoli pubblicati in pochi secondi. A differenza dei ricercatori umani, lavora ininterrottamente, accelerando così i cicli di ricerca e riducendo i costi di sperimentazione. Secondo Autoscience, Carl è riuscito a “ideare nuove ipotesi scientifiche, progettare ed eseguire esperimenti e scrivere diversi articoli accademici che hanno superato la peer review dei laboratori” Questo sottolinea il potenziale dell’IA non solo di integrare la ricerca umana ma, per molti versi, di superarla in velocità ed efficienza. Carl è un lavoratore meticoloso, ma il coinvolgimento umano è ancora fondamentale La capacità di Carl di generare lavori accademici di alta qualità si basa su un processo in tre fasi: Ideazione e formazione di ipotesi: Sfruttando le ricerche esistenti, Carl identifica potenziali direzioni di ricerca e genera ipotesi. La sua profonda comprensione della letteratura correlata gli permette di formulare idee innovative nel campo dell’IA. Sperimentazione: Carl scrive codice, testa le ipotesi e visualizza i dati risultanti attraverso figure dettagliate. Il suo lavoro instancabile accorcia i tempi di iterazione e riduce le attività ridondanti. Presentazione: Infine, Carl compila i suoi risultati in elaborati accademici, completi di visualizzazioni dei dati e conclusioni chiaramente articolate. Sebbene le capacità di Carl lo rendano ampiamente indipendente, in alcuni punti del suo flusso di lavoro è necessario l’intervento umano per rispettare gli standard computazionali, di formattazione ed etici: L’avvio delle fasi di ricerca: Per evitare di sprecare risorse computazionali, i revisori umani forniscono segnali di “continua” o “ferma” durante fasi specifiche del processo di Carl. Queste indicazioni permettono a Carl di portare a termine i progetti in modo più efficiente, ma non influenzano le specifiche della ricerca stessa. Citazioni e formattazione: Il team di Autoscience si assicura che tutti i riferimenti siano citati correttamente e formattati in modo da rispettare gli standard accademici. Al momento si tratta di una fase manuale, ma garantisce che la ricerca sia in linea con le aspettative della sede di pubblicazione. Assistenza con i modelli pre-API: Carl si affida occasionalmente ai modelli OpenAI e Deep Research più recenti che non dispongono di API auto-accessibili. In questi casi, gli interventi manuali, come il copia-incolla degli output, colmano queste lacune. Autoscience prevede che in futuro questi compiti saranno completamente automatizzati quando le API saranno disponibili. Per l’articolo di debutto di Carl, il team umano ha anche aiutato a creare la sezione “lavori correlati” e a perfezionare il linguaggio. Questi compiti, tuttavia, non sono stati necessari in seguito agli aggiornamenti applicati prima degli invii successivi. Un rigoroso processo di verifica dell’integrità accademica Prima di inviare qualsiasi ricerca, il team di Autoscience ha intrapreso un rigoroso processo di verifica per garantire che il lavoro di Carl rispondesse ai più alti standard di integrità accademica: Riproducibilità: Ogni riga del codice di Carl è stata esaminata e gli esperimenti sono stati ripetuti per confermare la riproducibilità. In questo modo abbiamo garantito che i risultati fossero scientificamente validi e non anomalie casuali. Controlli sull’originalità: Autoscience ha condotto approfondite valutazioni di novità per garantire che le idee di Carl fossero nuovi contributi al campo e non versioni rimaneggiate di pubblicazioni esistenti. Convalida esterna: Un hackathon che ha coinvolto ricercatori di importanti istituzioni accademiche, come il MIT, l’Università di Stanford e l’U.C. Berkeley, ha verificato in modo indipendente la ricerca di Carl. Sono stati effettuati ulteriori controlli sul plagio e sulle citazioni per garantire la conformità alle norme accademiche. Un potenziale innegabile, ma che solleva questioni più ampie Raggiungere l’accettazione da parte di un workshop rispettato come l’ICLR è una pietra miliare significativa, ma Autoscience si rende conto della conversazione più ampia che questa pietra miliare può innescare. Il successo di Carl solleva questioni filosofiche e logistiche più ampie sul ruolo dell’IA in ambito accademico. “Crediamo che i risultati legittimi debbano essere aggiunti alla base di conoscenza pubblica, indipendentemente dalla loro origine”, ha spiegato Autoscience. “Se la ricerca soddisfa gli standard scientifici stabiliti dalla comunità accademica, chi – o cosa – l’ha creata non dovrebbe comportare una squalifica automatica” “Tuttavia, riteniamo anche che una corretta attribuzione sia necessaria per una scienza trasparente e che il lavoro puramente generato dai sistemi di IA debba essere distinguibile da quello prodotto dagli esseri umani” Data la novità dei ricercatori autonomi di IA come Carl, gli organizzatori della conferenza potrebbero aver bisogno di tempo per stabilire nuove linee guida che tengano conto di questo paradigma emergente, soprattutto per garantire una valutazione equa e standard di attribuzione intellettuale. Per evitare inutili polemiche, Autoscience ha ritirato i lavori di Carl dai workshop dell’ICLR in attesa di definire queste linee guida. In futuro, Autoscience intende contribuire alla definizione di questi standard in evoluzione. L’azienda intende proporre un workshop dedicato al NeurIPS 2025 per accogliere formalmente le proposte di ricerca dei sistemi di ricerca autonomi. Man mano che si sviluppa la narrativa sulla ricerca generata dall’intelligenza artificiale, è chiaro che i sistemi come Carl non sono semplici strumenti ma collaboratori nella ricerca della conoscenza. Tuttavia, poiché questi sistemi trascendono i confini tipici, la comunità accademica deve adattarsi per abbracciare pienamente questo nuovo paradigma, salvaguardando l’integrità, la trasparenza e la corretta attribuzione. Leggi di più su www.artificialintelligence-news.com

Il modello di AI di nuova generazione alla ricerca della verità

Il modello di AI di nuova generazione alla ricerca della verità

Lunedì scorso xAI ha presentato il suo modello di intelligenza artificiale Grok 3, insieme a nuove funzionalità come l’analisi delle immagini e la risposta alle domande. Per sviluppare Grok 3, l’azienda ha sfruttato un immenso centro dati dotato di circa 200.000 GPU. Secondo il proprietario di xAI Elon Musk, questo progetto ha utilizzato una potenza di calcolo “10 volte” superiore rispetto al suo predecessore, Grok 2, con un set di dati ampliato che, a quanto pare, include informazioni provenienti da cause legali. Musk ha dichiarato che Grok 3 è una “AI che cerca la massima verità, anche se questa verità a volte è in contrasto con ciò che è politicamente corretto” Il lancio di Grok 3 comprende una famiglia di modelli progettati per esigenze diverse. Grok 3 mini, ad esempio, privilegia tempi di risposta più rapidi rispetto alla precisione assoluta. Tuttavia, sono particolarmente degni di nota i nuovi modelli Grok 3 incentrati sul ragionamento. Denominate Grok 3 Reasoning e Grok 3 mini Reasoning, queste varianti mirano a emulare processi cognitivi simili a quelli umani “ragionando” attraverso i problemi. Paragonabili a modelli come o3-mini di OpenAI e R1 di DeepSeek, questi sistemi di ragionamento cercano di verificare le loro risposte, riducendo la probabilità di errori o passi falsi. Grok 3: i risultati del benchmark xAI afferma che Grok 3 supera GPT-4o di OpenAI in alcuni benchmark, tra cui AIME e GPQA, che valutano la capacità del modello di affrontare problemi complessi di matematica, fisica, biologia e chimica. La prima versione di Grok 3 è anche attualmente in testa a Chatbot Arena, una piattaforma di valutazione crowdsourced in cui gli utenti mettono i modelli di IA uno contro l’altro e classificano i loro risultati. Il modello è il primo a superare il punteggio di 1400 dell’Arena. BREAKING: la prima versione di Grok-3 di @xAI (nome in codice “chocolate”) è ora al primo posto in Arena! 🏆 Grok-3 è: – Il primo modello in assoluto a superare il punteggio di 1400! – Il primo in tutte le categorie, una pietra miliare sempre più difficile da raggiungere Congratulazioni enormi a @xAI per questo traguardo! Visualizza thread 🧵… https://t.co/p8z8lccNd5 pic.twitter.com/hShGy8ZN1o – lmarena.ai (ex lmsys.org) (@lmarena_ai) 18 febbraio 2025 Secondo xAI, Grok 3 Reasoning supera i suoi rivali in una serie di benchmark importanti: Questi modelli di ragionamento sono già integrati nelle funzioni disponibili tramite l’app Grok. Gli utenti possono selezionare comandi come “Pensa” o attivare la modalità “Big Brain”, più impegnativa dal punto di vista computazionale, per affrontare domande particolarmente impegnative. xAI ha posizionato i modelli di ragionamento come strumenti ideali per le applicazioni STEM (scienza, tecnologia, ingegneria e matematica), comprese le sfide di matematica, scienze e coding. Protezione contro la distillazione dell’intelligenza artificiale È interessante notare che non tutti i processi interni di Grok 3 sono accessibili agli utenti. Musk ha spiegato che alcuni “pensieri” dei modelli di ragionamento sono intenzionalmente oscurati per evitare la distillazione, una pratica controversa in cui gli sviluppatori di IA concorrenti estraggono conoscenze dai modelli proprietari. Questa pratica è stata messa sotto i riflettori nelle ultime settimane dopo che l’azienda cinese di AI DeepSeek ha dovuto affrontare le accuse di aver distillato i modelli di OpenAI per sviluppare il suo ultimo modello, R-1. i nuovi modelli di ragionamento di xAI sono alla base di una nuova funzione dell’app Grok chiamata DeepSearch. Questa funzione utilizza i modelli di Grok per scansionare Internet e la piattaforma sociale di Musk, X, alla ricerca di informazioni rilevanti prima di sintetizzare un estratto dettagliato in risposta alle domande degli utenti. Accesso a Grok 3 e impegno nell’open-source L’accesso all’ultimo modello di Grok è attualmente legato ai livelli di abbonamento a X. Gli abbonati Premium, che pagano $50 (~£41) al mese, riceveranno un accesso prioritario alle ultime funzionalità. xAI sta introducendo anche un piano di abbonamento SuperGrok, il cui prezzo, a quanto pare, è di 30 dollari al mese o 300 dollari all’anno. Gli abbonati a SuperGrok potranno beneficiare di maggiori capacità di ragionamento, di un maggior numero di query DeepSearch e di funzioni illimitate di generazione di immagini. L’azienda ha anche anticipato le prossime funzionalità. Entro una settimana, l’app Grok dovrebbe introdurre una modalità vocale che permetterà agli utenti di interagire con l’intelligenza artificiale attraverso una voce sintetizzata simile a quella di Gemini Live. Musk ha inoltre rivelato l’intenzione di rilasciare i modelli di Grok 3 tramite un’API enterprise-ready nelle prossime settimane, con la funzionalità DeepSearch inclusa. Sebbene Grok 3 sia ancora fresco, xAI intende rendere open-source il suo predecessore nei prossimi mesi. Musk afferma che xAI continuerà a rendere open-source l’ultima versione di Grok. “Quando Grok 3 sarà maturo e stabile, probabilmente entro qualche mese, allora apriremo l’open-source di Grok 2”, spiega Musk. Il modello di intelligenza artificiale “anti-risveglio Grok è stato a lungo commercializzato come un’intelligenza artificiale non filtrata, audace e disposta ad affrontare richieste che i concorrenti potrebbero evitare. Musk ha già descritto l’IA come “anti-woke”, presentandola come un modello che non ha paura di toccare argomenti controversi. Fedeli alla sua promessa, i primi modelli come Grok e Grok 2 hanno accolto le domande di carattere politico, arrivando a usare un linguaggio colorito quando richiesto. Tuttavia, queste versioni rivelavano anche alcuni pregiudizi quando si addentravano in un discorso politico. “Stiamo lavorando per rendere Grok più neutrale dal punto di vista politico”, ha dichiarato Musk. Tuttavia, resta da vedere se Grok 3 raggiungerà questo obiettivo. Con questi cambiamenti in gioco, gli analisti stanno già evidenziando i potenziali impatti sociali dell’introduzione di sistemi di intelligenza artificiale sempre più “alla ricerca della verità” ma politicamente sensibili. Con Grok 3, Musk e xAI hanno fatto una dichiarazione coraggiosa, spingendo la loro tecnologia in avanti e potenzialmente alimentando i dibattiti su pregiudizi, trasparenza ed etica dell’utilizzo dell’IA. Mentre concorrenti come OpenAI, Google e DeepSeek perfezionano le loro offerte, il successo di Grok 3 dipenderà dalla sua capacità di bilanciare accuratezza, richieste degli utenti e responsabilità sociale. Leggi di più su www.artificialintelligence-news.com

Fetch.ai lancia il primo modello di AI agenziale Web3

Fetch.ai lancia il primo modello di AI agenziale Web3

Fetch.ai ha lanciato ASI-1 Mini, un modello linguistico nativo Web3 di grandi dimensioni progettato per supportare complessi flussi di lavoro di intelligenza artificiale. Descritta come una svolta per l’accessibilità e le prestazioni dell’IA, ASI-1 Mini è apprezzata per la capacità di fornire risultati pari a quelli dei principali LLM, ma a costi hardware significativamente ridotti: un balzo in avanti per rendere l’IA enterprise-ready. ASI-1 Mini si integra negli ecosistemi Web3, consentendo interazioni AI sicure e autonome. Il suo rilascio pone le basi per un’innovazione più ampia nel settore dell’IA, compreso l’imminente lancio della suite Cortex, che migliorerà ulteriormente l’uso di modelli linguistici di grandi dimensioni e dell’intelligenza generalizzata. “Questo lancio segna l’inizio della diffusione di ASI-1 Mini e di una nuova era dell’IA di proprietà della comunità. Decentralizzando la catena del valore dell’IA, stiamo dando alla comunità Web3 la possibilità di investire, addestrare e possedere modelli fondamentali di IA”, ha dichiarato Humayun Sheikh, CEO di Fetch.ai e presidente dell’Artificial Superintelligence Alliance. “Presto introdurremo un’integrazione avanzata di strumenti agenziali, funzionalità multimodali e una più profonda sinergia con Web3 per migliorare le capacità di automazione di ASI-1 Mini, mantenendo la creazione di valore dell’IA nelle mani di chi vi contribuisce” Democratizzare l’IA con Web3: proprietà decentralizzata e valore condiviso La chiave della visione di Fetch.ai è la democratizzazione dei modelli fondamentali di IA, consentendo alla comunità Web3 non solo di utilizzare, ma anche di addestrare e possedere LLM proprietari come ASI-1 Mini. Questa decentralizzazione apre ai singoli individui l’opportunità di beneficiare direttamente della crescita economica di modelli di IA all’avanguardia, che potrebbero raggiungere valutazioni multimiliardarie. Attraverso la piattaforma di Fetch.ai, gli utenti possono investire in collezioni curate di modelli di intelligenza artificiale, contribuire al loro sviluppo e condividere i ricavi generati. Per la prima volta, la decentralizzazione è alla base della proprietà dei modelli di intelligenza artificiale, garantendo una distribuzione più equa dei benefici finanziari. Ragionamento avanzato e prestazioni personalizzate ASI-1 Mini introduce l’adattabilità nel processo decisionale con quattro modalità di ragionamento dinamico: Multi-Step, Complete, Optimised e Short Reasoning. Questa flessibilità consente di bilanciare profondità e precisione in base al compito specifico da svolgere. Sia che si tratti di risolvere problemi intricati e a più livelli, sia che si tratti di fornire informazioni concise e attuabili, ASI-1 Mini si adatta dinamicamente per ottenere la massima efficienza. Le sue strutture Mixture of Models (MoM) e Mixture of Agents (MoA) migliorano ulteriormente questa versatilità. Miscela di modelli (MoM): ASI-1 Mini seleziona dinamicamente i modelli rilevanti da una suite di modelli AI specializzati, ottimizzati per compiti o set di dati specifici. Questo garantisce un’elevata efficienza e scalabilità, soprattutto per l’IA multimodale e l’apprendimento federato. Miscela di agenti (MoA): Agenti indipendenti con conoscenze e capacità di ragionamento uniche lavorano in collaborazione per risolvere compiti complessi. Il meccanismo di coordinamento del sistema assicura una distribuzione efficiente dei compiti, aprendo la strada a modelli di IA decentralizzati che prosperano in sistemi dinamici e multi-agente. Questa sofisticata architettura si basa su tre livelli interagenti: Strato fondamentale: ASI-1 Mini funge da centro di intelligenza e orchestrazione. Livello di specializzazione (MoM Marketplace): Ospita diversi modelli di esperti, accessibili attraverso la piattaforma ASI. Livello di azione (AgentVerse): Presenta agenti in grado di gestire database live, integrare API, facilitare flussi di lavoro decentralizzati e altro ancora. Attivando selettivamente solo i modelli e gli agenti necessari, il sistema garantisce prestazioni, precisione e scalabilità nelle attività in tempo reale. Trasformare l’efficienza e l’accessibilità dell’IA A differenza degli LLM tradizionali, che comportano un elevato overhead di calcolo, ASI-1 Mini è ottimizzato per ottenere prestazioni di livello enterprise su due sole GPU, riducendo i costi dell’hardware di ben otto volte. Per le aziende, questo significa ridurre i costi di infrastruttura e aumentare la scalabilità, abbattendo le barriere finanziarie all’integrazione dell’IA ad alte prestazioni. Nei test di benchmark come il Massive Multitask Language Understanding (MMLU), ASI-1 Mini eguaglia o supera i principali LLM in ambiti specializzati come la medicina, la storia, gli affari e il ragionamento logico. In fase di lancio in due fasi, ASI-1 Mini elaborerà presto set di dati molto più ampi grazie alle prossime espansioni della finestra di contesto: Fino a 1 milione di token: Permette al modello di analizzare documenti complessi o manuali tecnici. Fino a 10 milioni di gettoni: Consente di realizzare applicazioni di alto livello come la revisione di documenti legali, l’analisi finanziaria e i set di dati su scala aziendale. Questi miglioramenti renderanno ASI-1 Mini inestimabile per le attività complesse e a più livelli. Affrontare il problema della “scatola nera L’industria dell’IA ha da tempo affrontato la sfida di affrontare il problema della “scatola nera”, in cui i modelli di apprendimento profondo giungono a conclusioni senza spiegazioni chiare. ASI-1 Mini attenua questo problema grazie a un ragionamento continuo in più fasi, che facilita le correzioni in tempo reale e ottimizza il processo decisionale. Anche se non elimina del tutto l’opacità, ASI-1 fornisce risultati più spiegabili, fondamentali per settori come la sanità e la finanza. La sua architettura di modelli multi-esperti non solo garantisce la trasparenza, ma ottimizza anche flussi di lavoro complessi in diversi settori. Dalla gestione dei database all’esecuzione della logica aziendale in tempo reale, ASI-1 supera i modelli tradizionali in termini di velocità e affidabilità. Integrazione con AgentVerse: Costruire l’economia dell’intelligenza artificiale ASI-1 Mini si connetterà con AgentVerse, il mercato di agenti di Fetch.ai, fornendo agli utenti gli strumenti per costruire e distribuire agenti autonomi in grado di eseguire compiti reali tramite semplici comandi linguistici. Ad esempio, gli utenti possono automatizzare la pianificazione di viaggi, prenotazioni di ristoranti o transazioni finanziarie attraverso “micro-agenti” ospitati sulla piattaforma. Questo ecosistema consente la personalizzazione e la monetizzazione dell’intelligenza artificiale open-source, creando una “economia agenziale” in cui sviluppatori e aziende prosperano in modo simbiotico. Gli sviluppatori possono monetizzare i micro-agenti, mentre gli utenti possono accedere senza problemi a soluzioni di intelligenza artificiale su misura. Con la maturazione dell’ecosistema agenziale, ASI-1 Mini mira a trasformarsi in una centrale multimodale in grado di elaborare testi strutturati, immagini e set di dati complessi con un

CERTAIN promuove la conformità etica dell’IA in Europa

CERTAIN promuove la conformità etica dell'IA in Europa

L’iniziativa CERTAIN, finanziata dall’UE, mira a promuovere la conformità etica dell’IA in Europa in un contesto di normative crescenti come l’EU AI Act. CERTAIN – acronimo di “Certification for Ethical and Regulatory Transparency in Artificial Intelligence” (Certificazione per la trasparenza etica e normativa nell’intelligenza artificiale) – si concentrerà sullo sviluppo di strumenti e quadri che promuovano la trasparenza, la conformità e la sostenibilità delle tecnologie AI. Il progetto è guidato da Idemia Identity & Security France in collaborazione con 19 partner in dieci paesi europei, tra cui l’Università di Scienze Applicate di St. Pölten (UAS) in Austria. Con il suo lancio ufficiale nel gennaio 2025, CERTAIN potrebbe fungere da modello per la governance globale dell’IA. Promuovere pratiche etiche di IA in Europa Secondo Sebastian Neumaier, ricercatore senior presso l’Istituto di ricerca sulla sicurezza informatica dell’Università di St. Pölten e responsabile del progetto CERTAIN, l’obiettivo è quello di affrontare le sfide normative ed etiche più importanti. “In CERTAIN vogliamo sviluppare strumenti che rendano i sistemi di IA trasparenti e verificabili in conformità con i requisiti della legge europea sull’IA. Il nostro obiettivo è quello di sviluppare soluzioni praticamente realizzabili che aiutino le aziende a soddisfare in modo efficiente i requisiti normativi e a rafforzare in modo sostenibile la fiducia nelle tecnologie di IA”, ha sottolineato Neumaier. Per raggiungere questo obiettivo, CERTAIN si propone di creare strumenti e linee guida di facile utilizzo che semplifichino anche le normative più complesse in materia di IA, aiutando le organizzazioni sia del settore pubblico che di quello privato a orientarsi e ad attuare queste regole in modo efficace. L’intento generale è quello di creare un ponte tra la regolamentazione e l’innovazione, consentendo alle aziende di sfruttare l’IA in modo responsabile e favorendo la fiducia del pubblico. Armonizzare gli standard e migliorare la sostenibilità Uno degli obiettivi principali di CERTAIN è stabilire standard coerenti per la condivisione dei dati e lo sviluppo dell’IA in tutta Europa. Stabilendo norme di interoperabilità a livello di settore, il progetto cerca di migliorare la collaborazione e l’efficienza nell’uso delle tecnologie guidate dall’IA. Lo sforzo di armonizzare le pratiche relative ai dati non si limita alla conformità, ma mira anche a sbloccare nuove opportunità di innovazione. Le soluzioni di CERTAIN creeranno spazi di dati europei aperti e affidabili, componenti essenziali per promuovere una crescita economica sostenibile. In linea con il Green Deal dell’UE, CERTAIN pone un forte accento sulla sostenibilità. Le tecnologie AI, pur essendo trasformative, comportano sfide ambientali significative, comel’elevato consumo di energia e l’elaborazione dei dati ad alta intensità di risorse. CERTAIN affronterà questi problemi promuovendo sistemi di IA efficienti dal punto di vista energetico e sostenendo metodi ecologici di gestione dei dati. Questo duplice approccio non solo è in linea con gli obiettivi di sostenibilità dell’UE, ma garantisce anche che lo sviluppo dell’IA avvenga tenendo conto della salute del pianeta. Un quadro collaborativo per sbloccare l’innovazione dell’IA Un aspetto unico di CERTAIN è il suo approccio alla promozione della collaborazione e del dialogo tra le parti interessate. Il team del progetto presso l’UAS di St. Pölten si sta impegnando attivamente con ricercatori, aziende tecnologiche, responsabili politici e utenti finali per co-sviluppare, testare e perfezionare idee, strumenti e standard. Questo scambio orientato alla pratica va oltre lo sviluppo dei prodotti. CERTAIN funge anche da autorità centrale per informare le parti interessate su questioni legali, etiche e tecniche relative all’IA e alla certificazione. Mantenendo canali di comunicazione aperti, CERTAIN garantisce che i suoi risultati non siano solo pratici ma anche ampiamente adottati. CERTAIN fa parte del programma Horizon Europe dell’UE, in particolare del Cluster 4: Digital, Industry, and Space. Il consorzio multidisciplinare e internazionale del progetto comprende importanti istituzioni accademiche, colossi industriali e organizzazioni di ricerca, il che lo rende un potente sforzo collettivo per plasmare il futuro dell’IA in Europa. Nel gennaio 2025, i rappresentanti dei 20 membri del consorzio si sono incontrati a Osny, in Francia, per dare il via alla loro missione di collaborazione. L’incontro di due giorni ha dato il via all’ambiziosa agenda del progetto: i partner hanno elaborato strategie per affrontare gli ostacoli normativi, tecnici ed etici dell’IA. Garantire la conformità alle normative etiche sull’IA in Europa Con l’avvicinarsi dell’attuazione della legge europea sull’IA, linee guida e strumenti come quelli sviluppati da CERTAIN saranno fondamentali. La legge imporrà requisiti rigorosi ai sistemi di IA, in particolare a quelli considerati “ad alto rischio”, come le applicazioni nel settore sanitario, dei trasporti e delle forze dell’ordine. Se da un lato queste norme mirano a garantire la sicurezza e la responsabilità, dall’altro pongono delle sfide alle organizzazioni che cercano di conformarsi. CERTAIN cerca di alleviare queste difficoltà fornendo soluzioni praticabili che siano in linea con il quadro normativo europeo, incoraggiando al contempo l’innovazione. In questo modo, il progetto svolgerà un ruolo fondamentale nel posizionare l’Europa come leader globale nello sviluppo dell’IA etica. Leggi di più su www.artificialintelligence-news.com

ARI è un agent di ricerca AI di livello professionale per le aziende

ARI è un agent di ricerca AI di livello professionale per le aziende

You.com, azienda di Palo Alto, ha presentato ARI, un agente di ricerca AI di livello professionale che consente alle aziende di accedere a informazioni sulla concorrenza. ARI (Advanced Research & Insights) fornisce report completi, accurati e interattivi in pochi minuti, dando potenzialmente una scossa al settore della consulenza manageriale da 250 miliardi di dollari. You.com sostiene che ARI completa report che di solito richiedono settimane di lavoro e costano migliaia di dollari in soli cinque minuti, a una frazione delle spese tradizionali. Con la capacità di elaborare oltre 400 fonti contemporaneamente – una cifra destinata a crescere con la scalabilità della tecnologia – ARI promette di fornire “citazioni verificate e approfondimenti 3 volte più velocemente rispetto alle altre soluzioni attualmente disponibili” Bryan McCann, co-fondatore e CTO di You.com, ha dichiarato: “Il punto di forza di ARI è la sua capacità di mantenere la comprensione del contesto mentre elabora centinaia di fonti contemporaneamente. “In combinazione con il ragionamento a catena e il tempo di calcolo esteso, ARI è in grado di scoprire e incorporare aree di ricerca adiacenti in modo dinamico man mano che l’analisi procede” Un potente agente di intelligenza artificiale per la ricerca aziendale Gli strumenti tradizionali di ricerca sull’intelligenza artificiale sono in genere limitati all’elaborazione di 30-40 fonti di dati alla volta. ARI si distingue per la gestione di centinaia di flussi di dati pubblici e privati, garantendo un’accuratezza e una portata di analisi senza precedenti. Il sistema non si limita a riassumere i dati, ma migliora l’esperienza dell’utente producendo grafici, diagrammi e visualizzazioni interattive e ricche di informazioni. Progettato per soddisfare i professionisti di alto livello e i lavoratori della conoscenza di tutti i settori, ARI combina funzionalità avanzate con un’accessibilità facile da usare. Questo design a doppio scopo consente alle aziende di utilizzarlo come assistente personale o come sostituto delle costose attività di ricerca tradizionalmente svolte dalle società di consulenza. Il cuore di ARI è costituito da una serie di funzionalità: Analisi simultanea delle fonti: Elabora centinaia di fonti di dati, sia pubbliche che private. Ragionamento a catena: Evolve dinamicamente i parametri di ricerca in base alle intuizioni che emergono. Verifica in tempo reale: Fornisce una convalida diretta per ogni affermazione e punto di dati. Motore di visualizzazione interattivo: Genera e cita automaticamente grafici e diagrammi per migliorare la reportistica. Integrazione dei dati aziendali: Analizza un mix di dati pubblici e privati per fornire informazioni utili. Durante la fase iniziale di implementazione, ARI ha dimostrato la sua versatilità e il suo potenziale di impatto in diversi settori: Consulenza: Analizzando i rapporti di mercato, i dati finanziari dei concorrenti, i depositi di brevetti e i dati sul sentiment sociale in poche ore anziché in settimane, ARI supporta la due diligence con facilità. Servizi finanziari: Grazie alla capacità di integrare i dati in tempo reale provenienti dalle comunicazioni degli utili, dai documenti della SEC e dalle notizie del settore, ARI aiuta a prendere decisioni di investimento più rapide e accurate. Sanità: ARI accelera la sintesi degli studi clinici, delle riviste mediche, dei dati dei pazienti e delle linee guida per le terapie, fornendo approfondimenti che supportano le cure basate sull’evidenza. Media: Dai dati sull’audience agli argomenti di tendenza e all’attività dei concorrenti, ARI consente di identificare rapidamente nuovi punti di vista e di anticipare le narrazioni emergenti nei mercati chiave. Il dottor Dennis Ballwieser, amministratore delegato ed editore di Wort & Bild Verlag, ha commentato: “Il tempo di ricerca è sceso da alcuni giorni a poche ore e l’accuratezza dei contenuti sia in tedesco che in inglese è stata notevole. “Ciò che mi entusiasma di più è l’opportunità di democratizzare l’accesso a ricerche di livello professionale. Grazie alla capacità di ARI di analizzare simultaneamente centinaia di fonti verificabili mantenendo la stessa accuratezza, ora possiamo offrire approfondimenti professionali a organizzazioni di tutte le dimensioni a una frazione del costo tradizionale.” Accelerare l’accesso agli approfondimenti strategici Il potenziale di tecnologie come ARI va oltre il risparmio di tempo e di costi. Per aziende come la società di consulenza globale APCO Worldwide, le funzionalità di ARI offrono un livello di qualità e personalizzazione in linea con le moderne esigenze dei clienti. Philip Fraser, CIO di APCO Worldwide, ha dichiarato: “Per noi, ARI rappresenta un cambiamento di qualità e di allineamento alle esigenze dei nostri clienti. Siamo entusiasti di collaborare con You.com per integrare la potenza di ARI nella nostra pluripremiata piattaforma proprietaria Margy AI” Grazie a queste integrazioni, l’ARI ha il potenziale di spostare le organizzazioni da progetti di ricerca periodici e dispendiosi in termini di risorse verso un’intelligenza continua e in tempo reale, in grado di favorire un migliore processo decisionale a tutti i livelli. Richard Socher, co-fondatore e CEO di You.com, ha aggiunto: “Quando ogni dipendente ha accesso istantaneo a informazioni complete e convalidate che prima richiedevano team di consulenti e settimane di lavoro, cambia la velocità e la qualità del processo decisionale aziendale. ARI rappresenta un cambiamento paradigmatico nel modo in cui le organizzazioni operano” ARI è l’ultima aggiunta all’ecosistema di agenti AI in espansione di You.com, che ha già visto lo sviluppo di oltre 50.000 agenti personalizzati dalla fine del 2024. L’azienda ha raccolto finanziamenti per 99 milioni di dollari da investitori come Salesforce Ventures, NVIDIA e Georgian Ventures. Con ARI, You.com intende stabilire un nuovo standard per un agente di ricerca AI di livello aziendale come parte di sistemi decisionali più ampi. Leggi di più su www.artificialintelligence-news.com