ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Opera introduce un agent AI integrato nel browser

Opera introduce un agent AI integrato nel browser

Opera ha presentato “Browser Operator”, un agente AI nativo progettato per svolgere attività per gli utenti direttamente all’interno del browser. Piuttosto che agire come uno strumento separato, Browser Operator è un’estensione del browser stesso, progettata per potenziare gli utenti automatizzando attività ripetitive come l’acquisto di prodotti, la compilazione di moduli online e la raccolta di contenuti web. A differenza delle integrazioni AI basate su server che richiedono l’invio di dati sensibili a server di terze parti, Browser Operator elabora le attività localmente all’interno del browser Opera. Il video dimostrativo di Opera mostra come Browser Operator può semplificare un’attività quotidiana come l’acquisto di calzini. Invece di scorrere manualmente le pagine dei prodotti o di compilare i moduli di pagamento, gli utenti possono delegare l’intero processo a Browser Operator, consentendo loro di concentrarsi su attività più importanti per loro, come trascorrere del tempo con i propri cari. Sfruttando l’elaborazione del linguaggio naturale grazie all’AI Composer Engine di Opera, Browser Operator interpreta le istruzioni scritte dagli utenti ed esegue le attività corrispondenti all’interno del browser. Tutte le operazioni avvengono localmente sul dispositivo dell’utente, sfruttando l’infrastruttura del browser per completare i comandi in modo sicuro e rapido. Se Browser Operator incontra una fase delicata del processo, come l’inserimento dei dati di pagamento o l’approvazione di un ordine, si mette in pausa e richiede l’intervento dell’utente. Hai anche la libertà di intervenire e prendere il controllo del processo in qualsiasi momento. Ogni passo che Browser Operator compie è trasparente e completamente rivedibile, in modo da fornire agli utenti una chiara comprensione del modo in cui le attività vengono eseguite. Se si verificano degli errori, come l’inserimento di un ordine errato, puoi istruire l’agente AI a fare delle correzioni, come l’annullamento dell’ordine o la modifica di un modulo. I principali fattori di differenziazione: Privacy, prestazioni e precisione Ciò che distingue Browser Operator da altri strumenti integrati nell’intelligenza artificiale è la sua architettura localizzata e orientata alla privacy. A differenza dei concorrenti che dipendono dagli screenshot o dalle registrazioni video per comprendere il contenuto delle pagine web, l’approccio di Opera utilizza l’albero del Document Object Model (DOM) e i dati di layout del browser, una rappresentazione testuale della pagina web. Questa differenza offre diversi vantaggi chiave: Completamento più rapido delle attività: Browser Operator non ha bisogno di “vedere” e interpretare i pixel sullo schermo o di emulare i movimenti del mouse. Al contrario, accede direttamente agli elementi della pagina web, evitando inutili spese generali e consentendo di elaborare le pagine in modo olistico senza scorrere. Maggiore privacy: Poiché tutte le operazioni vengono eseguite sul browser stesso, i dati dell’utente – compresi i login, i cookie e la cronologia di navigazione – rimangono al sicuro sul dispositivo locale. Nessuna schermata, pressione dei tasti o informazione personale viene inviata ai server di Opera. Interazione più semplice con gli elementi della pagina: L’intelligenza artificiale può interagire con elementi nascosti alla vista dell’utente, come ad esempio i popup dei cookie o le finestre di verifica, consentendo un accesso continuo ai contenuti delle pagine web. Consentendo al browser di svolgere autonomamente le proprie attività, Opera compie un significativo passo avanti nel rendere i browser “agici”, non solo strumenti per accedere a internet, ma assistenti che migliorano attivamente la produttività. Leggi di più su www.artificialintelligence-news.com

Implementazione AI per le agenzie: 7 buone pratiche dagli esperti

Implementazione AI per le agenzie: 7 buone pratiche dagli esperti

In pochi anni, da quando l’intelligenza artificiale è decollata, si è trasformata da nuovo giocattolo scintillante nel marketing a spina dorsale del funzionamento delle agenzie. Infatti, secondo il rapporto 2024 di Forrester, il 91% delle agenzie pubblicitarie statunitensi sta utilizzando o esplorando l’IA generativa. Ma implementare l’IA con successo non è così semplice come collegare uno strumento e aspettarsi una magia. È necessaria una chiara strategia di implementazione dell’IA per assicurarsi che migliori il loro lavoro anziché interromperlo. Per aiutarti, abbiamo parlato con i leader delle agenzie e con gli esperti di IA per scoprire i consigli pratici e le best practice per integrare l’IA nel flusso di lavoro della tua agenzia. Ecco cosa ci hanno detto. 1. Assegna un chiaro campione di intelligenza artificiale Una delle maggiori difficoltà che le agenzie incontrano nell’adozione dell’IA è la mancanza di concentrazione. In genere le agenzie cadono in una delle due trappole (o in entrambe): I team non hanno il tempo (o non lo riservano) per provare gli strumenti di IA o per formarli adeguatamente. Alcuni dipendenti provano gli strumenti qua e là, ma non ne segue un’implementazione adeguata a livello generale. “Se dicessimo: ‘tutti devono implementare l’IA’ senza che nessuno lo faccia davvero, non arriveremmo da nessuna parte”, afferma Artūras Lazejevas, CTO di Whatagraph. Il modo migliore per combattere questo problema è nominare una persona responsabile di guidare l’adozione dell’IA in tutti i reparti. Nella maggior parte delle organizzazioni, si tratta del CEO o del CMO, secondo il rapporto State of Marketing AI 2024 di Salesloft e Marketing AI Institute. Sorprendentemente, il CTO si colloca al quarto posto, appena sotto “nessuno possiede l’IA”. 2. Identifica le aree in cui il tempo del tuo team viene sprecato Una volta che hai un campione di intelligenza artificiale, il suo primo compito dovrebbe essere quello di individuare i punti in cui i team perdono tempo in attività ripetitive. Artūras suggerisce un semplice esercizio: Tieni traccia delle ore di lavoro del team per una settimana: cosa sta consumando tempo? Identifica le attività ripetitive e di scarso valore: i report manuali, la creazione di contenuti o l’inserimento di dati occupano ore preziose? Trova i successi rapidi dell’automazione: ad esempio, il team SEO di Whatagraph ha risparmiato ore automatizzando la generazione di alt-text con uno strumento AI a basso codice. Ma mentre lo fai, è anche importante valutare se un’attività o un processo specifico è effettivamente necessario e vale la pena automatizzarlo con l’IA. “Un processo sbagliato, se automatizzato, diventa un processo sbagliato più veloce”, afferma Peter Lewis, fondatore e CEO di Strategic Pete, un’agenzia di consulenza di marketing. “Ho visto agenzie lanciarsi nell’IA per la generazione di lead senza un buon sistema per seguirli. I contatti iniziavano ad arrivare, ma le vendite no, perché il team non aveva un buon flusso di lavoro per gestire il carico” Prima di automatizzare qualcosa, verifica i tuoi processi. Chiediti: Questo processo è prezioso ed effettivamente necessario? Quali inefficienze possiamo eliminare? Esiste un modo più intelligente per raggiungere lo stesso obiettivo? Una volta individuato che un processo specifico è necessario e prezioso, puoi decidere di automatizzarlo con l’intelligenza artificiale. 3. Iniziare in piccolo e creare una prova di concetto L’intelligenza artificiale sembra enorme e travolgente per la maggior parte delle agenzie, ma non deve esserlo per forza. Invece di revisionare interi flussi di lavoro, inizia con piccoli progetti pilota a basso rischio. “Le aziende si bloccano perché l’intelligenza artificiale sembra un elefante e temono di non essere in grado di affrontarla”, afferma Artūras. “Ma è possibile adottarla passo dopo passo. Inizia con compiti semplici, ad esempio usando Perplexity AI per le ricerche invece di Google” Il suo consiglio è di concentrarsi su: Vittorie rapide: Individua piccole attività ripetitive che l’intelligenza artificiale può automatizzare. Iterazioni rapide: Costruisci e testa soluzioni semplici senza complicarle troppo. Scalabilità: Una volta che un concetto funziona, scalalo rapidamente per massimizzarne l’impatto. Questo è anche il modo in cui Justin Belmont, fondatore e CEO di Prose ed ex caporedattore di Google, ha implementato l’intelligenza artificiale nella sua agenzia. Ci racconta: “Abbiamo iniziato a testare gli strumenti su progetti interni e a vedere cosa funzionava. Una volta definito il flusso di lavoro, lo abbiamo ampliato per il lavoro dei clienti. Non è stato un lancio in grande stile, ma una serie di piccoli successi” 4. Addestra il tuo team, ma non pensarci troppo Un’altra area chiave per una strategia di implementazione dell’IA di successo è la formazione, ma non è necessario che sia un’iniziativa massiccia e ricca di risorse. “L’allenamento non deve essere perfetto, deve solo accadere”, dice Artūras. Ad esempio, quando voleva che i non ingegneri imparassero a scrivere i prompt, Artūras ha trovato rapidamente le diapositive di Anthropic online, si è esercitato su di esse e poi ha organizzato una rapida sessione di gruppo, registrandola per un uso futuro. “Il lavoro di preparazione mi ha richiesto solo quattro ore. Non ho progettato un intero programma di allenamento, ho semplicemente deciso di farlo”, racconta. Per formare il tuo team in modo efficace: Mantieni le cose semplici: Concentrati su piccole competenze specifiche di cui il tuo team ha bisogno per adottare l’IA in modo efficace. Inizia con i risultati rapidi: Scegli uno strumento o un processo che fornisca un valore immediato, come migliorare la scrittura dei messaggi o automatizzare le attività ripetitive. Itera man mano che procedi: Non è necessario che la formazione sia perfetta fin dall’inizio. Esegui una sessione veloce, raccogli il feedback e perfeziona se necessario. 5. Prepara i tuoi dati L’intelligenza artificiale è buona quanto i dati con cui lavora. Se i tuoi dati sono disordinati, incompleti o sparsi su più piattaforme, anche gli strumenti di IA più avanzati non saranno in grado di fornire informazioni accurate. “La preparazione e la pulizia dei dati sono davvero importanti”, afferma Artūras. “Se consolidi i dati cross-channel e chiedi all’IA di generare dei riepiloghi, ti stupirai di quanto l’IA sia in grado di rilevare tutto” Ecco come garantire che i tuoi dati siano pronti per l’intelligenza artificiale:

Meta vuole che le aziende di tutte le dimensioni utilizzino il suo assistente AI

Meta vuole che le aziende di tutte le dimensioni utilizzino il suo assistente AI

Meta ha introdotto l’assistente digitale Meta AI , alimentato dall’intelligenza artificiale generativa, nel settembre 2023 su Instagram, Messenger e WhatsApp e, a quanto pare, l’azienda sta sviluppando un’applicazione autonoma. Ora sta lavorando per portare la potenza di Meta AI alle aziende di tutte le dimensioni. Meta AI ha più di 700 milioni di utenti attivi mensili e l’amministratore delegato Mark Zuckerberg ha dichiarato, durante la telefonata per gli utili del quarto trimestre del 2024 a fine gennaio, che prevede di superare il miliardo entro la fine dell’anno. L’azienda ha dichiarato martedì di aver lavorato negli ultimi mesi per creare strumenti abbastanza semplici da consentire anche a un’azienda con un solo dipendente di attivare un assistente AI, guidare le vendite, fornire assistenza, coinvolgere e approfondire le relazioni con i clienti. “Nel prossimo futuro, crediamo che la maggior parte delle aziende avrà un’IA che interagirà con i clienti per loro conto”, ha scritto Meta nella pagina dedicata alle IA aziendali. “Le grandi aziende lo sanno e stanno investendo in software complessi e in team di information technology per lanciare le loro soluzioni di IA. L’obiettivo di Meta è quello di rendere l’IA accessibile a tutte le aziende, indipendentemente dalle dimensioni, proprio come abbiamo fatto per gli annunci pubblicitari” Tra gli aggiornamenti che Clara Shih, vicepresidente di Meta per l’AI aziendale, ha condiviso martedì, l’azienda sta perfezionando l’esperienza di onboarding per consentire alle aziende di iniziare subito a lavorare, aggiungendo un nuovo prompt per le informazioni mancanti in modo che il modello continui a migliorare in tempo reale. Meta sta inoltre testando le IA aziendali sugli annunci di Facebook e Instagram, consentendo agli utenti di accedervi direttamente tramite l’annuncio o un browser in-app, dove possono porre domande su prodotti e servizi e ricevere raccomandazioni personalizzate, il tutto senza lasciare l’app. Infine, l’azienda inizierà presto a testare una funzione vocale per le IA aziendali negli annunci, consentendo agli utenti di scegliere se interagire con l’IA tramite testo o voce. Meta ha dichiarato che le sue IA aziendali vengono addestrate sui contenuti e sul catalogo di prodotti di un’azienda, liberando il team per concentrarsi su lavori di maggior valore, e le aziende hanno il pieno controllo sulle situazioni e sugli argomenti che scelgono di delegare all’IA aziendale, nonché su quelli in cui non vogliono che l’IA sia coinvolta.   L’azienda ha sottolineato che gli sviluppatori e le aziende possono accedere alla famiglia di modelli aperti Llama e perfezionare e distribuire le IA basate su di essi; inoltre, sono disponibili strumenti come Llama Guard e Llama Prompt Guard per garantire la sicurezza dei modelli e proteggersi dagli attacchi alla sicurezza. “In futuro, ci aspettiamo che le IA lavorino insieme, definendo nuove ed entusiasmanti esperienze digitali che andranno a beneficio di tutti”, ha concluso Meta. Leggi di più su www.adweek.com

Google lancia la modalità AI per le ricerche in più fasi

Google lancia la modalità AI per le ricerche in più fasi

Google sta testando una nuova modalità AI per la ricerca, ha dichiarato mercoledì. Il programma sperimentale genera un’intera pagina di risultati basati sull’intelligenza artificiale in risposta alle domande degli utenti. A differenza delle attuali panoramiche AI di Google, che visualizzano una singola risposta generata dall’AI in cima ai risultati di ricerca dell’utente, la Modalità AI è progettata per gestire ricerche più complesse e in più fasi, che altrimenti potrebbero richiedere una serie di ricerche separate. Grazie al modello di AI generativa Gemini 2.0 di Google, lo strumento organizza le informazioni in modo da incoraggiare un’esplorazione più approfondita e domande successive. La funzione è in grado di condurre “più ricerche correlate in contemporanea tra sotto-argomenti e più fonti di dati” e di raccogliere i risultati in un formato semplificato e digeribile, ha spiegato Robby Stein, vp of product di Google Search, in un post sul blog. Questo metodo di ricerca consente una maggiore profondità e ampiezza rispetto a una ricerca più tradizionale, ha spiegato Stein. I risultati possono includere vari link, consigli e suggerimenti per altre considerazioni. Nei casi in cui il modello non abbia un’elevata fiducia nella qualità o nell’utilità di una risposta generata dall’intelligenza artificiale, verranno invece forniti risultati di ricerca web standard. Il lancio fa parte degli sforzi più ampi di Google per integrare l’intelligenza artificiale nei suoi prodotti e allo stesso tempo affrontare la sfida di mantenere il lucroso business della pubblicità di ricerca. Strumenti di ricerca basati sull’intelligenza artificiale come ChatGPT Search e Perplexity sono stati considerati come potenziali minacce al dominio di Google nel settore della ricerca, anche se lunedì l’azienda ha dichiarato di effettuare oltre 5.000 miliardi di ricerche all’anno, suggerendo che i chatbot dell’intelligenza artificiale non hanno avuto un impatto significativo sul comportamento degli utenti. L’AI Mode, tuttavia, rappresenta un cambiamento nel modo in cui Google intende evolvere la ricerca, colmando potenzialmente il divario tra la ricerca tradizionale e l’AI conversazionale. Mercoledì Google ha anche dichiarato che sta lavorando per migliorare le panoramiche AI, che sono state distribuite a oltre un miliardo di utenti. L’azienda ha aggiornato le panoramiche con Gemini 2.0, migliorando le prestazioni in aree come la codifica, la matematica avanzata e le query multimodali. Inoltre, le panoramiche AI sono ora disponibili per gli utenti adolescenti e non richiedono più l’accesso a un account Google. L’AI Mode è ancora in fase iniziale, in quanto Google sta cercando di ottenere un feedback dai tester. Stein ha notato che i primi utenti hanno utilizzato la funzione in modo diverso rispetto alla ricerca tradizionale, scrivendo query più lunghe e ponendo domande di approfondimento con maggiore frequenza. Man mano che l’azienda perfeziona l’AI Mode, prevede di ampliarne le funzionalità, includendo risposte più visive con immagini e video, una formattazione più ricca e ulteriori modalità di accesso ai contenuti web. La Modalità AI è attualmente disponibile per un numero limitato di abbonati a Google One AI Premium negli Stati Uniti attraverso Search Labs, anche se Google non ha fornito una tempistica per un’implementazione più ampia. Leggi di più su www.adweek.com

Alibaba Qwen QwQ-32B: vetrina dell’apprendimento per rinforzo scalato

Alibaba Qwen QwQ-32B: vetrina dell'apprendimento per rinforzo scalato

Il team Qwen di Alibaba ha presentato QwQ-32B, un modello di intelligenza artificiale da 32 miliardi di parametri che ha dimostrato di poter competere con il più grande DeepSeek-R1. Questa scoperta evidenzia il potenziale della scalabilità dell’Apprendimento Rinforzato (RL) su modelli di base robusti. Il team di Qwen ha integrato con successo le capacità degli agenti nel modello di ragionamento, consentendogli di pensare in modo critico, di utilizzare gli strumenti e di adattare il ragionamento in base al feedback ambientale. “La scalabilità dell’RL ha il potenziale per migliorare le prestazioni del modello al di là dei metodi convenzionali di pre-formazione e post-formazione”, ha dichiarato il team. “Studi recenti hanno dimostrato che l’RL può migliorare significativamente le capacità di ragionamento dei modelli” QwQ-32B raggiunge prestazioni paragonabili a quelle di DeepSeek-R1, che vanta 671 miliardi di parametri (con 37 miliardi di parametri attivati), a riprova dell’efficacia dell’RL quando viene applicato a modelli di base robusti e preaddestrati sulla base di un’ampia conoscenza del mondo. Questo notevole risultato sottolinea il potenziale di RL nel colmare il divario tra le dimensioni del modello e le prestazioni. Il modello è stato valutato attraverso una serie di benchmark, tra cui AIME24, LiveCodeBench, LiveBench, IFEval e BFCL, progettati per valutare il ragionamento matematico, la capacità di codifica e le capacità generali di risoluzione dei problemi. I risultati evidenziano le prestazioni di QwQ-32B rispetto ad altri modelli leader, tra cui DeepSeek-R1-Distilled-Qwen-32B, DeepSeek-R1-Distilled-Llama-70B, o1-mini e il DeepSeek-R1 originale. Risultati dei benchmark: AIME24: QwQ-32B ha ottenuto un punteggio di 79,5, leggermente inferiore al 79,8 di DeepSeek-R1-6718, ma nettamente superiore al 63,6 di OpenAl-o1-mini e ai modelli distillati. LiveCodeBench: QwQ-32B ha ottenuto un punteggio di 63,4, anche in questo caso molto vicino al 65,9 di DeepSeek-R1-6718 e superando i modelli distillati e il 53,8 di OpenAl-o1-mini. LiveBench: QwQ-32B ha ottenuto 73,1, mentre DeepSeek-R1-6718 ha ottenuto 71,6, superando i modelli distillati e OpenAl-o1-mini (57,5). IFEval: QwQ-32B ha ottenuto un punteggio di 83,9, molto vicino all’83,3 di DeepSeek-R1-6718, superando i modelli distillati e il 59,1 di OpenAl-o1-mini. BFCL: QwQ-32B ha ottenuto un punteggio di 66,4, mentre DeepSeek-R1-6718 ha ottenuto un punteggio di 62,8, dimostrando un vantaggio rispetto ai modelli distillati e al 49,3 di OpenAl-o1-mini. L’approccio del team di Qwen prevedeva un checkpoint di avvio a freddo e un processo di RL in più fasi guidato da ricompense basate sui risultati. La fase iniziale si è concentrata sulla scalabilità dell’RL per compiti matematici e di codifica, utilizzando verificatori di precisione e server di esecuzione del codice. La seconda fase si è estesa alle capacità generali, incorporando ricompense da modelli di ricompensa generali e verificatori basati su regole. “Abbiamo scoperto che questa fase di addestramento RL con una piccola quantità di passi può aumentare le prestazioni di altre capacità generali, come il seguire le istruzioni, l’allineamento con le preferenze umane e le prestazioni dell’agente, senza un calo significativo delle prestazioni in matematica e codifica”, ha spiegato il team. QwQ-32B è aperto e disponibile su Hugging Face e ModelScope con licenza Apache 2.0 ed è accessibile anche tramite Qwen Chat. Il team di Qwen ritiene che questo sia un primo passo verso la scalabilità dell’RL per migliorare le capacità di ragionamento e intende esplorare ulteriormente l’integrazione degli agenti con l’RL per il ragionamento a lungo termine. “Mentre lavoriamo allo sviluppo della prossima generazione di Qwen, siamo fiduciosi che la combinazione di modelli di base più solidi con l’RL alimentato da risorse computazionali scalabili ci porterà più vicino al raggiungimento dell’Intelligenza Generale Artificiale (AGI)”, ha dichiarato il team. Leggi di più su www.artificialintelligence-news.com

Il primo scienziato creato dall’intelligenza artificiale ha scritto le sue prime peer review

Il primo scienziato creato dall'intelligenza artificiale ha scritto le sue prime peer review

L’Autoscience Institute, di recente costituzione, ha presentato “Carl”, il primo sistema di intelligenza artificiale che elabora documenti di ricerca accademici e che ha superato un rigoroso processo di peer-review in doppio cieco. I documenti di ricerca di Carl sono stati accettati nella sezione Tiny Papers della Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento (ICLR). In particolare, questi lavori sono stati generati con un coinvolgimento umano minimo, inaugurando una nuova era per la scoperta scientifica guidata dall’intelligenza artificiale. Ti presentiamo Carl: il “ricercatore automatizzato” Carl rappresenta un balzo in avanti nel ruolo dell’IA non solo come strumento, ma come partecipante attivo alla ricerca accademica. Descritto come “uno scienziato di ricerca automatizzato”, Carl applica modelli di linguaggio naturale per ideare, ipotizzare e citare accuratamente i lavori accademici. In particolare, Carl è in grado di leggere e comprendere gli articoli pubblicati in pochi secondi. A differenza dei ricercatori umani, lavora ininterrottamente, accelerando così i cicli di ricerca e riducendo i costi di sperimentazione. Secondo Autoscience, Carl è riuscito a “ideare nuove ipotesi scientifiche, progettare ed eseguire esperimenti e scrivere diversi articoli accademici che hanno superato la peer review dei laboratori” Questo sottolinea il potenziale dell’IA non solo di integrare la ricerca umana ma, per molti versi, di superarla in velocità ed efficienza. Carl è un lavoratore meticoloso, ma il coinvolgimento umano è ancora fondamentale La capacità di Carl di generare lavori accademici di alta qualità si basa su un processo in tre fasi: Ideazione e formazione di ipotesi: Sfruttando le ricerche esistenti, Carl identifica potenziali direzioni di ricerca e genera ipotesi. La sua profonda comprensione della letteratura correlata gli permette di formulare idee innovative nel campo dell’IA. Sperimentazione: Carl scrive codice, testa le ipotesi e visualizza i dati risultanti attraverso figure dettagliate. Il suo lavoro instancabile accorcia i tempi di iterazione e riduce le attività ridondanti. Presentazione: Infine, Carl compila i suoi risultati in elaborati accademici, completi di visualizzazioni dei dati e conclusioni chiaramente articolate. Sebbene le capacità di Carl lo rendano ampiamente indipendente, in alcuni punti del suo flusso di lavoro è necessario l’intervento umano per rispettare gli standard computazionali, di formattazione ed etici: L’avvio delle fasi di ricerca: Per evitare di sprecare risorse computazionali, i revisori umani forniscono segnali di “continua” o “ferma” durante fasi specifiche del processo di Carl. Queste indicazioni permettono a Carl di portare a termine i progetti in modo più efficiente, ma non influenzano le specifiche della ricerca stessa. Citazioni e formattazione: Il team di Autoscience si assicura che tutti i riferimenti siano citati correttamente e formattati in modo da rispettare gli standard accademici. Al momento si tratta di una fase manuale, ma garantisce che la ricerca sia in linea con le aspettative della sede di pubblicazione. Assistenza con i modelli pre-API: Carl si affida occasionalmente ai modelli OpenAI e Deep Research più recenti che non dispongono di API auto-accessibili. In questi casi, gli interventi manuali, come il copia-incolla degli output, colmano queste lacune. Autoscience prevede che in futuro questi compiti saranno completamente automatizzati quando le API saranno disponibili. Per l’articolo di debutto di Carl, il team umano ha anche aiutato a creare la sezione “lavori correlati” e a perfezionare il linguaggio. Questi compiti, tuttavia, non sono stati necessari in seguito agli aggiornamenti applicati prima degli invii successivi. Un rigoroso processo di verifica dell’integrità accademica Prima di inviare qualsiasi ricerca, il team di Autoscience ha intrapreso un rigoroso processo di verifica per garantire che il lavoro di Carl rispondesse ai più alti standard di integrità accademica: Riproducibilità: Ogni riga del codice di Carl è stata esaminata e gli esperimenti sono stati ripetuti per confermare la riproducibilità. In questo modo abbiamo garantito che i risultati fossero scientificamente validi e non anomalie casuali. Controlli sull’originalità: Autoscience ha condotto approfondite valutazioni di novità per garantire che le idee di Carl fossero nuovi contributi al campo e non versioni rimaneggiate di pubblicazioni esistenti. Convalida esterna: Un hackathon che ha coinvolto ricercatori di importanti istituzioni accademiche, come il MIT, l’Università di Stanford e l’U.C. Berkeley, ha verificato in modo indipendente la ricerca di Carl. Sono stati effettuati ulteriori controlli sul plagio e sulle citazioni per garantire la conformità alle norme accademiche. Un potenziale innegabile, ma che solleva questioni più ampie Raggiungere l’accettazione da parte di un workshop rispettato come l’ICLR è una pietra miliare significativa, ma Autoscience si rende conto della conversazione più ampia che questa pietra miliare può innescare. Il successo di Carl solleva questioni filosofiche e logistiche più ampie sul ruolo dell’IA in ambito accademico. “Crediamo che i risultati legittimi debbano essere aggiunti alla base di conoscenza pubblica, indipendentemente dalla loro origine”, ha spiegato Autoscience. “Se la ricerca soddisfa gli standard scientifici stabiliti dalla comunità accademica, chi – o cosa – l’ha creata non dovrebbe comportare una squalifica automatica” “Tuttavia, riteniamo anche che una corretta attribuzione sia necessaria per una scienza trasparente e che il lavoro puramente generato dai sistemi di IA debba essere distinguibile da quello prodotto dagli esseri umani” Data la novità dei ricercatori autonomi di IA come Carl, gli organizzatori della conferenza potrebbero aver bisogno di tempo per stabilire nuove linee guida che tengano conto di questo paradigma emergente, soprattutto per garantire una valutazione equa e standard di attribuzione intellettuale. Per evitare inutili polemiche, Autoscience ha ritirato i lavori di Carl dai workshop dell’ICLR in attesa di definire queste linee guida. In futuro, Autoscience intende contribuire alla definizione di questi standard in evoluzione. L’azienda intende proporre un workshop dedicato al NeurIPS 2025 per accogliere formalmente le proposte di ricerca dei sistemi di ricerca autonomi. Man mano che si sviluppa la narrativa sulla ricerca generata dall’intelligenza artificiale, è chiaro che i sistemi come Carl non sono semplici strumenti ma collaboratori nella ricerca della conoscenza. Tuttavia, poiché questi sistemi trascendono i confini tipici, la comunità accademica deve adattarsi per abbracciare pienamente questo nuovo paradigma, salvaguardando l’integrità, la trasparenza e la corretta attribuzione. Leggi di più su www.artificialintelligence-news.com

Il modello di AI di nuova generazione alla ricerca della verità

Il modello di AI di nuova generazione alla ricerca della verità

Lunedì scorso xAI ha presentato il suo modello di intelligenza artificiale Grok 3, insieme a nuove funzionalità come l’analisi delle immagini e la risposta alle domande. Per sviluppare Grok 3, l’azienda ha sfruttato un immenso centro dati dotato di circa 200.000 GPU. Secondo il proprietario di xAI Elon Musk, questo progetto ha utilizzato una potenza di calcolo “10 volte” superiore rispetto al suo predecessore, Grok 2, con un set di dati ampliato che, a quanto pare, include informazioni provenienti da cause legali. Musk ha dichiarato che Grok 3 è una “AI che cerca la massima verità, anche se questa verità a volte è in contrasto con ciò che è politicamente corretto” Il lancio di Grok 3 comprende una famiglia di modelli progettati per esigenze diverse. Grok 3 mini, ad esempio, privilegia tempi di risposta più rapidi rispetto alla precisione assoluta. Tuttavia, sono particolarmente degni di nota i nuovi modelli Grok 3 incentrati sul ragionamento. Denominate Grok 3 Reasoning e Grok 3 mini Reasoning, queste varianti mirano a emulare processi cognitivi simili a quelli umani “ragionando” attraverso i problemi. Paragonabili a modelli come o3-mini di OpenAI e R1 di DeepSeek, questi sistemi di ragionamento cercano di verificare le loro risposte, riducendo la probabilità di errori o passi falsi. Grok 3: i risultati del benchmark xAI afferma che Grok 3 supera GPT-4o di OpenAI in alcuni benchmark, tra cui AIME e GPQA, che valutano la capacità del modello di affrontare problemi complessi di matematica, fisica, biologia e chimica. La prima versione di Grok 3 è anche attualmente in testa a Chatbot Arena, una piattaforma di valutazione crowdsourced in cui gli utenti mettono i modelli di IA uno contro l’altro e classificano i loro risultati. Il modello è il primo a superare il punteggio di 1400 dell’Arena. BREAKING: la prima versione di Grok-3 di @xAI (nome in codice “chocolate”) è ora al primo posto in Arena! 🏆 Grok-3 è: – Il primo modello in assoluto a superare il punteggio di 1400! – Il primo in tutte le categorie, una pietra miliare sempre più difficile da raggiungere Congratulazioni enormi a @xAI per questo traguardo! Visualizza thread 🧵… https://t.co/p8z8lccNd5 pic.twitter.com/hShGy8ZN1o – lmarena.ai (ex lmsys.org) (@lmarena_ai) 18 febbraio 2025 Secondo xAI, Grok 3 Reasoning supera i suoi rivali in una serie di benchmark importanti: Questi modelli di ragionamento sono già integrati nelle funzioni disponibili tramite l’app Grok. Gli utenti possono selezionare comandi come “Pensa” o attivare la modalità “Big Brain”, più impegnativa dal punto di vista computazionale, per affrontare domande particolarmente impegnative. xAI ha posizionato i modelli di ragionamento come strumenti ideali per le applicazioni STEM (scienza, tecnologia, ingegneria e matematica), comprese le sfide di matematica, scienze e coding. Protezione contro la distillazione dell’intelligenza artificiale È interessante notare che non tutti i processi interni di Grok 3 sono accessibili agli utenti. Musk ha spiegato che alcuni “pensieri” dei modelli di ragionamento sono intenzionalmente oscurati per evitare la distillazione, una pratica controversa in cui gli sviluppatori di IA concorrenti estraggono conoscenze dai modelli proprietari. Questa pratica è stata messa sotto i riflettori nelle ultime settimane dopo che l’azienda cinese di AI DeepSeek ha dovuto affrontare le accuse di aver distillato i modelli di OpenAI per sviluppare il suo ultimo modello, R-1. i nuovi modelli di ragionamento di xAI sono alla base di una nuova funzione dell’app Grok chiamata DeepSearch. Questa funzione utilizza i modelli di Grok per scansionare Internet e la piattaforma sociale di Musk, X, alla ricerca di informazioni rilevanti prima di sintetizzare un estratto dettagliato in risposta alle domande degli utenti. Accesso a Grok 3 e impegno nell’open-source L’accesso all’ultimo modello di Grok è attualmente legato ai livelli di abbonamento a X. Gli abbonati Premium, che pagano $50 (~£41) al mese, riceveranno un accesso prioritario alle ultime funzionalità. xAI sta introducendo anche un piano di abbonamento SuperGrok, il cui prezzo, a quanto pare, è di 30 dollari al mese o 300 dollari all’anno. Gli abbonati a SuperGrok potranno beneficiare di maggiori capacità di ragionamento, di un maggior numero di query DeepSearch e di funzioni illimitate di generazione di immagini. L’azienda ha anche anticipato le prossime funzionalità. Entro una settimana, l’app Grok dovrebbe introdurre una modalità vocale che permetterà agli utenti di interagire con l’intelligenza artificiale attraverso una voce sintetizzata simile a quella di Gemini Live. Musk ha inoltre rivelato l’intenzione di rilasciare i modelli di Grok 3 tramite un’API enterprise-ready nelle prossime settimane, con la funzionalità DeepSearch inclusa. Sebbene Grok 3 sia ancora fresco, xAI intende rendere open-source il suo predecessore nei prossimi mesi. Musk afferma che xAI continuerà a rendere open-source l’ultima versione di Grok. “Quando Grok 3 sarà maturo e stabile, probabilmente entro qualche mese, allora apriremo l’open-source di Grok 2”, spiega Musk. Il modello di intelligenza artificiale “anti-risveglio Grok è stato a lungo commercializzato come un’intelligenza artificiale non filtrata, audace e disposta ad affrontare richieste che i concorrenti potrebbero evitare. Musk ha già descritto l’IA come “anti-woke”, presentandola come un modello che non ha paura di toccare argomenti controversi. Fedeli alla sua promessa, i primi modelli come Grok e Grok 2 hanno accolto le domande di carattere politico, arrivando a usare un linguaggio colorito quando richiesto. Tuttavia, queste versioni rivelavano anche alcuni pregiudizi quando si addentravano in un discorso politico. “Stiamo lavorando per rendere Grok più neutrale dal punto di vista politico”, ha dichiarato Musk. Tuttavia, resta da vedere se Grok 3 raggiungerà questo obiettivo. Con questi cambiamenti in gioco, gli analisti stanno già evidenziando i potenziali impatti sociali dell’introduzione di sistemi di intelligenza artificiale sempre più “alla ricerca della verità” ma politicamente sensibili. Con Grok 3, Musk e xAI hanno fatto una dichiarazione coraggiosa, spingendo la loro tecnologia in avanti e potenzialmente alimentando i dibattiti su pregiudizi, trasparenza ed etica dell’utilizzo dell’IA. Mentre concorrenti come OpenAI, Google e DeepSeek perfezionano le loro offerte, il successo di Grok 3 dipenderà dalla sua capacità di bilanciare accuratezza, richieste degli utenti e responsabilità sociale. Leggi di più su www.artificialintelligence-news.com

La prossima scommessa di Perplexity? Un browser guidato dall’intelligenza artificiale chiamato Comet

La prossima scommessa di Perplexity? Un browser guidato dall'intelligenza artificiale chiamato Comet

Perplexity sta andando oltre la ricerca AI per entrare nell’affollato mercato dei browser web. La startup da 9 miliardi di dollari ha presentato il suo nuovo browser, Comet, su X, definendolo un’esperienza di “ricerca agenziale”. Ha lanciato una lista di iscrizione ma ha offerto pochi dettagli su come il browser si distinguerà dalla concorrenza. Comet: Un browser per la ricerca agenziale di Perplexity In arrivo. pic.twitter.com/SwVSwudgtN – Perplexity (@perplexity_ai) 24 febbraio 2025 “Come abbiamo reinventato la ricerca con l’intelligenza artificiale, stiamo reinventando anche il browser”, ha dichiarato un portavoce di Perplexity ad ADWEEK, ma non ha voluto condividere le caratteristiche principali di Comet, né se potrà gestire annunci pubblicitari. Sostenuta da Jeff Bezos, Perplexity ha raccolto oltre 500 milioni di dollari e gestisce più di 100 milioni di interrogazioni alla settimana. L’azienda sta aumentando la monetizzazione attraverso la pubblicità e l’e-commerce eora sta scommettendo che un browser potrebbe essere il suo prossimo grande successo. Si tratta di una mossa ambiziosa in uno spazio dominato da Google Chrome, Safari e Microsoft Edge, browser profondamente integrati nei rispettivi ecosistemi. Anche se non è chiaro in che modo Comet si differenzierà, la spinta di Perplexity verso la navigazione web segnala uno sforzo per controllare maggiormente l’esperienza di ricerca. Se Perplexity inserisce il suo motore di ricerca alimentato dall’intelligenza artificiale direttamente nell’interfaccia di navigazione, gli utenti potrebbero trovare le risposte senza dover visitare i risultati di ricerca tradizionali. “Sebbene lo spazio sia affollato di concorrenti, nessuno ha ancora realizzato una solida integrazione dell’intelligenza artificiale nell’esperienza del browser in modo tale da convincere i consumatori”, ha dichiarato Damian Rollison, direttore delle ricerche di mercato di SOCi. “Molti degli strumenti agenziali recentemente debuttati, ma ancora difficilmente accessibili, da aziende come OpenAI si adatterebbero bene al formato di un browser. Un browser davvero innovativo potrebbe essere l’elemento che aiuta a far conoscere Perplexity a un mercato più ampio”

Fetch.ai lancia il primo modello di AI agenziale Web3

Fetch.ai lancia il primo modello di AI agenziale Web3

Fetch.ai ha lanciato ASI-1 Mini, un modello linguistico nativo Web3 di grandi dimensioni progettato per supportare complessi flussi di lavoro di intelligenza artificiale. Descritta come una svolta per l’accessibilità e le prestazioni dell’IA, ASI-1 Mini è apprezzata per la capacità di fornire risultati pari a quelli dei principali LLM, ma a costi hardware significativamente ridotti: un balzo in avanti per rendere l’IA enterprise-ready. ASI-1 Mini si integra negli ecosistemi Web3, consentendo interazioni AI sicure e autonome. Il suo rilascio pone le basi per un’innovazione più ampia nel settore dell’IA, compreso l’imminente lancio della suite Cortex, che migliorerà ulteriormente l’uso di modelli linguistici di grandi dimensioni e dell’intelligenza generalizzata. “Questo lancio segna l’inizio della diffusione di ASI-1 Mini e di una nuova era dell’IA di proprietà della comunità. Decentralizzando la catena del valore dell’IA, stiamo dando alla comunità Web3 la possibilità di investire, addestrare e possedere modelli fondamentali di IA”, ha dichiarato Humayun Sheikh, CEO di Fetch.ai e presidente dell’Artificial Superintelligence Alliance. “Presto introdurremo un’integrazione avanzata di strumenti agenziali, funzionalità multimodali e una più profonda sinergia con Web3 per migliorare le capacità di automazione di ASI-1 Mini, mantenendo la creazione di valore dell’IA nelle mani di chi vi contribuisce” Democratizzare l’IA con Web3: proprietà decentralizzata e valore condiviso La chiave della visione di Fetch.ai è la democratizzazione dei modelli fondamentali di IA, consentendo alla comunità Web3 non solo di utilizzare, ma anche di addestrare e possedere LLM proprietari come ASI-1 Mini. Questa decentralizzazione apre ai singoli individui l’opportunità di beneficiare direttamente della crescita economica di modelli di IA all’avanguardia, che potrebbero raggiungere valutazioni multimiliardarie. Attraverso la piattaforma di Fetch.ai, gli utenti possono investire in collezioni curate di modelli di intelligenza artificiale, contribuire al loro sviluppo e condividere i ricavi generati. Per la prima volta, la decentralizzazione è alla base della proprietà dei modelli di intelligenza artificiale, garantendo una distribuzione più equa dei benefici finanziari. Ragionamento avanzato e prestazioni personalizzate ASI-1 Mini introduce l’adattabilità nel processo decisionale con quattro modalità di ragionamento dinamico: Multi-Step, Complete, Optimised e Short Reasoning. Questa flessibilità consente di bilanciare profondità e precisione in base al compito specifico da svolgere. Sia che si tratti di risolvere problemi intricati e a più livelli, sia che si tratti di fornire informazioni concise e attuabili, ASI-1 Mini si adatta dinamicamente per ottenere la massima efficienza. Le sue strutture Mixture of Models (MoM) e Mixture of Agents (MoA) migliorano ulteriormente questa versatilità. Miscela di modelli (MoM): ASI-1 Mini seleziona dinamicamente i modelli rilevanti da una suite di modelli AI specializzati, ottimizzati per compiti o set di dati specifici. Questo garantisce un’elevata efficienza e scalabilità, soprattutto per l’IA multimodale e l’apprendimento federato. Miscela di agenti (MoA): Agenti indipendenti con conoscenze e capacità di ragionamento uniche lavorano in collaborazione per risolvere compiti complessi. Il meccanismo di coordinamento del sistema assicura una distribuzione efficiente dei compiti, aprendo la strada a modelli di IA decentralizzati che prosperano in sistemi dinamici e multi-agente. Questa sofisticata architettura si basa su tre livelli interagenti: Strato fondamentale: ASI-1 Mini funge da centro di intelligenza e orchestrazione. Livello di specializzazione (MoM Marketplace): Ospita diversi modelli di esperti, accessibili attraverso la piattaforma ASI. Livello di azione (AgentVerse): Presenta agenti in grado di gestire database live, integrare API, facilitare flussi di lavoro decentralizzati e altro ancora. Attivando selettivamente solo i modelli e gli agenti necessari, il sistema garantisce prestazioni, precisione e scalabilità nelle attività in tempo reale. Trasformare l’efficienza e l’accessibilità dell’IA A differenza degli LLM tradizionali, che comportano un elevato overhead di calcolo, ASI-1 Mini è ottimizzato per ottenere prestazioni di livello enterprise su due sole GPU, riducendo i costi dell’hardware di ben otto volte. Per le aziende, questo significa ridurre i costi di infrastruttura e aumentare la scalabilità, abbattendo le barriere finanziarie all’integrazione dell’IA ad alte prestazioni. Nei test di benchmark come il Massive Multitask Language Understanding (MMLU), ASI-1 Mini eguaglia o supera i principali LLM in ambiti specializzati come la medicina, la storia, gli affari e il ragionamento logico. In fase di lancio in due fasi, ASI-1 Mini elaborerà presto set di dati molto più ampi grazie alle prossime espansioni della finestra di contesto: Fino a 1 milione di token: Permette al modello di analizzare documenti complessi o manuali tecnici. Fino a 10 milioni di gettoni: Consente di realizzare applicazioni di alto livello come la revisione di documenti legali, l’analisi finanziaria e i set di dati su scala aziendale. Questi miglioramenti renderanno ASI-1 Mini inestimabile per le attività complesse e a più livelli. Affrontare il problema della “scatola nera L’industria dell’IA ha da tempo affrontato la sfida di affrontare il problema della “scatola nera”, in cui i modelli di apprendimento profondo giungono a conclusioni senza spiegazioni chiare. ASI-1 Mini attenua questo problema grazie a un ragionamento continuo in più fasi, che facilita le correzioni in tempo reale e ottimizza il processo decisionale. Anche se non elimina del tutto l’opacità, ASI-1 fornisce risultati più spiegabili, fondamentali per settori come la sanità e la finanza. La sua architettura di modelli multi-esperti non solo garantisce la trasparenza, ma ottimizza anche flussi di lavoro complessi in diversi settori. Dalla gestione dei database all’esecuzione della logica aziendale in tempo reale, ASI-1 supera i modelli tradizionali in termini di velocità e affidabilità. Integrazione con AgentVerse: Costruire l’economia dell’intelligenza artificiale ASI-1 Mini si connetterà con AgentVerse, il mercato di agenti di Fetch.ai, fornendo agli utenti gli strumenti per costruire e distribuire agenti autonomi in grado di eseguire compiti reali tramite semplici comandi linguistici. Ad esempio, gli utenti possono automatizzare la pianificazione di viaggi, prenotazioni di ristoranti o transazioni finanziarie attraverso “micro-agenti” ospitati sulla piattaforma. Questo ecosistema consente la personalizzazione e la monetizzazione dell’intelligenza artificiale open-source, creando una “economia agenziale” in cui sviluppatori e aziende prosperano in modo simbiotico. Gli sviluppatori possono monetizzare i micro-agenti, mentre gli utenti possono accedere senza problemi a soluzioni di intelligenza artificiale su misura. Con la maturazione dell’ecosistema agenziale, ASI-1 Mini mira a trasformarsi in una centrale multimodale in grado di elaborare testi strutturati, immagini e set di dati complessi con un

CERTAIN promuove la conformità etica dell’IA in Europa

CERTAIN promuove la conformità etica dell'IA in Europa

L’iniziativa CERTAIN, finanziata dall’UE, mira a promuovere la conformità etica dell’IA in Europa in un contesto di normative crescenti come l’EU AI Act. CERTAIN – acronimo di “Certification for Ethical and Regulatory Transparency in Artificial Intelligence” (Certificazione per la trasparenza etica e normativa nell’intelligenza artificiale) – si concentrerà sullo sviluppo di strumenti e quadri che promuovano la trasparenza, la conformità e la sostenibilità delle tecnologie AI. Il progetto è guidato da Idemia Identity & Security France in collaborazione con 19 partner in dieci paesi europei, tra cui l’Università di Scienze Applicate di St. Pölten (UAS) in Austria. Con il suo lancio ufficiale nel gennaio 2025, CERTAIN potrebbe fungere da modello per la governance globale dell’IA. Promuovere pratiche etiche di IA in Europa Secondo Sebastian Neumaier, ricercatore senior presso l’Istituto di ricerca sulla sicurezza informatica dell’Università di St. Pölten e responsabile del progetto CERTAIN, l’obiettivo è quello di affrontare le sfide normative ed etiche più importanti. “In CERTAIN vogliamo sviluppare strumenti che rendano i sistemi di IA trasparenti e verificabili in conformità con i requisiti della legge europea sull’IA. Il nostro obiettivo è quello di sviluppare soluzioni praticamente realizzabili che aiutino le aziende a soddisfare in modo efficiente i requisiti normativi e a rafforzare in modo sostenibile la fiducia nelle tecnologie di IA”, ha sottolineato Neumaier. Per raggiungere questo obiettivo, CERTAIN si propone di creare strumenti e linee guida di facile utilizzo che semplifichino anche le normative più complesse in materia di IA, aiutando le organizzazioni sia del settore pubblico che di quello privato a orientarsi e ad attuare queste regole in modo efficace. L’intento generale è quello di creare un ponte tra la regolamentazione e l’innovazione, consentendo alle aziende di sfruttare l’IA in modo responsabile e favorendo la fiducia del pubblico. Armonizzare gli standard e migliorare la sostenibilità Uno degli obiettivi principali di CERTAIN è stabilire standard coerenti per la condivisione dei dati e lo sviluppo dell’IA in tutta Europa. Stabilendo norme di interoperabilità a livello di settore, il progetto cerca di migliorare la collaborazione e l’efficienza nell’uso delle tecnologie guidate dall’IA. Lo sforzo di armonizzare le pratiche relative ai dati non si limita alla conformità, ma mira anche a sbloccare nuove opportunità di innovazione. Le soluzioni di CERTAIN creeranno spazi di dati europei aperti e affidabili, componenti essenziali per promuovere una crescita economica sostenibile. In linea con il Green Deal dell’UE, CERTAIN pone un forte accento sulla sostenibilità. Le tecnologie AI, pur essendo trasformative, comportano sfide ambientali significative, comel’elevato consumo di energia e l’elaborazione dei dati ad alta intensità di risorse. CERTAIN affronterà questi problemi promuovendo sistemi di IA efficienti dal punto di vista energetico e sostenendo metodi ecologici di gestione dei dati. Questo duplice approccio non solo è in linea con gli obiettivi di sostenibilità dell’UE, ma garantisce anche che lo sviluppo dell’IA avvenga tenendo conto della salute del pianeta. Un quadro collaborativo per sbloccare l’innovazione dell’IA Un aspetto unico di CERTAIN è il suo approccio alla promozione della collaborazione e del dialogo tra le parti interessate. Il team del progetto presso l’UAS di St. Pölten si sta impegnando attivamente con ricercatori, aziende tecnologiche, responsabili politici e utenti finali per co-sviluppare, testare e perfezionare idee, strumenti e standard. Questo scambio orientato alla pratica va oltre lo sviluppo dei prodotti. CERTAIN funge anche da autorità centrale per informare le parti interessate su questioni legali, etiche e tecniche relative all’IA e alla certificazione. Mantenendo canali di comunicazione aperti, CERTAIN garantisce che i suoi risultati non siano solo pratici ma anche ampiamente adottati. CERTAIN fa parte del programma Horizon Europe dell’UE, in particolare del Cluster 4: Digital, Industry, and Space. Il consorzio multidisciplinare e internazionale del progetto comprende importanti istituzioni accademiche, colossi industriali e organizzazioni di ricerca, il che lo rende un potente sforzo collettivo per plasmare il futuro dell’IA in Europa. Nel gennaio 2025, i rappresentanti dei 20 membri del consorzio si sono incontrati a Osny, in Francia, per dare il via alla loro missione di collaborazione. L’incontro di due giorni ha dato il via all’ambiziosa agenda del progetto: i partner hanno elaborato strategie per affrontare gli ostacoli normativi, tecnici ed etici dell’IA. Garantire la conformità alle normative etiche sull’IA in Europa Con l’avvicinarsi dell’attuazione della legge europea sull’IA, linee guida e strumenti come quelli sviluppati da CERTAIN saranno fondamentali. La legge imporrà requisiti rigorosi ai sistemi di IA, in particolare a quelli considerati “ad alto rischio”, come le applicazioni nel settore sanitario, dei trasporti e delle forze dell’ordine. Se da un lato queste norme mirano a garantire la sicurezza e la responsabilità, dall’altro pongono delle sfide alle organizzazioni che cercano di conformarsi. CERTAIN cerca di alleviare queste difficoltà fornendo soluzioni praticabili che siano in linea con il quadro normativo europeo, incoraggiando al contempo l’innovazione. In questo modo, il progetto svolgerà un ruolo fondamentale nel posizionare l’Europa come leader globale nello sviluppo dell’IA etica. Leggi di più su www.artificialintelligence-news.com