ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

OpenAI si trova di fronte a rendimenti decrescenti con l’ultimo modello di AI

OpenAI si trova di fronte a rendimenti decrescenti con l'ultimo modello di AI

OpenAI sta affrontando rendimenti decrescenti con il suo ultimo modello di intelligenza artificiale e sta affrontando le pressioni dei recenti investimenti. Secondo The Information, il prossimo modello di intelligenza artificiale di OpenAI, il cui nome in codice è Orion, sta offrendo prestazioni inferiori rispetto ai suoi predecessori. Nei test condotti dai dipendenti, Orion avrebbe raggiunto il livello di prestazioni di GPT-4 dopo aver completato solo il 20% del suo addestramento. Tuttavia, il passaggio dal GPT-4 all’atteso GPT-5 sembra presentare miglioramenti qualitativi inferiori rispetto al salto dal GPT-3 al GPT-4. “Alcuni ricercatori dell’azienda ritengono che Orion non sia affidabile rispetto al suo predecessore nella gestione di alcuni compiti”, hanno dichiarato i dipendenti nel rapporto. “Secondo un dipendente di OpenAI, Orion si comporta meglio nei compiti linguistici ma potrebbe non superare i modelli precedenti in compiti come la codifica” Le prime fasi dell’addestramento dell’intelligenza artificiale di solito producono i miglioramenti più significativi, mentre le fasi successive di solito portano a guadagni di prestazioni minori. Di conseguenza, è improbabile che il restante 80% dell’addestramento fornisca progressi pari a quelli delle generazioni precedenti. Questa situazione con il suo ultimo modello di AI emerge in un momento cruciale per OpenAI, dopo un recente round di finanziamento che ha visto l’azienda raccogliere 6,6 miliardi di dollari. Questo sostegno finanziario comporta un aumento delle aspettative da parte degli investitori, oltre a sfide tecniche che complicano le tradizionali metodologie di scalabilità nello sviluppo dell’IA. Se queste prime versioni non soddisfano le aspettative, le future prospettive di raccolta fondi di OpenAI potrebbero non attirare lo stesso livello di interesse. Le limitazioni evidenziate nel rapporto sottolineano una sfida significativa che l’intero settore dell’IA deve affrontare: la diminuzione della disponibilità di dati di formazione di alta qualità e la necessità di mantenere la propria rilevanza in un campo sempre più competitivo. Secondo un documento (PDF) pubblicato a giugno, le aziende di IA esauriranno il pool di dati testuali generati dall’uomo disponibili pubblicamente tra il 2026 e il 2032. Il documento osserva che gli sviluppatori hanno “”spremuto il più possibile” i dati che sono stati utilizzati per consentire i rapidi progressi dell’IA a cui abbiamo assistito negli ultimi anni”. Per affrontare queste sfide, OpenAI sta ripensando radicalmente la sua strategia di sviluppo dell’IA. “In risposta alla recente sfida alle leggi di scala basate sull’addestramento, posta dal rallentamento dei miglioramenti dei GPT, sembra che l’industria stia spostando i propri sforzi verso il miglioramento dei modelli dopo l’addestramento iniziale, con il potenziale risultato di un diverso tipo di legge di scala”, spiega The Information. Nell’affrontare queste sfide, OpenAI deve trovare un equilibrio tra innovazione, applicazione pratica e aspettative degli investitori. Tuttavia, il continuo esodo di figure di spicco dall’azienda non aiuterà di certo le cose. Leggi di più su www.artificialintelligence-news.com

Il modo per migliorare l’esperienza dei clienti

Il modo per migliorare l'esperienza dei clienti

La personalizzazione è diventata un fattore determinante nel campo del marketing digitale, consentendo ai marchi di rafforzare il coinvolgimento dei clienti e di costruire una fedeltà duratura. Gli approcci generici non sono più accettati dai consumatori con l’evolversi delle strategie di marketing. Per questo motivo, agenzie di marketing come Multiplayer e gamified.marketing stanno cercando di fornire un approccio più interattivo e personalizzato per entrare in contatto con i clienti. Infatti, Accenture riporta che il 91% dei clienti è più propenso a fare acquisti presso marchi che conoscono le preferenze dei clienti e forniscono offerte personalizzate. Il cambiamento delle aspettative dei consumatori ha portato a un cambiamento negli approcci al marketing e l’intelligenza artificiale aiuta a realizzare questi cambiamenti. Ci sono diverse aree in cui l ‘intelligenza artificiale è attualmente coinvolta nel marketing: la segmentazione dei clienti, l’analisi dei dati, la personalizzazione dei contenuti e le interazioni con i clienti in tempo reale. Con set di dati generalmente più ampi, gli strumenti di intelligenza artificiale possono prevedere i comportamenti, comprendere le preferenze e offrire esperienze altamente mirate all’istante. McKinsey riporta che le aziende che utilizzano la personalizzazione dell’IA hanno un aumento delle vendite del 20% o più. Il ruolo dell’IA nel far comunicare le aziende con il proprio pubblico diventa centrale. Il viaggio verso esperienze di marketing altamente personalizzate è stato graduale, ma è iniziato con il successo dei programmi di fidelizzazione e delle campagne e-mail. Queste prime idee segmentavano il pubblico in base a dati di base come la storia degli acquisti o i dati demografici, che costituivano la base per i miglioramenti successivi. Non fornivano ai clienti un approccio individuale e un’esperienza personalizzata. Ma automatizzando il processo di personalizzazione, l’intelligenza artificiale ha cambiato completamente la situazione e ha permesso alle aziende di raggiungere un livello superiore in termini di rilevanza dei loro sforzi di marketing. Grazie alla capacità dell’IA di elaborare e analizzare enormi quantità di dati, l’apprendimento automatico e l’analisi predittiva hanno permesso ai brand di superare la segmentazione tradizionale. Con l’IA, i brand non classificano i clienti in base a caratteristiche generali come i dati demografici o l’età, ma analizzano le loro azioni e preferenze specifiche in tempo reale. In settori come la vendita al dettaglio e l’e-commerce, questo approccio personalizzato è fondamentale. Lo vediamo negli esempi di Amazon e Netflix che si stanno avvicinando al marketing in modo più scalabile e personalizzato, trasformando il modo in cui i brand interagiscono con i clienti. Ad esempio, il sistema di raccomandazione di Amazon che monitora il comportamento dei clienti genera il 35% del fatturato totale dell’azienda, dimostrando come l’IA abbia un impatto sul coinvolgimento personalizzato dei clienti. Inoltre, la personalizzazione non si limita ai suggerimenti sui prodotti. Aiuta a facilitare le interazioni dinamiche, dalla prima visita a un sito web alle successive comunicazioni post-acquisto. Ad ogni interazione, i sistemi di intelligenza artificiale imparano dal comportamento dei clienti e perfezionano le loro previsioni, rendendo le interazioni future più pertinenti, rafforzando le relazioni con i clienti e aumentando il valore della vita. I risultati sono convincenti, dato che l’IA progredisce e viene sempre più integrata nel marketing. Le aziende che utilizzano l’intelligenza artificiale per il marketing personalizzato hanno registrato un aumento dei profitti del 15%, mentre le campagne email guidate dall’intelligenza artificiale hanno tassi di clic più elevati del 41% e tassi di conversione più alti del 29% rispetto a quelle non personalizzate. Queste cifre dimostrano l’impatto dell’intelligenza artificiale su alcune delle principali metriche associate al marketing: il coinvolgimento e la conversione dei clienti. Tipi di personalizzazione guidata dall’intelligenza artificiale Su larga scala, la personalizzazione guidata dall’intelligenza artificiale ha cambiato le carte in tavola per i marchi che interagiscono con i clienti, fornendo contenuti personalizzati, raccomandazioni e interazioni personali. Ognuna di queste strategie si basa su diversi modelli di intelligenza artificiale, che offrono modi diversi di parlare ai clienti. Fonte immagine a) Personalizzazione predittiva La personalizzazione predittiva utilizza l’analisi predittiva per anticipare le esigenze, le azioni o i comportamenti dei clienti prima che si verifichino. L’utilizzo di dati passati per prevedere i comportamenti futuri aiuta i brand a creare contenuti, suggerimenti di prodotti, messaggi di marketing e molto altro ancora. La personalizzazione predittiva ha già dimostrato il suo potenziale nel ridurre il tasso di abbandono dei clienti, nel migliorare le raccomandazioni sui prodotti e nell’incrementare le vendite. Ridurre la rinuncia dei clienti I modelli predittivi sono particolarmente efficaci quando è necessario identificare i clienti che stanno per abbandonare una piattaforma o smettere di impegnarsi con un marchio. Ad esempio, Netflix utilizza l’analisi predittiva per tracciare le abitudini e i comportamenti di visione e i modelli di coinvolgimento al fine di segnalare gli abbonati a rischio di cancellazione del servizio. Grazie alle raccomandazioni personalizzate basate sull’intelligenza artificiale, Netflix ha ridotto il tasso di abbandono dei clienti del 5%, con un risparmio di 1 miliardo di dollari sul fatturato annuo degli abbonamenti. Le analisi predittive sono utilizzate anche da aziende come Vodafone e AT&T nel settore delle telecomunicazioni per individuare i clienti a rischio. L’analisi si basa sulle tendenze di utilizzo, sui comportamenti di pagamento e sulle interazioni dei clienti con il servizio clienti. Gli studi dimostrano che le aziende che applicano queste strategie possono ridurre i tassi di abbandono fino al 40%. Migliorare le raccomandazioni sui prodotti L’analisi predittiva nel settore della vendita al dettaglio consente alle aziende di analizzare il comportamento passato dei clienti e di utilizzare i dati per prevedere quali prodotti sono interessati e/o propensi ad acquistare. Amazon, ad esempio, utilizza modelli predittivi per analizzare la cronologia degli acquisti e il comportamento di navigazione dei suoi clienti, per poi generare raccomandazioni personalizzate sui prodotti. Il 35% delle vendite di Amazon sono costituite da questi suggerimenti basati sull’intelligenza artificiale. Walmart incorpora anche la personalizzazione predittiva analizzando le abitudini di acquisto e di navigazione online dei clienti per offrire suggerimenti personalizzati sui prodotti e promozioni mirate. I dati di qualità sulle preferenze dei clienti hanno contribuito ad aumentare gli acquisti sia online che in negozio. Aumentare le vendite in

Utilizzare le tecnologie AI per la gestione degli asset del futuro

Utilizzare le tecnologie AI per la gestione degli asset del futuro

  Sapevi che le pratiche di gestione dei beni efficaci rappresentano una sfida per quasi la metà delle piccole imprese? Secondo l’ultima ricerca, il 43% delle aziende riporta manualmente il proprio inventario o, in alcuni casi, non registra i beni in alcun modo. Tuttavia, la gestione degli asset non è immune dalla pressione dirompente dell’intelligenza artificiale (AI) che sta rivoluzionando numerosi settori. Il modo in cui le aziende gestiscono i loro beni materiali e immateriali sta subendo una profonda trasformazione grazie all’evoluzione della tecnologia dell’IA. In questo blog scopriremo come i software per la gestione degli asset fissi basati sull’AI trasformano la gestione degli asset e cosa riserva il futuro alle aziende che adottano queste innovazioni. Introduzione alla gestione degli asset fissi e all’IA La gestione degli asset fissi è una funzione fondamentale per le organizzazioni per gestire, controllare e ottimizzare il valore dei loro asset fisici. I beni possono includere qualsiasi cosa, dalle attrezzature ai veicoli, fino ai sistemi informatici domestici. Tradizionalmente, i sistemi di gestione manuale degli asset comportano la manutenzione manuale dei rapporti e le verifiche periodiche, che possono richiedere molto tempo ed essere soggette a errori umani. Il software per le immobilizzazioni guidato dall’intelligenza artificiale offre una soluzione moderna automatizzando i diversi fattori di controllo degli asset. In questo modo si garantisce l’accuratezza, si riducono le spese amministrative e si aumenta la vita utile di un bene, contribuendo in ultima analisi a un significativo risparmio sui costi. L’intelligenza artificiale, unita all’Internet delle cose (IoT), all’apprendimento automatico (ML) e all’analisi predittiva, è il metodo principale per sviluppare soluzioni di gestione degli asset intelligenti, efficienti e scalabili. Le capacità predittive dell’IA rivoluzionano la gestione proattiva degli asset. L’intelligenza artificiale è in grado di prevedere quando un componente hardware rischia di guastarsi o di individuare le possibilità di ottimizzazione valutando gli schemi e le tendenze dei dati. La strategia proattiva non solo aiuta la pianificazione strategica, ma garantisce anche l’affidabilità delle operazioni, prevenendo le interruzioni di sistema che possono causare gravi interruzioni delle attività aziendali e perdite finanziarie. Le aziende possono utilizzare l’intelligenza artificiale per garantire che i loro beni funzionino al massimo dell’efficienza, per adottare rapidamente nuove tecnologie e per adeguare le operazioni agli obiettivi aziendali. I vantaggi dell’intelligenza artificiale per il software per le immobilizzazioni Il software per immobilizzazioni guidato dall’intelligenza artificiale presenta numerosi vantaggi per le aziende, in particolare nei settori in cui la gestione degli asset è fondamentale per le operazioni quotidiane, come la produzione, la sanità e la logistica. Maggiore efficacia: L’automazione accelera notevolmente il monitoraggio, il controllo e la manutenzione degli asset. Poiché l’intelligenza artificiale è in grado di valutare enormi quantità di informazioni in tempo reale, i manager possono reagire immediatamente per determinare lo stato dei loro beni. Risparmio sui costi: L’utilizzo continuo degli asset e l’analisi predittiva possono portare a una riduzione dei costi operativi. L’intelligenza artificiale è in grado di identificare gli oggetti sottoutilizzati o mal funzionanti, aiutando le aziende a risparmiare denaro attraverso una riallocazione o un programma di smaltimento. Miglioramento della conformità e della reportistica: Mantenere la conformità può essere una sfida con una governance normativa sempre più stringente. L’intelligenza artificiale garantisce che i rapporti di conformità siano generati in modo accurato e puntuale. Inoltre, il software è in grado di modificare regolarmente i dati degli asset per rispecchiare i cambiamenti normativi, assicurando che le aziende siano sempre conformi alle leggi. Miglioramento del processo decisionale: Grazie alle capacità analitiche dell’AI, i manager possono fare scelte migliori su quali asset investire, quando ripararli e quando ritirarli. Le scelte si basano su informazioni in tempo reale e su modelli predittivi invece che su congetture o calcoli manuali. Caso di studio: Problema di precisione della gestione predittiva del portafoglio: Prevedere le tendenze del mercato e ottimizzare il portafoglio in tempo reale era complicato per un’importante società di gestione patrimoniale. Gli approcci convenzionali non riuscivano a stare al passo con le richieste del mercato, con il risultato di perdere opportunità e ottenere risultati non proprio ottimali. Soluzione: L’azienda è stata in grado di valutare rapidamente grandi serie di dati implementando un sistema di analisi predittiva basato sull’intelligenza artificiale. Gli algoritmi di intelligenza artificiale hanno esaminato i modelli di mercato, valutato i fattori di rischio e modificato dinamicamente il portafoglio. Il risultato finale è stato un notevole miglioramento delle prestazioni del portafoglio e una maggiore accuratezza delle previsioni. Risultati: È stato ottenuto un aumento del 20% dei rendimenti del portafoglio. Le informazioni in tempo reale sulle tendenze di mercato hanno migliorato il processo decisionale. Il futuro dell’intelligenza artificiale nella gestione patrimoniale Il futuro della gestione degli asset rivoluzionerà la soddisfazione dei clienti, l’efficacia operativa e il processo decisionale. Di seguito sono elencati gli elementi importanti che trasformeranno le operazioni di gestione patrimoniale: 1) Miglioramento del processo decisionale Rivelando modelli nascosti da enormi serie di dati, l’intelligenza artificiale permetterà ai gestori di asset di prendere decisioni migliori. L’intelligenza artificiale è in grado di valutare l’intero portafoglio, compilando statistiche finanziarie e notizie di mercato, che insieme miglioreranno la posizione di rischio e la formulazione del portafoglio. L’intelligenza artificiale renderà inoltre possibile l’adattamento in tempo reale, preparando i gestori alle previsioni future e anticipando le oscillazioni del mercato. 2) Automazione ed efficienza operativa I robo-advisor diventeranno strumenti necessari, in grado di gestire autonomamente attività come il ribilanciamento del portafoglio e le operazioni standard. La formazione algoritmica dell’IA eseguirà le decisioni in modo rapido, riducendo l’intervento umano e tagliando i costi. L’IA automatizzerà le noiose operazioni di back-office, tra cui l’inserimento dei dati e le procedure di conformità normativa, garantendo flussi di lavoro fluidi e snelli. 3) Trasformazione dell’esperienza del cliente In futuro, le interazioni con i clienti diventeranno personalizzate e più reattive. L’intelligenza artificiale analizzerà le informazioni sugli acquirenti per fornire raccomandazioni di finanziamento su misura e i chatbot alimentati dall’intelligenza artificiale saranno disponibili 24 ore su 24 e 7 giorni su 7 per rispondere alle domande. La tecnologia può anche semplificare la reportistica, trasformando informazioni economiche complesse in approfondimenti facilmente digeribili e privi di

L’UE introduce una bozza di guida normativa per i modelli di IA

L'UE introduce una bozza di guida normativa per i modelli di IA

  La pubblicazione della “Prima bozza di codice di condotta per l’IA per scopi generali” segna lo sforzo dell’UE di creare una guida normativa completa per i modelli di IA per scopi generali. Lo sviluppo di questa bozza è stato uno sforzo collaborativo, che ha coinvolto diversi settori, tra cui l’industria, il mondo accademico e la società civile. L’iniziativa è stata guidata da quattro gruppi di lavoro specializzati, ognuno dei quali ha affrontato aspetti specifici della governance dell’IA e della mitigazione dei rischi: Gruppo di lavoro 1: Trasparenza e regole relative al copyright Gruppo di lavoro 2: Identificazione e valutazione del rischio sistemico Gruppo di lavoro 3: Attenuazione del rischio tecnico per il rischio sistemico Gruppo di lavoro 4: Attenuazione del rischio di governance per il rischio sistemico La bozza è allineata con le leggi esistenti, come la Carta dei Diritti Fondamentali dell’Unione Europea. Tiene conto degli approcci internazionali, cercando la proporzionalità rispetto ai rischi, e mira a essere a prova di futuro contemplando i rapidi cambiamenti tecnologici. Gli obiettivi principali delineati nella bozza includono Chiarire i metodi di conformità per i fornitori di modelli di IA di uso generale Facilitare la comprensione lungo la catena del valore dell’IA, assicurando una perfetta integrazione dei modelli di IA nei prodotti a valle Garantire la conformità al diritto d’autore dell’Unione, in particolare per quanto riguarda l’uso di materiale protetto da copyright per la formazione dei modelli Valutare e mitigare costantemente i rischi sistemici associati ai modelli di IA Riconoscere e mitigare i rischi sistemici Una caratteristica fondamentale della bozza è la tassonomia dei rischi sistemici, che comprende i tipi, le nature e le fonti di tali rischi. Il documento delinea varie minacce come i reati informatici, i rischi biologici, la perdita di controllo sui modelli di IA autonomi e la disinformazione su larga scala. Riconoscendo la natura in continua evoluzione della tecnologia dell’IA, la bozza riconosce che questa tassonomia dovrà essere aggiornata per rimanere attuale. Poiché i modelli di IA con rischi sistemici diventano sempre più comuni, la bozza sottolinea la necessità di solidi quadri di sicurezza e protezione (SSF). Propone una gerarchia di misure, sottomisure e indicatori chiave di prestazione (KPI) per garantire l’identificazione, l’analisi e la mitigazione dei rischi nel corso del ciclo di vita di un modello. La bozza suggerisce ai fornitori di stabilire processi per identificare e segnalare gli incidenti gravi associati ai loro modelli di IA, offrendo valutazioni dettagliate e correzioni se necessario. Inoltre, incoraggia la collaborazione con esperti indipendenti per la valutazione del rischio, soprattutto per i modelli che presentano rischi sistemici significativi. Assumere un atteggiamento proattivo nei confronti delle indicazioni normative sull’IA La legge europea sull’IA, entrata in vigore il 1° agosto 2024, prevede che la versione finale del Codice sia pronta entro il 1° maggio 2025. Questa iniziativa sottolinea l’atteggiamento proattivo dell’UE nei confronti della regolamentazione dell’IA, sottolineando la necessità di sicurezza, trasparenza e responsabilità dell’IA. Mentre la bozza continua ad evolversi, i gruppi di lavoro invitano le parti interessate a partecipare attivamente al perfezionamento del documento. Il loro contributo collaborativo darà forma a un quadro normativo volto a salvaguardare l’innovazione e a proteggere la società dalle potenziali insidie della tecnologia AI. Sebbene sia ancora in fase di bozza, il Codice di condotta dell’UE per i modelli di IA di uso generale potrebbe costituire un punto di riferimento per lo sviluppo e l’impiego responsabile dell’IA a livello globale. Affrontando questioni fondamentali come la trasparenza, la gestione del rischio e la conformità al copyright, il Codice mira a creare un ambiente normativo che promuova l’innovazione, sostenga i diritti fondamentali e garantisca un elevato livello di protezione dei consumatori. La bozza è aperta al feedback scritto fino al 28 novembre 2024. Vedi anche: Anthropic esorta a regolamentare l’IA per evitare catastrofi Vuoi saperne di più sull’IA e sui Big Data dai leader del settore? Dai un’occhiata all’ AI & Big Data Expo che si terrà ad Amsterdam, in California e a Londra. L’evento completo è in concomitanza con altri eventi importanti come Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo. Scopri gli altri eventi tecnologici aziendali e i webinar di TechForge qui. Tags: ai, ai act, intelligenza artificiale, sviluppo, etica, ue, europa, unione europea, governo, guida, legge, legale, Politica, regolamento, sicurezza, Società Leggi di più su www.artificialintelligence-news.com

L’intelligenza artificiale centralizzata è pericolosa: come possiamo rimediare?

L'intelligenza artificiale centralizzata è pericolosa: come possiamo rimediare?

L’intelligenza dimostrata dai chatbot di intelligenza artificiale generativa come ChatGPT di OpenAI ha catturato l’immaginazione di privati e aziende e l’intelligenza artificiale è diventata improvvisamente l’area più interessante dell’innovazione tecnologica. L’Intelligenza Artificiale è stata riconosciuta come un’innovazione rivoluzionaria, in grado di trasformare molti aspetti della nostra vita. Dalla medicina personalizzata ai veicoli autonomi, dagli investimenti automatizzati agli asset digitali, le possibilità offerte dall’IA sembrano infinite. Tuttavia, per quanto l’IA sia destinata a trasformarsi, questa nuova tecnologia presenta molti rischi. Se i timori di un sistema di intelligenza artificiale maligno, in stile Skynet, sono fuori luogo, non lo sono invece i pericoli della centralizzazione dell’IA. Mentre aziende come Microsoft, Google e Nvidia avanzano nella ricerca dell’IA, i timori per la concentrazione del potere nelle mani di pochi attori centralizzati si fanno sempre più forti. Perché dovremmo preoccuparci dell’IA decentralizzata? Potere monopolistico Il problema più urgente che deriva dall’IA centralizzata è la prospettiva che pochi giganti tecnologici raggiungano il controllo monopolistico del settore. I grandi colossi tecnologici hanno già accumulato una quota di mercato molto significativa nel settore dell’IA, che consente loro di disporre di enormi quantità di dati. Inoltre, controllano l’infrastruttura su cui funzionano i sistemi di IA, consentendo loro di soffocare i concorrenti, ostacolare l’innovazione e perpetuare la disuguaglianza economica. Ottenendo il monopolio sullo sviluppo dell’IA, queste aziende hanno maggiori probabilità di avere un’influenza sleale sui quadri normativi, che possono manipolare a loro vantaggio. Ciò significa che le startup più piccole, che non dispongono delle enormi risorse dei grandi colossi tecnologici, faranno fatica a tenere il passo dell’innovazione. Quelle che sopravvivono e sembrano poter prosperare finiranno quasi certamente per essere acquisite, concentrando ulteriormente il potere nelle mani di pochi. Il risultato sarà una minore diversità in termini di sviluppo dell’IA, meno scelte per i consumatori e condizioni meno favorevoli, limitando i casi d’uso e le opportunità economiche promesse dall’IA. Pregiudizi e discriminazioni Oltre al controllo monopolistico, esistono timori reali riguardo alla parzialità dei sistemi di IA, timori che assumeranno sempre più importanza man mano che la società si affiderà all’IA. Il rischio deriva dal fatto che le organizzazioni si affidano sempre più a sistemi automatizzati per prendere decisioni in molti settori. Ad esempio, non è insolito che un’azienda impieghi algoritmi di IA per filtrare i candidati a un posto di lavoro: il rischio è che un sistema distorto possa escludere ingiustamente un sottoinsieme di candidati in base alla loro etnia, età o posizione geografica. L’intelligenza artificiale viene utilizzata anche dalle compagnie assicurative per stabilire le tariffe delle polizze, dalle società di servizi finanziari per determinare se una persona ha i requisiti per ottenere un prestito e l’ammontare degli interessi che dovrà pagare e dalle forze dell’ordine per determinare quali sono le aree in cui è più probabile che si verifichi una maggiore criminalità. In tutti questi casi d’uso, le potenziali implicazioni di sistemi di intelligenza artificiale distorti sono estremamente preoccupanti. Che si tratti di forze dell’ordine che prendono di mira le comunità minoritarie, di pratiche di prestito discriminatorie o altro, l’IA centralizzata può potenzialmente esacerbare le disuguaglianze sociali e consentire la discriminazione sistemica. Privacy e sorveglianza Un altro rischio rappresentato dai sistemi di IA centralizzati è la mancanza di protezione della privacy. Quando poche grandi aziende controllano la stragrande maggioranza dei dati generati dall’IA, acquisiscono la capacità di effettuare una sorveglianza senza precedenti sui propri utenti. I dati accumulati dalle piattaforme di IA più dominanti possono essere utilizzati per monitorare, analizzare e prevedere il comportamento di un individuo con incredibile precisione, erodendo la privacy e aumentando il potenziale di abuso delle informazioni. Questo fenomeno è particolarmente preoccupante nei paesi con governi autoritari, dove i dati possono essere utilizzati per creare strumenti più sofisticati per il monitoraggio dei cittadini. Anche nelle società democratiche, però, l’aumento della sorveglianza rappresenta una minaccia, come dimostrano le rivelazioni di Edward Snowden sul programma Prism della National Security Agency statunitense. Anche le aziende possono potenzialmente abusare dei dati dei consumatori per aumentare i loro profitti. Inoltre, quando le entità centralizzate accumulano grandi quantità di dati sensibili, diventano bersagli più lucrosi per gli hacker, aumentando il rischio di fughe di dati. Rischi per la sicurezza Anche i problemi di sicurezza nazionale possono sorgere a causa dell’IA centralizzata. Ad esempio, ci sono timori fondati che i sistemi di IA possano essere armati dalle nazioni, utilizzati per condurre guerre informatiche, praticare lo spionaggio e sviluppare nuovi sistemi di armamento. L’IA potrebbe diventare uno strumento chiave nelle guerre future, alzando la posta in gioco nei conflitti geopolitici. Anche gli stessi sistemi di IA possono essere presi di mira. Man mano che le nazioni aumentano la loro dipendenza dall’IA, questi sistemi saranno dei bersagli allettanti, in quanto rappresentano degli ovvi punti di rottura. Se si mette fuori uso un sistema di intelligenza artificiale, si può interrompere l’intero flusso di traffico delle città, mettere fuori uso le reti elettriche e molto altro ancora. Etica L’altra grande preoccupazione dell’IA centralizzata riguarda l’ etica. Infatti, le poche aziende che controllano i sistemi di IA potrebbero avere un’influenza sostanziale sulle norme e sui valori culturali di una società e spesso darebbero la priorità al profitto, creando ulteriori problemi etici. Ad esempio, gli algoritmi di IA sono già ampiamente utilizzati dalle piattaforme di social media per moderare i contenuti, nel tentativo di identificare e filtrare i post offensivi. Il timore è che gli algoritmi, per caso o per progetto, possano finire per sopprimere la libertà di parola. Ci sono già polemiche sull’efficacia dei sistemi di moderazione basati sull’intelligenza artificiale: numerosi post apparentemente innocui sono stati bloccati o eliminati dagli algoritmi automatici. Questo porta a speculare sul fatto che tali sistemi non siano rotti ma vengano manipolati dietro le quinte in base alla narrativa politica che la piattaforma sta cercando di promuovere. L’alternativa? L’intelligenza artificiale decentralizzata L’unico contrappeso logico all’IA centralizzata è lo sviluppo di sistemi di IA decentralizzati che garantiscano che il controllo della tecnologia rimanga nelle mani della maggioranza, anziché di pochi. In questo modo, possiamo garantire che nessuna singola azienda o entità acquisisca

I caricamenti di video su LinkedIn sono cresciuti del 34% rispetto all’anno precedente e la piattaforma ha fatto un grande passo avanti per i creativi

I caricamenti di video su LinkedIn sono cresciuti del 34% rispetto all'anno precedente e la piattaforma ha fatto un grande passo avanti per i creativi

LinkedIn sta diventando una piattaforma sempre più importante per i creativi. La piattaforma sociale per professionisti è uno strumento in crescita per i creativi che vogliono costruirsi un pubblico e ottenere contratti con i marchi. Creatori come l’oratore della Gen Z Morgan Young, il comico London Lazerson e Jonathan Reid, fondatore dell’azienda di podcast Reidentify, sono alcune delle più grandi star di LinkedIn. Utilizzano nuovi strumenti come i video e le newsletter per creare contenuti unici e diversi da Instagram, YouTube e X. Jamé Jackson Gadsden è un community manager di LinkedIn il cui compito è quello di aiutare i creatori e gli utenti a far crescere il loro seguito in base a ciò che risuona con le persone. Questo include l’identificazione delle tendenze e la condivisione delle intuizioni con i creatori per essere sempre all’avanguardia. ADWEEK ha parlato con Gadsden di come i creatori utilizzano LinkedIn. Lo streaming su LinkedIn Il video è un settore importante per LinkedIn. Secondo Gadsden, i contenuti video su LinkedIn generano un coinvolgimento 1,4 volte maggiore rispetto ai contenuti testuali. I video caricati sulla piattaforma di LinkedIn sono aumentati del 34% rispetto al mese di ottobre. Anche il livestreaming è in crescita. LinkedIn dispone di strumenti di livestreaming dal 2019, ma la popolarità del formato su TikTok, Instagram e Amazon ha spinto i creatori a utilizzare maggiormente i video live di LinkedIn. “Le dirette portano l’autenticità e l’immediatezza dei video a un livello superiore, portando le persone che condividono i tuoi interessi lavorativi a partecipare al flusso naturale di una conversazione in tempo reale”, ha dichiarato Gadsen. La creatrice e stratega sociale Jayde Powell sta sperimentando i video su LinkedIn e ha dichiarato di aver riscontrato un elevato coinvolgimento sulla piattaforma rispetto a X, Instagram e TikTok. Un video su come ha creato un disegno per unghie utilizzandoil software di Canvaha raccolto quasi mezzo milione di visualizzazioni su LinkedIn. “Le altre piattaforme non sono riuscite a superarlo”, ha dichiarato. @jaydeipowell #linkedininfluencer #linkedincreators ♬ 1 Thing (Instrumental) – Amerie Cavalcare l’onda delle newsletter LinkedIn si sta spingendo sempre di più verso le newsletter come mezzo per i creatori per costruire il proprio pubblico. Gadsen ha affermato che le newsletter di LinkedIn sono un modo fondamentale per i creatori di condividere le conoscenze professionali e costruire una comunità. A giugno, LinkedIn ha aggiunto la possibilità di progettare immagini di copertina e di incorporare i profili e le pagine dei membri direttamente nelle newsletter. A ottobre, LinkedIn contava più di 221.580 newsletter con oltre 123 milioni di iscritti unici. La newsletter Inside the Creator Economy di Jim Louderback, esperto di economia dei creatori ed ex CEO di VidCon, ha più di 30.000 iscritti. La newsletter Leave Your Mark della marketer Aliza Licht condivide consigli sulla carriera con quasi 20.000 iscritti. Anche le notizie sono in crescita su LinkedIn. Secondo i dati di LinkedIn, le visualizzazioni dei post relativi alle notizie sono cresciute del 20% rispetto al mese di ottobre. Accordi di marchio su LinkedIn I creativi che hanno un grande seguito su YouTube e Instagram potrebbero essere sorpresi dal fatto che possono ottenere accordi con i marchi e opportunità di parlare su LinkedIn, ha detto Gadsen. Ad esempio, un post di un creatore può essere notato da CEO e dirigenti aziendali di alto livello. I contenuti di LinkedIn possono anche portare a entrate non pubblicitarie, come le royalties dei corsi di LinkedIn Learning. “Ti stai mettendo in evidenza tra i migliori addetti ai lavori”, ha affermato l’autrice. La Powell è presente anche su X e Instagram, ma ha detto che i suoi contenuti su LinkedIn hanno portato a contratti di marca per Skillshare, Archive e OpusClip. “Solo quando ho iniziato a pubblicare intenzionalmente su LinkedIn ho visto i frutti del mio lavoro”, ha detto Powell. Anche se la Powell ha testato i post video su LinkedIn, ha detto di aver riscontrato il maggior successo con i contenuti testuali. “LinkedIn è molto simile a Twitter: le persone amano leggere”, ha detto. Ha detto che, sebbene le persone apprezzino i contenuti lunghi su LinkedIn, lei preferisce mantenere i suoi post “brevi e dolci” “Le persone possono vedere me, ciò che penso e credo, e credo che questo mi faccia apparire più ‘umana’ rispetto a ciò che la mia esperienza può mostrare”, ha detto. Leggi di più su www.adweek.com

Capire l’impatto dell’IA sulla forza lavoro

Capire l'impatto dell'IA sulla forza lavoro

Il Tony Blair Institute (TBI) ha esaminato l’impatto dell’IA sulla forza lavoro. Il rapporto evidenzia il potenziale dell’IA nel rimodellare gli ambienti di lavoro, incrementare la produttività e creare opportunità, pur mettendo in guardia dalle potenziali sfide future. “La tecnologia ha una lunga storia di profondi cambiamenti nel mondo del lavoro”, esordisce il rapporto. Dalla rivoluzione agricola all’era digitale, ogni ondata di innovazione ha ridefinito i mercati del lavoro. Oggi, l’intelligenza artificiale rappresenta un cambiamento sismico, che avanza rapidamente e spinge i politici a prepararsi al cambiamento. Opportunità economiche Il rapporto TBI stima che l’IA, una volta adottata pienamente dalle aziende del Regno Unito, potrebbe aumentare significativamente la produttività. Secondo il rapporto, l’IA potrebbe far risparmiare “quasi un quarto del tempo della forza lavoro del settore privato”, equivalente alla produzione annuale di 6 milioni di lavoratori. La maggior parte di questi risparmi di tempo dovrebbe derivare da software abilitati all’IA che svolgono compiti cognitivi come l’analisi dei dati e le operazioni amministrative di routine. Il rapporto identifica i settori che si affidano a compiti cognitivi di routine, come quello bancario e finanziario, come quelli con una significativa esposizione all’IA. Tuttavia, settori come l’artigianato o l’edilizia, che prevedono attività manuali complesse, probabilmente vedranno un impatto meno diretto. Se da un lato l’IA può comportare una perdita iniziale di posti di lavoro, dall’altro ha il potenziale di creare nuova domanda favorendo la crescita economica e nuovi settori. Il rapporto prevede che queste perdite di posti di lavoro possano essere bilanciate dalla creazione di nuovi posti di lavoro. Nel corso degli anni, la tecnologia ha storicamente stimolato nuove opportunità di lavoro, poiché l’innovazione porta allo sviluppo di nuovi prodotti e servizi. Dare forma alle generazioni future Il potenziale dell’IA si estende anche all’istruzione, dove potrebbe aiutare sia gli insegnanti che gli studenti. Il rapporto suggerisce che l’IA potrebbe contribuire ad “aumentare i risultati scolastici di circa il 6%” in media. Personalizzando e supportando l’apprendimento, l’IA ha il potenziale per equiparare l’accesso alle opportunità e migliorare la qualità della forza lavoro nel tempo. Salute e benessere Oltre all’istruzione, l’IA offre potenziali vantaggi nell’assistenza sanitaria, favorendo una forza lavoro più sana e riducendo i costi del welfare. Il rapporto evidenzia il ruolo dell’IA nell’accelerare la ricerca medica, nel consentire l’assistenza sanitaria preventiva e nell’aiutare i disabili a rientrare nel mondo del lavoro. Trasformazione del posto di lavoro Il rapporto riconosce le potenziali sfide sul posto di lavoro, come l’aumento del monitoraggio e dello stress causato dagli strumenti di IA. Sottolinea l’importanza di gestire queste tecnologie in modo ponderato per “offrire un ambiente di lavoro più coinvolgente, inclusivo e sicuro” Per mitigare i potenziali disagi, il TBI delinea alcune raccomandazioni. Queste includono il miglioramento delle infrastrutture del mercato del lavoro e l’utilizzo dell’intelligenza artificiale per l’incontro tra domanda e offerta di lavoro. Il rapporto suggerisce la creazione di un “sistema di sensibilizzazione e opportunità” per aiutare i lavoratori a comprendere l’impatto dell’IA sul loro lavoro e fornire consigli sui percorsi di carriera. Prepararsi a un futuro alimentato dall’IA Alla luce delle incertezze che circondano l’impatto dell’IA sulla forza lavoro, il TBI esorta a modificare le politiche per massimizzare i benefici. Le raccomandazioni includono l’incentivazione dell’adozione dell’IA in tutti i settori industriali, lo sviluppo di programmi di orientamento all’IA e la creazione di premi di sfida per far fronte alle carenze di manodopera nel settore pubblico. Il rapporto conclude che, sebbene l’IA presenti dei rischi, i potenziali vantaggi sono troppo significativi per essere ignorati. I responsabili politici sono incoraggiati ad adottare un atteggiamento “a favore dell’innovazione” pur essendo attenti ai rischi, promuovendo un’economia dinamica e resiliente. Leggi di più su www.artificialintelligence-news.com

Il Presidente Biden emette il primo Memorandum di Sicurezza Nazionale sull’IA

Il Presidente Biden emette il primo Memorandum di Sicurezza Nazionale sull'IA

  Il Presidente Biden ha emesso il primo National Security Memorandum (NSM) degli Stati Uniti sull’IA, che affronta il modo in cui la nazione affronta questa tecnologia dal punto di vista della sicurezza. Il memorandum, che si basa sul precedente ordine esecutivo di Biden sull’IA, si fonda sulla premessa che gli sviluppi all’avanguardia dell’IA avranno un impatto sostanziale sulla sicurezza nazionale e sulla politica estera nell’immediato futuro. Secondo gli esperti di sicurezza, le implicazioni si fanno già sentire. “L’IA ha già delle implicazioni per la sicurezza nazionale, poiché sappiamo che sempre più aggressori utilizzano l’IA per creare attacchi più massicci e complessi, soprattutto sul fronte dell’ingegneria sociale e della disinformazione”, afferma Melissa Ruzzi, Direttore dell’IA di AppOmni. L’NSM si prefigge tre obiettivi principali: stabilire la leadership degli Stati Uniti nello sviluppo sicuro dell’IA, sfruttare le tecnologie dell’IA per la sicurezza nazionale e promuovere quadri di governance internazionali. “I nostri concorrenti vogliono mettere a repentaglio la leadership statunitense nel campo dell’IA e hanno fatto ricorso allo spionaggio economico e tecnologico per rubare la tecnologia statunitense”, si legge nel memorandum, elevando la protezione delle innovazioni americane nel campo dell’IA a una “priorità di primo livello per l’intelligence” Il documento designa formalmente l’AI Safety Institute come principale punto di contatto governativo per l’industria dell’IA. L’istituto sarà composto da esperti tecnici e manterrà strette collaborazioni con le agenzie di sicurezza nazionale, tra cui la comunità di intelligence, il Dipartimento della Difesa e il Dipartimento dell’Energia. “Le azioni elencate nella nota sono ottimi punti di partenza per avere un quadro completo dello status quo e ottenere informazioni sufficienti per prendere decisioni basate sui dati, invece di saltare alle conclusioni e prendere decisioni basate su ipotesi vaghe”, spiega Ruzzi. Tuttavia, Ruzzi avverte che “i dati che devono essere raccolti sulle azioni non sono banali e, anche con i dati, saranno necessarie ipotesi e compromessi per il processo decisionale finale. Prendere decisioni dopo la raccolta dei dati è la grande sfida” In un’importante mossa per democratizzare la ricerca sull’IA, il memorandum rafforza il sostegno al programma pilota National AI Research Resource. Questa iniziativa mira a estendere le capacità di ricerca sull’IA al di là delle grandi aziende tecnologiche, alle università, alle organizzazioni della società civile e alle piccole imprese. L’NSM introduce il Framework to Advance AI Governance and Risk Management in National Security (PDF), che stabilisce linee guida complete per l’implementazione dell’IA nelle applicazioni di sicurezza nazionale. Queste linee guida prevedono rigorose procedure di valutazione del rischio e salvaguardie contro le violazioni della privacy, i pregiudizi, la discriminazione e i diritti umani. Le considerazioni sulla sicurezza occupano un posto di rilievo nel documento e Ruzzi ne sottolinea l’importanza: “La sicurezza informatica dell’IA è fondamentale: sappiamo che se l’IA è configurata in modo errato, può comportare rischi simili alle configurazioni errate delle applicazioni SaaS che causano l’esposizione di dati riservati” Sul fronte internazionale, il memorandum si basa sui recenti risultati diplomatici, tra cui il Codice di Condotta Internazionale sull’IA del G7 e gli accordi raggiunti ai vertici sulla sicurezza dell’IA di Bletchley e Seoul. In particolare, 56 nazioni hanno approvato la Dichiarazione politica sull’uso militare dell’IA e dell’autonomia, guidata dagli Stati Uniti. L’amministrazione Biden si è anche assicurata una vittoria diplomatica con l’approvazione della prima risoluzione dell’Assemblea Generale delle Nazioni Unite sull’IA, che ha ottenuto un sostegno unanime, compresa la co-sponsorizzazione della Cina. Il memorandum sottolinea il ruolo critico della produzione di semiconduttori nello sviluppo dell’IA, collegandosi al precedente CHIPS Act di Biden. Il memorandum prevede azioni volte a migliorare la sicurezza e la diversità della catena di fornitura dei chip, garantendo la leadership americana nelle infrastrutture informatiche avanzate. Quest’ultima iniziativa fa parte della più ampia strategia dell’amministrazione Biden-Harris per un’innovazione responsabile nel settore dell’IA, rafforzando l’impegno dell’America a mantenere la leadership tecnologica e a sostenere i valori democratici e i diritti umani. Leggi di più su www.artificialintelligence-news.com

Anthropic esorta a regolamentare l’IA per evitare catastrofi

Anthropic esorta a regolamentare l'IA per evitare catastrofi

  Anthropic ha evidenziato i potenziali rischi dei sistemi di IA e chiede una regolamentazione ben strutturata per evitare potenziali catastrofi. L’organizzazione sostiene che una regolamentazione mirata è essenziale per sfruttare i benefici dell’IA e al contempo mitigarne i pericoli. Man mano che i sistemi di IA si evolvono in capacità come la matematica, il ragionamento e la codifica, il loro potenziale uso improprio in aree come la cybersicurezza o persino le discipline biologiche e chimiche aumenta in modo significativo. Anthropic avverte che i prossimi 18 mesi sono cruciali per l’azione dei politici, poiché la finestra per una prevenzione proattiva si sta restringendo. In particolare, il Frontier Red Team di Anthropic sottolinea come i modelli attuali possano già contribuire a vari compiti legati all’offesa informatica e prevede che i modelli futuri saranno ancora più efficaci. Particolarmente preoccupante è il potenziale dei sistemi di intelligenza artificiale di esacerbare l’uso improprio di sostanze chimiche, biologiche, radiologiche e nucleari (CBRN). L’AI Safety Institute del Regno Unito ha scoperto che diversi modelli di IA possono ora eguagliare le competenze umane a livello di dottorato nel fornire risposte a richieste di informazioni di carattere scientifico. Per far fronte a questi rischi, Anthropic ha dettagliato la sua Responsible Scaling Policy (RSP ), rilasciata nel settembre 2023, come solida contromisura. La RSP prevede un aumento delle misure di sicurezza corrispondenti al livello di sofisticazione delle capacità dell’IA. Il quadro RSP è progettato per essere adattivo e iterativo, con valutazioni regolari dei modelli di IA che consentono di perfezionare tempestivamente i protocolli di sicurezza. Anthropic afferma di essersi impegnata a mantenere e migliorare la sicurezza attraverso varie espansioni del team, in particolare nei settori della sicurezza, dell’interpretabilità e della fiducia, assicurando la preparazione per i rigorosi standard di sicurezza stabiliti dal suo RSP. Anthropic ritiene che l’adozione diffusa di RSP in tutto il settore dell’IA, anche se principalmente volontaria, sia essenziale per affrontare i rischi dell’IA. Una regolamentazione trasparente ed efficace è fondamentale per rassicurare la società sull’adesione delle aziende di IA alle promesse di sicurezza. I quadri normativi, tuttavia, devono essere strategici, incentivando pratiche di sicurezza solide senza imporre oneri inutili. Anthropic immagina regolamenti chiari, mirati e adattivi ai paesaggi tecnologici in evoluzione, sostenendo che sono fondamentali per raggiungere un equilibrio tra la mitigazione dei rischi e la promozione dell’innovazione. Negli Stati Uniti, Anthropic suggerisce che la legislazione federale potrebbe essere la risposta definitiva alla regolamentazione dei rischi dell’IA, anche se, in caso di ritardo nell’azione federale, potrebbero essere necessarie iniziative guidate dagli Stati. I quadri legislativi sviluppati dai Paesi di tutto il mondo dovrebbero consentire la standardizzazione e il riconoscimento reciproco per sostenere un’agenda globale sulla sicurezza dell’IA, riducendo al minimo i costi di adesione alle normative nelle diverse regioni. Inoltre, Anthropic affronta lo scetticismo nei confronti dell’imposizione di regolamenti, sottolineando che regolamenti troppo ampi e incentrati su casi d’uso sarebbero inefficienti per i sistemi di IA generali, che hanno applicazioni diverse. Le normative dovrebbero invece riguardare le proprietà fondamentali e le misure di sicurezza dei modelli di IA. Pur coprendo ampi rischi, Anthropic riconosce che alcune minacce immediate, come i deepfakes, non sono al centro delle sue proposte attuali, poiché altre iniziative stanno affrontando questi problemi a breve termine. In definitiva, Anthropic sottolinea l’importanza di istituire regolamenti che stimolino l’innovazione piuttosto che soffocarla. L’onere iniziale della conformità, sebbene inevitabile, può essere ridotto al minimo grazie a test di sicurezza flessibili e accuratamente progettati. Un’adeguata regolamentazione può persino contribuire a salvaguardare gli interessi nazionali e l’innovazione del settore privato, proteggendo la proprietà intellettuale dalle minacce interne ed esterne. Concentrandosi sui rischi misurati empiricamente, Anthropic prevede un panorama normativo che non pregiudica né favorisce i modelli open o closed-source. L’obiettivo rimane chiaro: gestire i rischi significativi dei modelli di AI di frontiera con una regolamentazione rigorosa ma adattabile. Leggi di più su www.artificialintelligence-news.com

I leader del settore sostengono la definizione di AI open-source

I leader del settore sostengono la definizione di AI open-source

L’Open Source Initiative (OSI) ha presentato un quadro di definizione per valutare se i sistemi di intelligenza artificiale possono essere classificati come open-source. L’annuncio della prima Open Source AI Definition (OSAID) è stato dato in occasione di All Things Open e segna il culmine di un ampio sforzo globale che si estende per diversi anni di ricerca, workshop internazionali e un processo di progettazione della comunità durato un anno. L’OSI – ampiamente riconosciuta come l’autorità definitiva in materia di definizioni open-source da individui, organizzazioni ed enti governativi di tutto il mondo – ha sviluppato il quadro di riferimento attraverso un’ampia collaborazione con gli stakeholder del settore. Questo quadro definisce il significato di IA open-source, insistendo sul fatto che gli stessi requisiti open-source si applicano a un sistema di IA completamente funzionale, a un modello, a pesi e parametri o ad altri elementi strutturali. Un sistema di IA open-source deve essere reso disponibile secondo termini che garantiscano quattro libertà essenziali: Utilizzare il sistema per qualsiasi scopo e senza dover chiedere il permesso. Studiare il funzionamento del sistema e ispezionare i suoi componenti. Modificare il sistema per qualsiasi scopo, anche per cambiare i suoi risultati. Condividere il sistema affinché altri lo utilizzino con o senza modifiche, per qualsiasi scopo. Queste libertà si applicano sia a un sistema completamente funzionante che a elementi discreti di un sistema. Un prerequisito per esercitare queste libertà è avere accesso al modulo preferito per apportare modifiche al sistema, che include informazioni dettagliate sui dati, il codice sorgente completo e i parametri del modello. “Il processo di co-progettazione che ha portato alla versione 1.0 della Open Source AI Definition è stato ben sviluppato, approfondito, inclusivo ed equo”, ha dichiarato Carlo Piana, presidente del consiglio di amministrazione di OSI. “Il consiglio direttivo è fiducioso che il processo abbia portato a una definizione che soddisfa gli standard dell’open-source come definiti nella definizione di open-source e nelle quattro libertà essenziali” Uno dei requisiti più significativi del quadro normativo è l’obbligo per i modelli open-source di fornire informazioni sufficienti sui dati di addestramento, garantendo che “una persona esperta possa ricreare un sistema sostanzialmente equivalente utilizzando gli stessi dati o dati simili”, secondo Ayah Bdeir, responsabile della strategia AI di Mozilla. Bdeir ha riconosciuto che, sebbene questo approccio non sia perfetto, rappresenta un compromesso pratico tra purezza ideologica e implementazione nel mondo reale. Ha suggerito che richiedere uno standard irrealisticamente elevato potrebbe rivelarsi controproducente per gli obiettivi dell’iniziativa. La Digital Public Goods Alliance (DPGA) ha espresso il proprio sostegno alla leadership dell’OSI nella definizione dell’IA open-source. Liv Marte Nordhaug, CEO del segretariato della DPGA, ha confermato che la sua organizzazione incorporerà questo lavoro fondamentale negli aggiornamenti del suo Digital Public Goods Standard per le applicazioni di IA. Anche l‘EleutherAI Institute, noto per il suo lavoro no-profit nello sviluppo dell’IA, ha approvato la definizione. “La definizione di IA open source è un passo necessario per promuovere i vantaggi dei principi open source nel campo dell’IA”, ha dichiarato Stella Biderman, direttore esecutivo dell’EleutherAI Institute. “Crediamo che questa definizione sostenga le esigenze dei ricercatori indipendenti di apprendimento automatico e promuova una maggiore trasparenza tra i maggiori sviluppatori di IA” La definizione sottolinea l’importanza di includere informazioni sui dati e sul codice quando si condividono modelli e pesi open-source. Questi requisiti garantiscono la trasparenza e la possibilità di modificare il sistema di IA. Il direttore esecutivo dell’OSI Stefano Maffulli ha riconosciuto le sfide affrontate durante il processo di sviluppo, sottolineando che, nonostante gli occasionali scambi di opinioni e le divergenze, il risultato finale è in linea con gli obiettivi iniziali del progetto. “Questo è un punto di partenza per uno sforzo continuo di coinvolgimento delle comunità per migliorare la definizione nel tempo”, ha dichiarato. L’OSAID non richiede un meccanismo legale specifico per garantire che i parametri del modello siano liberamente disponibili a tutti, anche se potrebbe comportare licenze o strumenti legali. Ci si aspetta che questo aspetto diventi più chiaro nel corso del tempo, man mano che il sistema legale si occuperà di questi sistemi di intelligenza artificiale open-source. Leggi di più su www.artificialintelligence-news.com