DAI#36 – Mini modelli, video migliorati e scontri tra Intelligenze Artificiali

Benvenuti al nostro riepilogo delle notizie più recenti sull’IA di questa settimana. Questa settimana l’IA ha preso video sfocati e li ha resi fantastici. Microsoft ha rilasciato un piccolo modello che ha grandi capacità. E un pilota di IA ha affrontato gli umani in un vero combattimento aereo con un F-16. Andiamo a vedere. Definizione nitida Adobe ci ha provocato con demo di VideoGigaGAN, un modello che rende i video sfocati 8 volte più nitidi. Abbiamo visto tentativi di upscaling video in passato ma questo è il primo a generare un output fluido e nitido da video a bassa risoluzione. Questo potrebbe darci versioni HD di filmati d’archivio storici e persino versioni HD di vecchi programmi TV. C’è anche il pericolo che tuo padre lo usi sui vecchi video di famiglia, quindi… L’IA generativa sta alimentando un’ondata di pornografia deep fake e gran parte di essa finisce sulle piattaforme di social media. Il Consiglio di sorveglianza di Meta è stato incaricato di valutare la sua gestione dei deep fake espliciti mentre Meta cerca di elaborare una strategia per affrontare i confini sfocati della moderazione dei contenuti. Il porno deep fake e la propaganda politica probabilmente non spariranno presto. Almeno alcune persone si divertono un po’ con l’IA generativa e i politici. Notizie: “Gli esperti dicono che il generatore di video OpenAI Sora rischia di alimentare propaganda e pregiudizi”.Internet: byu/pergessleismydaddy insingularity Nuovi modelli Questa settimana si sono visti rilasciare più modelli linguistici con sviluppi interessanti in alcuni modelli molto piccoli. Meta ha rilasciato due versioni di Llama 3, un modello da 8B e un modello più grande da 70B. I test di benchmark mostrano che questi sono ora i principali modelli “open source”, con Llama-3-70B che compete addirittura con il Gemini 1.5 Pro di Google. Meta dice che stanno attualmente addestrando una enorme versione da 400B e multimodale di Llama 3. Sul lato realmente piccolo della scala dei modelli linguistici, Microsoft ha lanciato Phi-3 Mini,un piccolo ma potente LM. Phi-3 Mini dimostra che il più grande non è sempre il migliore. Microsoft ha adottato un interessante approccio con i dati sintetici curati per allenare il modello da 3,8B che supera modelli due volte più grandi. Questo è il tipo di modello che probabilmente avremo presto sui nostri telefoni. Caduta tecnologica L’impennata meteorica del prezzo delle azioni di NVIDIA si è infine calmata. Il titolo è crollato del 10% mentre anche altre azioni tecnologiche statunitensi hanno subito pesanti perdite. Un calo del 10% rappresenta una svalutazione di 200 miliardi di dollari del valore dell’azienda. È questo un segnale che l’entusiasmo degli investitori per l’IA sta scemando? Improbabile. Una volta elaborati i rapporti sugli utili della Big Tech della prossima settimana, probabilmente vedremo riprendere il servizio normale. Il giusto equipaggiamento AI DARPA sta sviluppando da un po’ di tempo un pilota di jet da combattimento AI con buoni risultati in voli simulati. Questa settimana hanno rivelato di aver testato un jet F-16 pilotato da IA in un combattimento aereo contro piloti umani. Chi ha vinto? Non lo dicono. Ma immagino che la prossima generazione di jet da combattimento non avrà bisogno di sedili. La capacità dell’AI di agire autonomamente potrebbe incentivare la cybercriminalità. I ricercatori hanno scoperto che i bot IA alimentati da GPT-4 possono sfruttare autonomamente le vulnerabilità della cybersecurity. Il fatto che queste vulnerabilità siano normalmente pubblicate pubblicamente e che l’agenteIA richieda solo 91 linee di codice non è confortante. Potrebbe non essere hitech come pilotare un jet o hackerare un software, ma l’AI sta togliendo lavoro ai teenager in questo Wendy’s. Il nuovo servizio drive-thru alimentato da AI di Wendy’s byu/x_asko ininterestingasfuck Parlando di IA Questa settimana abbiamo avuto l’opportunità di intervistare alcune persone molto interessanti coinvolte nell’IA, nella robotica e nello spazio dei blockchain. C’è un crescente incrocio tra queste tecnologie e il futuro sarà probabilmente plasmato da una combinazione di esse. Il CEO di Cogniteam, Dr. Yehuda Elmaliah, ha spiegato come il loro software accelera lo sviluppo, il dispiegamento e la gestione remota della robotica. Radovan Kavicky, evangelista dell’IA e della scienza dei dati presso AIslovakIA, ha fornito un’idea sull’importanza dello sviluppo sicuro di AGI e su perché lui ritiene che l’approccio di OpenAI non sia la strada da seguire. Altre notizie… Ecco alcune altre storie sull’IA degne di nota che abbiamo apprezzato questa settimana: “Il robot di Boston Dynamics con la musica di Dune non è reale, non può farti del male” Il robot di Boston Dynamics con la musica di Dune: pic.twitter.com/fvSjtrMYzo — frye (@___frye) 17 aprile 2024 E questo è tutto. Speriamo che Adobe ci lasci giocare con VideoGigaGAN presto. Le demo sembrano incredibili. Qual è il primo vecchio show TV o film che vorreste rendere HD? Viaggereste in un jet da caccia pilotato da un’IA? Mi piacerebbe sentire un’intervista con i piloti umani con cui ha avuto a che fare. Qualcuno a Hollywood sta probabilmente già lavorando su una versione ispirata all’IA di Top Gun 3. Forse useranno Sora per farlo. È stato fantastico avere l’opportunità di intervistare persone del settore e pubblicheremo altre conversazioni presto. Fateci sapere se avete i contatti di qualcuno che pensate che dovremmo intervistare prossimamente, e continuate a inviarci link a storie sull’IA che potremmo aver perso. Leggi di più su dailyai.com
Il DHS lancia un consiglio per la sicurezza dell’IA, ma i grandi nomi dell’open source sono assenti

Il Segretario alla Sicurezza Interna degli Stati Uniti, Alejandro Mayorkas, ha annunciato che il DHS ha istituito una Commissione di Sicurezza di Intelligenza Artificiale per promuovere l’uso sicuro e protetto dell’IA nelle infrastrutture critiche degli USA. Mayorkas ha istituito la commissione come diretto dal Decreto Esecutivo (EO) del Presidente Biden, “Sviluppo e uso sicuri, protetti e affidabili dell’Intelligenza Artificiale,” firmato a ottobre dello scorso anno. La commissione ha il compito di sviluppare raccomandazioni su come gli stakeholder delle infrastrutture critiche, come gli operatori di oleodotti e reti elettriche, i fornitori di servizi di trasporto e di internet, possano sfruttare in modo responsabile le tecnologie di IA. “L’intelligenza artificiale è una tecnologia trasformativa che può avanzare i nostri interessi nazionali in modi senza precedenti. Allo stesso tempo, presenta rischi reali, rischi che possiamo mitigare adottando le migliori pratiche e assumendo altre azioni studiate e concrete,” ha dichiarato il Segretario Mayorkas. Il DHS afferma che la commissione aiuterà a “rimanere avanti rispetto alle minacce in evoluzione poste da attori esteri ostili”. Nel suo Threat Assessment del 2024, il DHS ha avvertito che nazioni come Cina, Russia e Iran potrebbero utilizzare strumenti assistiti da IA per colpire la sicurezza economica degli USA e le infrastrutture critiche. Il rapporto ha notato che queste tecnologie “hanno il potenziale di abilitare attacchi cibernetici su scala maggiore, più veloci, efficienti ed evasivi, contro obiettivi che includono oleodotti, ferrovie e altre infrastrutture critiche degli USA.” Si prevede che la nuova commissione di sicurezza dell’IA aiuterà il DHS a rimanere avanti rispetto a queste minacce in evoluzione. Chi fa parte della commissione? L’elenco delle persone che fanno parte della commissione di 22 membri sembra un elenco di big della tecnologia, ma i nomi mancanti offrono una potenziale visione di come il governo degli USA consideri l’IA open-source. I membri della commissione includono CEO come Sam Altman (OpenAI), Satya Nadella (Microsoft), Sundar Pichai (Alphabet), e Dario Amodei (Anthropic). I modelli rilasciati da queste aziende sono tutti proprietari, o modelli chiusi. Mark Zuckerberg ed Elon Musk sono sorprendenti omissioni. Entrambi rappresentano aziende che sostengono che i modelli di IA dovrebbero essere “open source”. Mayorkas ha detto ai giornalisti che ha scelto deliberatamente di non includere “società di social media” nella commissione. La sua decisione è stata influenzata dalle loro piattaforme o dalla loro strategia di IA open-source? Il dibattito sui rischi associati ai modelli open-source continua. Aziende come la ironicamente chiamata OpenAI sono state accusate di utilizzare la paura dell’IA per mantenere il loro predominio mantenendo i loro modelli chiusi. Meta, xAI, e persino la startup francese di IA Mistral hanno rilasciato i loro LLM come modelli open source. L’assenza di rappresentanti open-source e la presenza di diversi effettivi altruisti suggerisce un continuo catastrofismo sull’IA quando la commissione si riunisce per la prima volta questa settimana. Ecco l’elenco completo dei membri della commissione: Sam Altman, CEO, OpenAI; Dario Amodei, CEO e Co-Founder, Anthropic; Ed Bastian, CEO, Delta Air Lines; Rumman Chowdhury, Ph.D., CEO, Humane Intelligence; Alexandra Reeve Givens, Presidente e CEO, Center for Democracy and Technology Bruce Harrell, Sindaco di Seattle, Washington; Presidente, Technology and Innovation Committee, United States Conference of Mayors; Damon Hewitt, Presidente e Direttore Esecutivo, Lawyers’ Committee for Civil Rights Under Law; Vicki Hollub, Presidente e CEO, Occidental Petroleum; Jensen Huang, Presidente e CEO, NVIDIA; Arvind Krishna, Chairman e CEO, IBM; Fei-Fei Li, Ph.D., Co-Direttore, Stanford Human-centered Artificial Intelligence Institute; Wes Moore, Governatore del Maryland; Satya Nadella, Presidente e CEO, Microsoft; Shantanu Narayen, Presidente e CEO, Adobe; Sundar Pichai, CEO, Alphabet; Arati Prabhakar, Ph.D., Assistente del Presidente per la Scienza e la Tecnologia; Direttore, The White House Office of Science and Technology Policy; Chuck Robbins, Presidente e CEO, Cisco; Presidente, Business Roundtable; Adam Selipsky, CEO, Amazon Web Services; Dr. Lisa Su, Presidente e CEO, Advanced Micro Devices (AMD); Nicol Turner Lee, Ph.D., Senior Fellow e Direttore del Center for Technology Innovation, Brookings Institution; Kathy Warden, Presidente, CEO e Presidente, Northrop Grumman; e Maya Wiley, Presidente e CEO, The Leadership Conference on Civil and Human Rights. Leggi di più su dailyai.com
Il Financial Times e OpenAI siglano un accordo sui dati di addestramento

The Financial Times (FT) sta concedendo a OpenAI l’accesso ai suoi archivi di notizie mentre le aziende di intelligenza artificiale generativa continuano a garantirsi fonti di dati privati. L’accordo prevede che ChatGPT fornisca riassunti, citazioni dirette e collegamenti ipertestuali ai articoli completi pubblicati dal FT, collegandosi direttamente al contenuto originale sul sito web. Come parte dell’accordo, OpenAI si è impegnata a collaborare con il FT per sviluppare nuovi prodotti guidati dall’IA. Il FT è un cliente di ChatGPT Enterprise e ha già sperimentato l’IA in precedenza, incorporando Claude di Anthropic in uno strumento di ricerca generativo chiamato “Ask FT”. John Ridding, CEO del FT, ha dichiarato dell’accordo “A parte i benefici per il FT, ci sono implicazioni più ampie per l’industria. È giusto, ovviamente, che le piattaforme AI paghino gli editori per l’uso del loro materiale. OpenAI capisce l’importanza della trasparenza, dell’attribuzione e del compenso – tutti elementi essenziali per noi.” Un sentimento giusto, sebbene alcuni sostengano che OpenAI non capisca l’importanza della trasparenza e dell’attribuzione. Brad Lightcap, COO di OpenAI, ha aggiunto: “La nostra partnership e il dialogo continuo con il Financial Times riguardano la ricerca di modi creativi e produttivi per l’IA di potenziare le organizzazioni di notizie e i giornalisti, e arricchire l’esperienza di ChatGPT con giornalismo di livello mondiale in tempo reale per milioni di persone in tutto il mondo.” Mentre l’accesso ai dati del FT è prezioso per OpenAI, i suoi attuali set di dati consistono in trilioni di parole di dati dubbiamente ‘pubblici’ o ‘open source’. Gli accordi con il FT e altre aziende mediatiche come Axel Springer si verificano mentre le aziende di IA riconoscono la necessità di iniziare a pagare per i dati per affrontare le crescenti pressioni legali. Sono anche diventate acutamente consapevoli che i loro modelli diventeranno rapidamente superati senza dati freschi e di alta qualità. La battaglia delle aziende di IA per i dati Le implicazioni etiche nell’uso dei dati di IA sono immense. Nella loro incessante ricerca di dati, giganti tecnologici come OpenAI, Google e Meta sono stati segnalati per pratiche che spingono o oltrepassano i limiti legali ed etici. Ad esempio, un’inchiesta del New York Times ha rivelato che OpenAI ha sviluppato uno strumento chiamato Whisper per trascrivere video di YouTube – nonostante potenziali violazioni delle politiche di YouTube contro l’uso dei suoi video per applicazioni indipendenti. Allo stesso modo, Google e Meta hanno esplorato o implementato strategie che aggirano o reinterpretano le leggi esistenti sul copyright e sulla privacy per raccogliere più dati. Tra le strategie più ombrose vi è la modifica delle politiche sulla privacy per consentire alle applicazioni di IA di utilizzare contenuti disponibili pubblicamente da piattaforme come Google Docs. Sebbene le aziende di IA siano disposte a pagare per i dati ora, ciò non le esime dall’adattamento delle regole altrove. Leggi di più su dailyai.com
Assenze notevoli colpiscono il Summit sulla Sicurezza dell’IA previsto per Maggio.

L’anno scorso, il primo Summit Globale sulla Sicurezza dell’IA è stato tenuto presso lo storico Bletchley Park del Regno Unito, catturando l’attenzione globale. Tuttavia, mentre si avvicina il secondo vertice seguente di 6 mesi, programmato per il 21-22 Maggio e ospitato principalmente in formato virtuale dal Regno Unito e dalla Corea del Sud, vi sono segni che suggeriscono l’arrivo di una presa di coscienza. Gli organizzatori del summit sperano di continuare il slancio generato a Bletchley Park, dove oltre 25 rappresentanti governativi hanno firmato una dichiarazione congiunta impegnandosi a una supervisione collaborativa dell’intelligenza artificiale. Sebbene nessuno si aspettasse che questo evento intermedio più piccolo potesse eguagliare o superare lo splendore del primo vertice, partecipanti chiave, tra cui DeepMind e Mozilla, hanno deciso di non partecipare all’incontro. Sebbene l’UE non abbia escluso la sua presenza all’evento, un portavoce ha confermato che i suoi principali regolatori tecnologici, tra cui Margrethe Vestager, Thierry Breton e Vera Jourova, non parteciperanno. Il Dipartimento di Stato degli Stati Uniti ha confermato che invierà rappresentanti all’incontro a Seoul, ma non ha specificato chi. Nel frattempo, i governi canadese, brasiliano e olandese hanno annunciato che non parteciperanno all’evento. Si sostiene anche che il governo francese abbia rinviato il Summit sulla Sicurezza di più ampia portata fino al 2025, ma questa informazione resta non confermata. Le sfide dell’IA sono diventate più complesse Affermare che dovremmo proteggere l’umanità da eventi globali e di estinzione è piuttosto semplice, dato che la tecnologia è ancora nelle sue fasi iniziali e il vero rischio rimane basso. D’altro canto, un’azione significativa su deep fake, danni ambientali e diritti d’autore richiede un lavoro reale che va oltre la retorica e le apparenze. Sebbene abbiamo assistito all’emergere di una serie di leggi e regolamenti progettati per controllare l’IA, in particolare il EU AI Act, molti problemi chiave rimangono irrisolti. Come ha spiegato Francine Bennett, direttrice ad interim dell’Istituto Ada Lovelace, a Reuters, “Il discorso sulla politica relativa all’IA si è ampliato per includere altre preoccupazioni importanti, come la concentrazione del mercato e gli impatti ambientali”. L’ampio raggio d’azione della sicurezza dell’IA richiede un’ampia e altamente soggettiva riflessione, che forse non avrà luogo naturalmente in questa impostazione virtuale. Un altro elemento è che le tensioni geopolitiche tra le potenze occidentali e la Cina continuano a ostacolare i negoziati. Mentre gli Stati Uniti e la Cina hanno discusso sicurezza dell’IA in riunioni private, altri grandi eventi come il World Economic Forum hanno riscontrato interazioni fredde tra le due potenze, tra cui l’abbandono del talk cinese da parte della delegazione statunitense. Questo vertice virtuale della sicurezza di 6 mesi rifletterà probabilmente sui moderati progressi finora compiuti, ma una decisa azione pratica su questioni chiave rimane all’ordine del giorno. Leggi di più su dailyai.com
Il misterioso “gpt2-chatbot”: una scoperta a sorpresa nell’AI?

Un misterioso chatbot chiamato “gpt2-chatbot” ha suscitato un’immensa eccitazione e speculazione nella comunità dell’intelligenza artificiale. Questo chatbot, che puoi trovare e sperimentare tu stesso sulla Chatbot Arena di LMSys, secondo alcuni utenti è più avanzato degli attuali modelli all’avanguardia come GPT-4 e Claude 3 Opus. Emerso apparentemente dal nulla, le sue origini sono del tutto sconosciute. Potrebbe trattarsi di un progetto sperimentale di un importante laboratorio di AI o di una strana fuga di notizie? Esiste un nuovo misterioso modello chiamato gpt2-chatbot accessibile da un importante sito di benchmarking LLM. Nessuno sa chi l’abbia creato o cosa sia, ma io ci ho giocato un po’ e sembra che abbia lo stesso livello di abilità approssimativo del GPT-4. Un misterioso modello di classe GPT-4? Fantastico! pic.twitter.com/1s2iEreaiT – Ethan Mollick (@emollick) 29 aprile 2024 Gli utenti di Reddit pensano principalmente che si tratti di OpenAI poiché il modello ammette che lo stile e il tono delle risposte sembrano diversi da quelli di GPT-4 e GPT-4 Turbo, ma il taglio delle conoscenze differisce dai modelli OpenAI attualmente disponibili. gpt2-chatbot è bravissimo nell’ascii art, molto più di qualsiasi altro modello pic.twitter.com/1IwEaJyU7Q – Phil (@phill__1) 29 aprile 2024 Ho chiesto io stesso a gpt2-chatbot: “Chi sei?”, e lui ha risposto: “Sono stato creato da OpenAI, un’organizzazione di ricerca che si occupa dello sviluppo e della promozione di IA amichevoli per il bene dell’umanità. Il mio sviluppo si basa sulla serie di modelli linguistici GPT (Generative Pre-trained Transformer), in particolare sulla versione GPT-4, che è un’evoluzione dei modelli precedenti come il GPT-3. Questi modelli vengono addestrati su una vasta gamma di testi internet, ma sono progettati per generare testi simili a quelli umani in base alle richieste che ricevono. OpenAI l’azienda è nata con l’obiettivo di garantire che l’intelligenza artificiale generale (AGI) vada a beneficio di tutta l’umanità. Conduce ricerche nel campo dell’IA con l’obiettivo di sviluppare e indirizzare le tecnologie di intelligenza artificiale in modo da apportare benefici all’umanità nel suo complesso, senza essere vincolata da obblighi finanziari nei confronti degli investitori. Se hai altre domande sull’IA, su OpenAI o sulle tecnologie correlate, non esitare a chiedere!” Quando gli ho chiesto perché si chiama gpt2-chatbot, mi ha risposto: “Per riassumere, non mi chiamo “GPT-2”; sono una variante di GPT-4, progettata specificamente per applicazioni interattive, come questo formato di conversazione. Il mio progetto include miglioramenti nella gestione dei dialoghi, nelle caratteristiche di sicurezza, nelle considerazioni etiche e nella qualità generale delle risposte. Se vedi riferimenti a “GPT-2″, probabilmente si tratta del modello precedente a GPT-3 e GPT-4” le prestazioni del gpt2-chatbot provocano speculazioni Per quanto riguarda le prestazioni, un utente del forum di Y Combinator ha parlato della conoscenza del dominio del bot nel campo della scienza dei materiali, discutendo della produzione di pale di turbine con una profondità che non avrebbe visto altrimenti. Un altro utente, il noto scienziato dei dati Simon Wilson, è rimasto impressionato dalla gestione di query altamente personalizzate, suggerendo che il bot ha una comprensione dettagliata del background personale delle persone. Puoi provare il misterioso gpt2-chatbot su https://t.co/4ARf9G6RHb (seleziona “Direct Chat” e sceglilo dal menu) Impressioni iniziali: Sono molto colpito. Mi ha dato una risposta migliore per una ricerca sull’ego (“Chi è Simon Willison?”) rispetto a qualsiasi altro modello che ho provato https://t.co/MCJMVhNs8k – Simon Willison (@simonw) 29 aprile 2024 Altri hanno individuato i difetti standard di LLM, come allucinazioni e imprecisioni. Avendolo usato io stesso, concordo sul fatto che sembra una variante del GPT-4. Per quanto riguarda la possibilità che sia migliore di GPT-4, come ipotizzato da alcuni, vale la pena sottolineare che molti ritengono che le prestazioni di GPT-4 siano diminuite nel tempo (forse in concomitanza con il fatto che OpenAI ha dedicato risorse di calcolo all’addestramento di nuovi modelli). Quindi, questa variante potenzialmente non adulterata potrebbe sembrare come la GPT-4 quando è uscita per la prima volta. Se a ciò si aggiungono alcune lievi differenze nel comportamento e nelle prestazioni su compiti specifici, si capisce perché le speculazioni siano elevate. Quando le discussioni su gpt2-chatbot hanno raggiunto X, alcuni hanno inevitabilmente ipotizzato che si tratti di una prova di GPT-4.5, GPT-5 o addirittura AGI. Tuttavia, molti non sono sicuri che rappresenti un progresso concreto rispetto ai modelli attuali. In generale, è impossibile che un’azienda di intelligenza artificiale addestri un chatbot completamente nuovo come questo e lo rilasci in questo modo. Si tratta quasi certamente di una variante GPT-4. In definitiva, si tratta di dicerie finché il creatore non esce da dietro le quinte e ne rivendica la proprietà. Leggi di più su dailyai.com
Il benchmark Gecko di Google individua il miglior generatore di immagini AI

Google DeepMind ha rilasciato Gecko, un nuovo benchmark per valutare in modo completo i modelli AI text-to-image (T2I). Negli ultimi due anni, abbiamo visto generatori di immagini AI come DALL-E e Midjourney sono migliorati progressivamente con ogni versione rilasciata. Tuttavia, decidere quale dei modelli sottostanti utilizzati da queste piattaforme sia il migliore è stato in gran parte soggettivo e difficile da valutare. Affermare che un modello è “migliore” di un altro non è così semplice. Modelli diversi eccellono in vari aspetti della generazione di immagini. Uno può essere bravo nel rendering del testo, mentre un altro può essere migliore nell’interazione con gli oggetti. Una delle sfide principali che i modelli T2I devono affrontare è quella di seguire ogni dettaglio del messaggio e di far sì che si rifletta accuratamente nell’immagine generata. Con Gecko, i ricercatori DeepMind ricercatori hanno creato un benchmark che valuta le capacità dei modelli T2I in modo simile a quello degli esseri umani. Set di abilità I ricercatori hanno innanzitutto definito un set completo di abilità rilevanti per la generazione di T2I. Queste includono la comprensione dello spazio, il riconoscimento delle azioni, la resa del testo e altre ancora. Hanno poi suddiviso queste abilità in sotto-abilità più specifiche. Ad esempio, per quanto riguarda la resa del testo, le sotto-abilità potrebbero includere la resa di diversi font, colori o dimensioni del testo. Un LLM è stato poi utilizzato per generare dei prompt per testare le capacità del modello T2I su una specifica abilità o sotto-abilità. In questo modo, i creatori di un modello T2I possono individuare non solo quali abilità sono impegnative, ma anche a quale livello di complessità un’abilità diventa impegnativa per il loro modello. Il framework di benchmark Gecko utilizza un set di dati di competenze e sottocompetenze (a), un punteggio Likert umano per l’accuratezza delle immagini (b), query generate da LLM per l’analisi VQA, e produce metriche complete correlate alle valutazioni umane. Fonte: arXiv Valutazione umana e automatica Gecko misura anche la precisione con cui un modello T2I segue tutti i dettagli di una richiesta. Anche in questo caso, è stato utilizzato un LLM per isolare i dettagli chiave di ogni richiesta di input e quindi generare una serie di domande relative a tali dettagli. Queste domande possono essere sia semplici e dirette sugli elementi visibili dell’immagine (ad esempio, “C’è un gatto nell’immagine?”) sia domande più complesse che verificano la comprensione della scena o le relazioni tra gli oggetti (ad esempio, “Il gatto è seduto sopra il libro?”). Un modello di risposta alle domande visive (VQA) analizza quindi l’immagine generata e risponde alle domande per verificare l’accuratezza con cui il modello T2I allinea l’immagine di output a una richiesta di input. I ricercatori hanno raccolto oltre 100.000 annotazioni umane in cui i partecipanti hanno assegnato un punteggio a un’immagine generata in base all’allineamento dell’immagine a criteri specifici. Agli esseri umani è stato chiesto di prendere in considerazione un aspetto specifico della richiesta di input e di assegnare un punteggio all’immagine su una scala da 1 a 5 in base all’allineamento con la richiesta. Utilizzando le valutazioni annotate dall’uomo come gold standard, i ricercatori hanno potuto confermare che la loro metrica di autovalutazione “è meglio correlata alle valutazioni umane rispetto alle metriche esistenti per il nostro nuovo set di dati” Il risultato è un sistema di benchmarking in grado di attribuire numeri a fattori specifici che rendono buona o meno un’immagine generata. In sostanza, Gecko assegna un punteggio all’immagine in uscita in modo molto simile a come noi decidiamo intuitivamente se siamo soddisfatti o meno dell’immagine generata. Qual è il miglior modello di testo-immagine? Nel loro articolo, i ricercatori hanno concluso che il modello Muse di Google batte Stable Diffusion 1.5 e SDXL nel benchmark Gecko. Forse sono di parte, ma i numeri non mentono. dailyai.com
L’intelligenza artificiale affronta il “momento Oppenheimer” nella corsa agli armamenti dei robot killer

Alla conferenza internazionale “Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation” tenutasi a Vienna, è stato chiesto di regolamentare l’uso dell’IA nei sistemi d’arma autonomi (AWS) quando la tecnologia è ancora agli albori. Nel corso dei secoli, i progressi della tecnologia hanno portato a cambiamenti radicali nel modo di combattere le guerre. Sviluppi come l’acciaio, la polvere da sparo e infine la bomba atomica hanno trovato le loro prime applicazioni in guerra prima di approdare alle applicazioni civili. L’intelligenza artificiale ha invertito la tendenza in questo senso. Le applicazioni iniziali sono state in gran parte di tipo commerciale, ma le forze di difesa hanno rapidamente visto il potenziale dell’IA per trasformare ancora una volta il campo di battaglia. Facendo riferimento alla prima bomba atomica, il ministro degli Esteri austriaco Alexander Schallenberg ha detto ai partecipanti provenienti da 143 paesi che il mondo sta affrontando un “momento Oppenheimer” per decidere se e come l’IA debba essere utilizzata nelle armi autonome. L’umanità al bivio: I sistemi di armi autonome riempiranno presto i campi di battaglia del mondo. Dobbiamo agire e concordare regole internazionali per garantire che le decisioni sulla vita o sulla morte non siano mai prese dalle macchine! ➡️ Inaugurazione di #AWS2024Vienna con 900 ospiti da 142 Stati pic.twitter.com/AtwumLu4OP – Alexander Schallenberg (@a_schallenberg) 29 aprile 2024 L’urgenza di una regolamentazione non è dovuta solo all’anticipazione di potenziali minacce future, ma anche all’uso dell’intelligenza artificiale nei conflitti attuali. Idroni autonomi vengono utilizzati da entrambe le parti nella guerra in Ucraina. Le forze israeliane stanno utilizzando l’IA in diverse applicazioni di difesa, tra cui il presunto utilizzo dell’IA per identificare obiettivi umani nella guerra di Gaza. Schallenberg ha affermato che “i sistemi di armi autonome riempiranno presto i campi di battaglia del mondo”, avvertendo che è giunto il momento di “concordare regole e norme internazionali per garantire il controllo umano”. Ha esortato la necessità di limitare l’autonomia delle armi AI, affermando: “Almeno facciamo in modo che la decisione più profonda e di vasta portata – chi vive e chi muore – rimanga nelle mani degli esseri umani e non delle macchine” In una dichiarazione del governo austriaco si legge: “I sistemi di armi autonome (AWS) sollevano profonde questioni dal punto di vista legale, etico, umanitario e della sicurezza. L’umanità è a un bivio e deve unirsi per affrontare la sfida fondamentale della regolamentazione di queste armi” Dollari della difesa contro umanità I conflitti in corso hanno visto aumentare i budget per la difesa a livello globale e i prezzi delle azioni di diverse aziende di tecnologia per la difesa alimentate dall’intelligenza artificiale hanno subito un’impennata. Le tecnologie AWS potrebbero essere troppo redditizie per essere vietate. Jaan Tallinn, uno dei primi investitori di DeepMind Technologies di Google, ha affermato che “gli incentivi della Silicon Valley potrebbero non essere allineati con il resto dell’umanità” Nel suo discorso programmatico alla conferenza, Tallinn ha detto: “Vi imploro di diffidare di coloro che promettono precisione e prevedibilità nei sistemi che utilizzano l’IA. Abbiamo già visto l’IA commettere errori di selezione in modi grandi e piccoli: dall’errore di riconoscere la testa pelata di un arbitro come un pallone da calcio, alle morti di pedoni causate dalle auto a guida autonoma, incapaci di riconoscere le strisce pedonali” “Dobbiamo essere estremamente cauti nell’affidarci alla precisione di questi sistemi, sia nel settore militare che in quello civile. Gli errori accidentali causati dalle armi autonome hanno il potenziale per scatenare quel tipo di guerre che non dovrebbero mai essere intraprese” Tallinn ha sottolineato che progettare armi AI più affidabili non è la soluzione. Ha spiegato che “anche quando le armi autonome diventeranno in grado di distinguere perfettamente tra gli esseri umani, renderanno molto più facile realizzare genocidi e uccisioni mirate alla ricerca di specifiche caratteristiche umane” “Uscire dalla corsa agli armamenti richiede coraggio e lungimiranza. Lo abbiamo fatto in passato e possiamo farlo di nuovo” Dall’apertura dei lavori della storica Conferenza di Vienna sulle armi autonome #AWS2024 di ieri, ecco il discorso completo del co-fondatore del FLI Jaan Tallinn ⬇️ pic.twitter.com/wFYxWpDl1S – Future of Life Institute (@FLI_org) 30 aprile 2024 In una dichiarazione finale da inviare al Segretario Generale delle Nazioni Unite, il gruppo ha affermato il suo “forte impegno a lavorare con urgenza e con tutte le parti interessate per uno strumento giuridico internazionale che regoli i sistemi di armi autonome”. La dichiarazione aggiunge: “Abbiamo la responsabilità di agire e di mettere in atto le regole necessarie per proteggere l’umanità… Il controllo umano deve prevalere nell’uso della forza” Più di 115 Stati membri dell’ONU concordano sulla necessità di norme vincolanti che regolino l’AWS, ma sembra improbabile che la Russia, la Cina o il sito US non pongano il veto. Anthony Aguirre, cosmologo e cofondatore del Future Life Institute, ha riassunto la situazione dicendo: “Il futuro dei bot da macello è qui” dailyai.com
