ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Insegnante di educazione fisica arrestato per avere clonato con l’intelligenza artificiale la voce del preside

Insegnante di educazione fisica arrestato per avere clonato con l'intelligenza artificiale la voce del preside

Giovedì è stato arrestato un direttore atletico di un liceo di Baltimora, dopo che la polizia ha dichiarato che aveva presumibilmente usato l’IA per creare una falsa registrazione audio del preside della scuola. A gennaio, abbiamo riportato la notizia della registrazione audio che sembrava essere una registrazione del preside del liceo Pikesville, Eric Eiswert, mentre faceva commenti razzisti e antisemiti sul personale e sugli studenti. All’epoca, Eiswert negò l’autenticità dell’audio, e si sospettò che la registrazione fosse un falso creato dall’IA. La registrazione audio, che è stata ampiamente condivisa, ha portato Eiswert a perdere temporaneamente il suo lavoro mentre l’autenticità dell’audio veniva indagata. La reazione di insegnanti, studenti e altri membri della comunità che credevano che la registrazione fosse autentica ha sconvolto la vita di Eiswert. Ascoltando la registrazione audio, è facile capire perché la gente pensasse che fosse autentica. Gli esperti hanno ora concluso che l’audio era un falso creato con l’IA, basandosi sul tono piatto dell’audio, sull’assenza di suoni costanti di respirazione o pause, e su suoni di sfondo insolitamente puliti. Si sostiene che Dazhon Darien, ex direttore atletico del liceo Pikesville, abbia creato il falso con l’IA in risposta all’apertura di un’indagine da parte di Eiswert sul suo presunto utilizzo indebido dei fondi scolastici. Dazhon Darien è stato arrestato e accusato di interruzione delle operazioni scolastiche, furto, ritorsione contro un testimone e stalking. Secondo l’accusa, Darien avrebbe utilizzato i computer della scuola per accedere ai programmi di OpenAI e ai servizi di chat Microsoft Bing. Assente dalla lista delle accuse era qualcosa che potrebbe presto diventare un crimine: usare l’IA per falsificare la voce di qualcuno. Proposte come il No Fakes Act e il No AI Fraud Act sono state presentate al Congresso degli Stati Uniti, ma non sono ancora state approvate. Quindi, quando Darien ha usato l’IA per creare una registrazione audio falsa non consensuale della voce di Eiswert, tecnicamente non stava commettendo un reato. Il fatto che ci siano volute settimane per un esperto per confermare infine che la registrazione audio era un falso, evidenzia quanto la società e le autorità siano impreparate a gestire i nuovi problemi che si presentano con l’IA generativa. La facilità con cui questi falsi possono essere generati aggiunge problemi alla questione. Se un insegnante di ginnastica può mettere insieme un falso passabile, immagina cosa potrebbero ottenere altri malintenzionati più competenti dal punto di vista tecnico. In assenza di un modo semplice per identificare audio e video falsi, la nostra miglior difesa potrebbe essere presumere che le cose siano false fino a quando non vengono confermate come reali. Leggi di più su dailyai.com

Il DHS lancia un consiglio per la sicurezza dell’IA, ma i grandi nomi dell’open source sono assenti

Il DHS lancia un consiglio per la sicurezza dell'IA, ma i grandi nomi dell'open source sono assenti

Il Segretario alla Sicurezza Interna degli Stati Uniti, Alejandro Mayorkas, ha annunciato che il DHS ha istituito una Commissione di Sicurezza di Intelligenza Artificiale per promuovere l’uso sicuro e protetto dell’IA nelle infrastrutture critiche degli USA. Mayorkas ha istituito la commissione come diretto dal Decreto Esecutivo (EO) del Presidente Biden, “Sviluppo e uso sicuri, protetti e affidabili dell’Intelligenza Artificiale,” firmato a ottobre dello scorso anno. La commissione ha il compito di sviluppare raccomandazioni su come gli stakeholder delle infrastrutture critiche, come gli operatori di oleodotti e reti elettriche, i fornitori di servizi di trasporto e di internet, possano sfruttare in modo responsabile le tecnologie di IA. “L’intelligenza artificiale è una tecnologia trasformativa che può avanzare i nostri interessi nazionali in modi senza precedenti. Allo stesso tempo, presenta rischi reali, rischi che possiamo mitigare adottando le migliori pratiche e assumendo altre azioni studiate e concrete,” ha dichiarato il Segretario Mayorkas. Il DHS afferma che la commissione aiuterà a “rimanere avanti rispetto alle minacce in evoluzione poste da attori esteri ostili”. Nel suo Threat Assessment del 2024, il DHS ha avvertito che nazioni come Cina, Russia e Iran potrebbero utilizzare strumenti assistiti da IA per colpire la sicurezza economica degli USA e le infrastrutture critiche. Il rapporto ha notato che queste tecnologie “hanno il potenziale di abilitare attacchi cibernetici su scala maggiore, più veloci, efficienti ed evasivi, contro obiettivi che includono oleodotti, ferrovie e altre infrastrutture critiche degli USA.” Si prevede che la nuova commissione di sicurezza dell’IA aiuterà il DHS a rimanere avanti rispetto a queste minacce in evoluzione. Chi fa parte della commissione? L’elenco delle persone che fanno parte della commissione di 22 membri sembra un elenco di big della tecnologia, ma i nomi mancanti offrono una potenziale visione di come il governo degli USA consideri l’IA open-source. I membri della commissione includono CEO come Sam Altman (OpenAI), Satya Nadella (Microsoft), Sundar Pichai (Alphabet), e Dario Amodei (Anthropic). I modelli rilasciati da queste aziende sono tutti proprietari, o modelli chiusi. Mark Zuckerberg ed Elon Musk sono sorprendenti omissioni. Entrambi rappresentano aziende che sostengono che i modelli di IA dovrebbero essere “open source”. Mayorkas ha detto ai giornalisti che ha scelto deliberatamente di non includere “società di social media” nella commissione. La sua decisione è stata influenzata dalle loro piattaforme o dalla loro strategia di IA open-source? Il dibattito sui rischi associati ai modelli open-source continua. Aziende come la ironicamente chiamata OpenAI sono state accusate di utilizzare la paura dell’IA per mantenere il loro predominio mantenendo i loro modelli chiusi. Meta, xAI, e persino la startup francese di IA Mistral hanno rilasciato i loro LLM come modelli open source. L’assenza di rappresentanti open-source e la presenza di diversi effettivi altruisti suggerisce un continuo catastrofismo sull’IA quando la commissione si riunisce per la prima volta questa settimana. Ecco l’elenco completo dei membri della commissione: Sam Altman, CEO, OpenAI; Dario Amodei, CEO e Co-Founder, Anthropic; Ed Bastian, CEO, Delta Air Lines; Rumman Chowdhury, Ph.D., CEO, Humane Intelligence; Alexandra Reeve Givens, Presidente e CEO, Center for Democracy and Technology Bruce Harrell, Sindaco di Seattle, Washington; Presidente, Technology and Innovation Committee, United States Conference of Mayors; Damon Hewitt, Presidente e Direttore Esecutivo, Lawyers’ Committee for Civil Rights Under Law; Vicki Hollub, Presidente e CEO, Occidental Petroleum; Jensen Huang, Presidente e CEO, NVIDIA; Arvind Krishna, Chairman e CEO, IBM; Fei-Fei Li, Ph.D., Co-Direttore, Stanford Human-centered Artificial Intelligence Institute; Wes Moore, Governatore del Maryland; Satya Nadella, Presidente e CEO, Microsoft; Shantanu Narayen, Presidente e CEO, Adobe; Sundar Pichai, CEO, Alphabet; Arati Prabhakar, Ph.D., Assistente del Presidente per la Scienza e la Tecnologia; Direttore, The White House Office of Science and Technology Policy; Chuck Robbins, Presidente e CEO, Cisco; Presidente, Business Roundtable; Adam Selipsky, CEO, Amazon Web Services; Dr. Lisa Su, Presidente e CEO, Advanced Micro Devices (AMD); Nicol Turner Lee, Ph.D., Senior Fellow e Direttore del Center for Technology Innovation, Brookings Institution; Kathy Warden, Presidente, CEO e Presidente, Northrop Grumman; e Maya Wiley, Presidente e CEO, The Leadership Conference on Civil and Human Rights. Leggi di più su dailyai.com

Il Financial Times e OpenAI siglano un accordo sui dati di addestramento

Il Financial Times e OpenAI siglano un accordo sui dati di addestramento

The Financial Times (FT) sta concedendo a OpenAI l’accesso ai suoi archivi di notizie mentre le aziende di intelligenza artificiale generativa continuano a garantirsi fonti di dati privati. L’accordo prevede che ChatGPT fornisca riassunti, citazioni dirette e collegamenti ipertestuali ai articoli completi pubblicati dal FT, collegandosi direttamente al contenuto originale sul sito web. Come parte dell’accordo, OpenAI si è impegnata a collaborare con il FT per sviluppare nuovi prodotti guidati dall’IA. Il FT è un cliente di ChatGPT Enterprise e ha già sperimentato l’IA in precedenza, incorporando Claude di Anthropic in uno strumento di ricerca generativo chiamato “Ask FT”. John Ridding, CEO del FT, ha dichiarato dell’accordo “A parte i benefici per il FT, ci sono implicazioni più ampie per l’industria. È giusto, ovviamente, che le piattaforme AI paghino gli editori per l’uso del loro materiale. OpenAI capisce l’importanza della trasparenza, dell’attribuzione e del compenso – tutti elementi essenziali per noi.” Un sentimento giusto, sebbene alcuni sostengano che OpenAI non capisca l’importanza della trasparenza e dell’attribuzione. Brad Lightcap, COO di OpenAI, ha aggiunto: “La nostra partnership e il dialogo continuo con il Financial Times riguardano la ricerca di modi creativi e produttivi per l’IA di potenziare le organizzazioni di notizie e i giornalisti, e arricchire l’esperienza di ChatGPT con giornalismo di livello mondiale in tempo reale per milioni di persone in tutto il mondo.” Mentre l’accesso ai dati del FT è prezioso per OpenAI, i suoi attuali set di dati consistono in trilioni di parole di dati dubbiamente ‘pubblici’ o ‘open source’. Gli accordi con il FT e altre aziende mediatiche come Axel Springer si verificano mentre le aziende di IA riconoscono la necessità di iniziare a pagare per i dati per affrontare le crescenti pressioni legali. Sono anche diventate acutamente consapevoli che i loro modelli diventeranno rapidamente superati senza dati freschi e di alta qualità. La battaglia delle aziende di IA per i dati Le implicazioni etiche nell’uso dei dati di IA sono immense. Nella loro incessante ricerca di dati, giganti tecnologici come OpenAI, Google e Meta sono stati segnalati per pratiche che spingono o oltrepassano i limiti legali ed etici. Ad esempio, un’inchiesta del New York Times ha rivelato che OpenAI ha sviluppato uno strumento chiamato Whisper per trascrivere video di YouTube – nonostante potenziali violazioni delle politiche di YouTube contro l’uso dei suoi video per applicazioni indipendenti. Allo stesso modo, Google e Meta hanno esplorato o implementato strategie che aggirano o reinterpretano le leggi esistenti sul copyright e sulla privacy per raccogliere più dati. Tra le strategie più ombrose vi è la modifica delle politiche sulla privacy per consentire alle applicazioni di IA di utilizzare contenuti disponibili pubblicamente da piattaforme come Google Docs. Sebbene le aziende di IA siano disposte a pagare per i dati ora, ciò non le esime dall’adattamento delle regole altrove. Leggi di più su dailyai.com

Assenze notevoli colpiscono il Summit sulla Sicurezza dell’IA previsto per Maggio.

Assenze notevoli colpiscono il Summit sulla Sicurezza dell'IA previsto per Maggio.

L’anno scorso, il primo Summit Globale sulla Sicurezza dell’IA è stato tenuto presso lo storico Bletchley Park del Regno Unito, catturando l’attenzione globale. Tuttavia, mentre si avvicina il secondo vertice seguente di 6 mesi, programmato per il 21-22 Maggio e ospitato principalmente in formato virtuale dal Regno Unito e dalla Corea del Sud, vi sono segni che suggeriscono l’arrivo di una presa di coscienza.  Gli organizzatori del summit sperano di continuare il slancio generato a Bletchley Park, dove oltre 25 rappresentanti governativi hanno firmato una dichiarazione congiunta impegnandosi a una supervisione collaborativa dell’intelligenza artificiale.  Sebbene nessuno si aspettasse che questo evento intermedio più piccolo potesse eguagliare o superare lo splendore del primo vertice, partecipanti chiave, tra cui DeepMind e Mozilla, hanno deciso di non partecipare all’incontro.  Sebbene l’UE non abbia escluso la sua presenza all’evento, un portavoce ha confermato che i suoi principali regolatori tecnologici, tra cui Margrethe Vestager, Thierry Breton e Vera Jourova, non parteciperanno. Il Dipartimento di Stato degli Stati Uniti ha confermato che invierà rappresentanti all’incontro a Seoul, ma non ha specificato chi. Nel frattempo, i governi canadese, brasiliano e olandese hanno annunciato che non parteciperanno all’evento. Si sostiene anche che il governo francese abbia rinviato il Summit sulla Sicurezza di più ampia portata fino al 2025, ma questa informazione resta non confermata. Le sfide dell’IA sono diventate più complesse Affermare che dovremmo proteggere l’umanità da eventi globali e di estinzione è piuttosto semplice, dato che la tecnologia è ancora nelle sue fasi iniziali e il vero rischio rimane basso. D’altro canto, un’azione significativa su deep fake, danni ambientali e diritti d’autore richiede un lavoro reale che va oltre la retorica e le apparenze. Sebbene abbiamo assistito all’emergere di una serie di leggi e regolamenti progettati per controllare l’IA, in particolare il EU AI Act, molti problemi chiave rimangono irrisolti. Come ha spiegato Francine Bennett, direttrice ad interim dell’Istituto Ada Lovelace, a Reuters, “Il discorso sulla politica relativa all’IA si è ampliato per includere altre preoccupazioni importanti, come la concentrazione del mercato e gli impatti ambientali”. L’ampio raggio d’azione della sicurezza dell’IA richiede un’ampia e altamente soggettiva riflessione, che forse non avrà luogo naturalmente in questa impostazione virtuale. Un altro elemento è che le tensioni geopolitiche tra le potenze occidentali e la Cina continuano a ostacolare i negoziati.  Mentre gli Stati Uniti e la Cina hanno discusso sicurezza dell’IA in riunioni private, altri grandi eventi come il World Economic Forum hanno riscontrato interazioni fredde tra le due potenze, tra cui l’abbandono del talk cinese da parte della delegazione statunitense. Questo vertice virtuale della sicurezza di 6 mesi rifletterà probabilmente sui moderati progressi finora compiuti, ma una decisa azione pratica su questioni chiave rimane all’ordine del giorno. Leggi di più su dailyai.com

Il misterioso “gpt2-chatbot”: una scoperta a sorpresa nell’AI?

Il misterioso "gpt2-chatbot": una scoperta a sorpresa nell'AI?

  Un misterioso chatbot chiamato “gpt2-chatbot” ha suscitato un’immensa eccitazione e speculazione nella comunità dell’intelligenza artificiale. Questo chatbot, che puoi trovare e sperimentare tu stesso sulla Chatbot Arena di LMSys, secondo alcuni utenti è più avanzato degli attuali modelli all’avanguardia come GPT-4 e Claude 3 Opus. Emerso apparentemente dal nulla, le sue origini sono del tutto sconosciute. Potrebbe trattarsi di un progetto sperimentale di un importante laboratorio di AI o di una strana fuga di notizie? Esiste un nuovo misterioso modello chiamato gpt2-chatbot accessibile da un importante sito di benchmarking LLM. Nessuno sa chi l’abbia creato o cosa sia, ma io ci ho giocato un po’ e sembra che abbia lo stesso livello di abilità approssimativo del GPT-4. Un misterioso modello di classe GPT-4? Fantastico! pic.twitter.com/1s2iEreaiT – Ethan Mollick (@emollick) 29 aprile 2024 Gli utenti di Reddit pensano principalmente che si tratti di OpenAI poiché il modello ammette che lo stile e il tono delle risposte sembrano diversi da quelli di GPT-4 e GPT-4 Turbo, ma il taglio delle conoscenze differisce dai modelli OpenAI attualmente disponibili. gpt2-chatbot è bravissimo nell’ascii art, molto più di qualsiasi altro modello pic.twitter.com/1IwEaJyU7Q – Phil (@phill__1) 29 aprile 2024 Ho chiesto io stesso a gpt2-chatbot: “Chi sei?”, e lui ha risposto: “Sono stato creato da OpenAI, un’organizzazione di ricerca che si occupa dello sviluppo e della promozione di IA amichevoli per il bene dell’umanità. Il mio sviluppo si basa sulla serie di modelli linguistici GPT (Generative Pre-trained Transformer), in particolare sulla versione GPT-4, che è un’evoluzione dei modelli precedenti come il GPT-3. Questi modelli vengono addestrati su una vasta gamma di testi internet, ma sono progettati per generare testi simili a quelli umani in base alle richieste che ricevono. OpenAI l’azienda è nata con l’obiettivo di garantire che l’intelligenza artificiale generale (AGI) vada a beneficio di tutta l’umanità. Conduce ricerche nel campo dell’IA con l’obiettivo di sviluppare e indirizzare le tecnologie di intelligenza artificiale in modo da apportare benefici all’umanità nel suo complesso, senza essere vincolata da obblighi finanziari nei confronti degli investitori. Se hai altre domande sull’IA, su OpenAI o sulle tecnologie correlate, non esitare a chiedere!” Quando gli ho chiesto perché si chiama gpt2-chatbot, mi ha risposto: “Per riassumere, non mi chiamo “GPT-2”; sono una variante di GPT-4, progettata specificamente per applicazioni interattive, come questo formato di conversazione. Il mio progetto include miglioramenti nella gestione dei dialoghi, nelle caratteristiche di sicurezza, nelle considerazioni etiche e nella qualità generale delle risposte. Se vedi riferimenti a “GPT-2″, probabilmente si tratta del modello precedente a GPT-3 e GPT-4” le prestazioni del gpt2-chatbot provocano speculazioni Per quanto riguarda le prestazioni, un utente del forum di Y Combinator ha parlato della conoscenza del dominio del bot nel campo della scienza dei materiali, discutendo della produzione di pale di turbine con una profondità che non avrebbe visto altrimenti. Un altro utente, il noto scienziato dei dati Simon Wilson, è rimasto impressionato dalla gestione di query altamente personalizzate, suggerendo che il bot ha una comprensione dettagliata del background personale delle persone. Puoi provare il misterioso gpt2-chatbot su https://t.co/4ARf9G6RHb (seleziona “Direct Chat” e sceglilo dal menu) Impressioni iniziali: Sono molto colpito. Mi ha dato una risposta migliore per una ricerca sull’ego (“Chi è Simon Willison?”) rispetto a qualsiasi altro modello che ho provato https://t.co/MCJMVhNs8k – Simon Willison (@simonw) 29 aprile 2024 Altri hanno individuato i difetti standard di LLM, come allucinazioni e imprecisioni. Avendolo usato io stesso, concordo sul fatto che sembra una variante del GPT-4. Per quanto riguarda la possibilità che sia migliore di GPT-4, come ipotizzato da alcuni, vale la pena sottolineare che molti ritengono che le prestazioni di GPT-4 siano diminuite nel tempo (forse in concomitanza con il fatto che OpenAI ha dedicato risorse di calcolo all’addestramento di nuovi modelli). Quindi, questa variante potenzialmente non adulterata potrebbe sembrare come la GPT-4 quando è uscita per la prima volta. Se a ciò si aggiungono alcune lievi differenze nel comportamento e nelle prestazioni su compiti specifici, si capisce perché le speculazioni siano elevate. Quando le discussioni su gpt2-chatbot hanno raggiunto X, alcuni hanno inevitabilmente ipotizzato che si tratti di una prova di GPT-4.5, GPT-5 o addirittura AGI. Tuttavia, molti non sono sicuri che rappresenti un progresso concreto rispetto ai modelli attuali. In generale, è impossibile che un’azienda di intelligenza artificiale addestri un chatbot completamente nuovo come questo e lo rilasci in questo modo. Si tratta quasi certamente di una variante GPT-4. In definitiva, si tratta di dicerie finché il creatore non esce da dietro le quinte e ne rivendica la proprietà. Leggi di più su dailyai.com

Il benchmark Gecko di Google individua il miglior generatore di immagini AI

Il benchmark Gecko di Google individua il miglior generatore di immagini AI

  Google DeepMind ha rilasciato Gecko, un nuovo benchmark per valutare in modo completo i modelli AI text-to-image (T2I). Negli ultimi due anni, abbiamo visto generatori di immagini AI come DALL-E e Midjourney sono migliorati progressivamente con ogni versione rilasciata. Tuttavia, decidere quale dei modelli sottostanti utilizzati da queste piattaforme sia il migliore è stato in gran parte soggettivo e difficile da valutare. Affermare che un modello è “migliore” di un altro non è così semplice. Modelli diversi eccellono in vari aspetti della generazione di immagini. Uno può essere bravo nel rendering del testo, mentre un altro può essere migliore nell’interazione con gli oggetti. Una delle sfide principali che i modelli T2I devono affrontare è quella di seguire ogni dettaglio del messaggio e di far sì che si rifletta accuratamente nell’immagine generata. Con Gecko, i ricercatori DeepMind ricercatori hanno creato un benchmark che valuta le capacità dei modelli T2I in modo simile a quello degli esseri umani. Set di abilità I ricercatori hanno innanzitutto definito un set completo di abilità rilevanti per la generazione di T2I. Queste includono la comprensione dello spazio, il riconoscimento delle azioni, la resa del testo e altre ancora. Hanno poi suddiviso queste abilità in sotto-abilità più specifiche. Ad esempio, per quanto riguarda la resa del testo, le sotto-abilità potrebbero includere la resa di diversi font, colori o dimensioni del testo. Un LLM è stato poi utilizzato per generare dei prompt per testare le capacità del modello T2I su una specifica abilità o sotto-abilità. In questo modo, i creatori di un modello T2I possono individuare non solo quali abilità sono impegnative, ma anche a quale livello di complessità un’abilità diventa impegnativa per il loro modello. Il framework di benchmark Gecko utilizza un set di dati di competenze e sottocompetenze (a), un punteggio Likert umano per l’accuratezza delle immagini (b), query generate da LLM per l’analisi VQA, e produce metriche complete correlate alle valutazioni umane. Fonte: arXiv Valutazione umana e automatica Gecko misura anche la precisione con cui un modello T2I segue tutti i dettagli di una richiesta. Anche in questo caso, è stato utilizzato un LLM per isolare i dettagli chiave di ogni richiesta di input e quindi generare una serie di domande relative a tali dettagli. Queste domande possono essere sia semplici e dirette sugli elementi visibili dell’immagine (ad esempio, “C’è un gatto nell’immagine?”) sia domande più complesse che verificano la comprensione della scena o le relazioni tra gli oggetti (ad esempio, “Il gatto è seduto sopra il libro?”). Un modello di risposta alle domande visive (VQA) analizza quindi l’immagine generata e risponde alle domande per verificare l’accuratezza con cui il modello T2I allinea l’immagine di output a una richiesta di input. I ricercatori hanno raccolto oltre 100.000 annotazioni umane in cui i partecipanti hanno assegnato un punteggio a un’immagine generata in base all’allineamento dell’immagine a criteri specifici. Agli esseri umani è stato chiesto di prendere in considerazione un aspetto specifico della richiesta di input e di assegnare un punteggio all’immagine su una scala da 1 a 5 in base all’allineamento con la richiesta. Utilizzando le valutazioni annotate dall’uomo come gold standard, i ricercatori hanno potuto confermare che la loro metrica di autovalutazione “è meglio correlata alle valutazioni umane rispetto alle metriche esistenti per il nostro nuovo set di dati” Il risultato è un sistema di benchmarking in grado di attribuire numeri a fattori specifici che rendono buona o meno un’immagine generata. In sostanza, Gecko assegna un punteggio all’immagine in uscita in modo molto simile a come noi decidiamo intuitivamente se siamo soddisfatti o meno dell’immagine generata. Qual è il miglior modello di testo-immagine? Nel loro articolo, i ricercatori hanno concluso che il modello Muse di Google batte Stable Diffusion 1.5 e SDXL nel benchmark Gecko. Forse sono di parte, ma i numeri non mentono. dailyai.com

L’intelligenza artificiale affronta il “momento Oppenheimer” nella corsa agli armamenti dei robot killer

L'intelligenza artificiale affronta il "momento Oppenheimer" nella corsa agli armamenti dei robot killer

Alla conferenza internazionale “Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation” tenutasi a Vienna, è stato chiesto di regolamentare l’uso dell’IA nei sistemi d’arma autonomi (AWS) quando la tecnologia è ancora agli albori. Nel corso dei secoli, i progressi della tecnologia hanno portato a cambiamenti radicali nel modo di combattere le guerre. Sviluppi come l’acciaio, la polvere da sparo e infine la bomba atomica hanno trovato le loro prime applicazioni in guerra prima di approdare alle applicazioni civili. L’intelligenza artificiale ha invertito la tendenza in questo senso. Le applicazioni iniziali sono state in gran parte di tipo commerciale, ma le forze di difesa hanno rapidamente visto il potenziale dell’IA per trasformare ancora una volta il campo di battaglia. Facendo riferimento alla prima bomba atomica, il ministro degli Esteri austriaco Alexander Schallenberg ha detto ai partecipanti provenienti da 143 paesi che il mondo sta affrontando un “momento Oppenheimer” per decidere se e come l’IA debba essere utilizzata nelle armi autonome. L’umanità al bivio: I sistemi di armi autonome riempiranno presto i campi di battaglia del mondo. Dobbiamo agire e concordare regole internazionali per garantire che le decisioni sulla vita o sulla morte non siano mai prese dalle macchine! ➡️ Inaugurazione di #AWS2024Vienna con 900 ospiti da 142 Stati pic.twitter.com/AtwumLu4OP – Alexander Schallenberg (@a_schallenberg) 29 aprile 2024 L’urgenza di una regolamentazione non è dovuta solo all’anticipazione di potenziali minacce future, ma anche all’uso dell’intelligenza artificiale nei conflitti attuali. Idroni autonomi vengono utilizzati da entrambe le parti nella guerra in Ucraina. Le forze israeliane stanno utilizzando l’IA in diverse applicazioni di difesa, tra cui il presunto utilizzo dell’IA per identificare obiettivi umani nella guerra di Gaza. Schallenberg ha affermato che “i sistemi di armi autonome riempiranno presto i campi di battaglia del mondo”, avvertendo che è giunto il momento di “concordare regole e norme internazionali per garantire il controllo umano”. Ha esortato la necessità di limitare l’autonomia delle armi AI, affermando: “Almeno facciamo in modo che la decisione più profonda e di vasta portata – chi vive e chi muore – rimanga nelle mani degli esseri umani e non delle macchine” In una dichiarazione del governo austriaco si legge: “I sistemi di armi autonome (AWS) sollevano profonde questioni dal punto di vista legale, etico, umanitario e della sicurezza. L’umanità è a un bivio e deve unirsi per affrontare la sfida fondamentale della regolamentazione di queste armi” Dollari della difesa contro umanità I conflitti in corso hanno visto aumentare i budget per la difesa a livello globale e i prezzi delle azioni di diverse aziende di tecnologia per la difesa alimentate dall’intelligenza artificiale hanno subito un’impennata. Le tecnologie AWS potrebbero essere troppo redditizie per essere vietate. Jaan Tallinn, uno dei primi investitori di DeepMind Technologies di Google, ha affermato che “gli incentivi della Silicon Valley potrebbero non essere allineati con il resto dell’umanità” Nel suo discorso programmatico alla conferenza, Tallinn ha detto: “Vi imploro di diffidare di coloro che promettono precisione e prevedibilità nei sistemi che utilizzano l’IA. Abbiamo già visto l’IA commettere errori di selezione in modi grandi e piccoli: dall’errore di riconoscere la testa pelata di un arbitro come un pallone da calcio, alle morti di pedoni causate dalle auto a guida autonoma, incapaci di riconoscere le strisce pedonali” “Dobbiamo essere estremamente cauti nell’affidarci alla precisione di questi sistemi, sia nel settore militare che in quello civile. Gli errori accidentali causati dalle armi autonome hanno il potenziale per scatenare quel tipo di guerre che non dovrebbero mai essere intraprese” Tallinn ha sottolineato che progettare armi AI più affidabili non è la soluzione. Ha spiegato che “anche quando le armi autonome diventeranno in grado di distinguere perfettamente tra gli esseri umani, renderanno molto più facile realizzare genocidi e uccisioni mirate alla ricerca di specifiche caratteristiche umane” “Uscire dalla corsa agli armamenti richiede coraggio e lungimiranza. Lo abbiamo fatto in passato e possiamo farlo di nuovo” Dall’apertura dei lavori della storica Conferenza di Vienna sulle armi autonome #AWS2024 di ieri, ecco il discorso completo del co-fondatore del FLI Jaan Tallinn ⬇️ pic.twitter.com/wFYxWpDl1S – Future of Life Institute (@FLI_org) 30 aprile 2024 In una dichiarazione finale da inviare al Segretario Generale delle Nazioni Unite, il gruppo ha affermato il suo “forte impegno a lavorare con urgenza e con tutte le parti interessate per uno strumento giuridico internazionale che regoli i sistemi di armi autonome”. La dichiarazione aggiunge: “Abbiamo la responsabilità di agire e di mettere in atto le regole necessarie per proteggere l’umanità… Il controllo umano deve prevalere nell’uso della forza” Più di 115 Stati membri dell’ONU concordano sulla necessità di norme vincolanti che regolino l’AWS, ma sembra improbabile che la Russia, la Cina o il sito US non pongano il veto. Anthony Aguirre, cosmologo e cofondatore del Future Life Institute, ha riassunto la situazione dicendo: “Il futuro dei bot da macello è qui” dailyai.com

ChatGPT, Gemini AI e Claude AI: La Sfida dei Giganti dell’Intelligenza Artificiale

ChatGPT, Gemini AI e Claude AI: La Sfida dei Giganti dell'Intelligenza Artificiale

L’intelligenza artificiale (IA) sta rivoluzionando il modo in cui interagiamo con la tecnologia, e i modelli linguistici di grandi dimensioni (LLM) sono in prima linea in questa trasformazione. Tre nomi spiccano in questo panorama in rapida evoluzione: ChatGPT di OpenAI, Gemini AI di Google e Claude AI di Anthropic. In questo articolo, esploreremo le caratteristiche, le similitudini, le differenze, i pro e i contro di questi tre potenti strumenti, per aiutarti a capire quale potrebbe essere il più adatto alle tue esigenze. ChatGPT: Il Pioniere Conversazionale Sviluppato da OpenAI, ChatGPT è stato uno dei primi LLM a guadagnare popolarità grazie alla sua capacità di generare testo simile a quello umano in risposta a una vasta gamma di richieste. È stato addestrato su un enorme corpus di dati testuali, il che gli consente di comprendere il contesto e generare risposte pertinenti e coerenti. Pro: Versatilità: ChatGPT può essere utilizzato per una varietà di compiti, dalla scrittura creativa alla traduzione, dalla generazione di codice alla risposta a domande. Facilità d’uso: L’interfaccia intuitiva rende ChatGPT accessibile anche a chi non ha competenze tecniche. Personalizzazione: Può essere personalizzato per adattarsi a casi d’uso specifici. Contro: Accuratezza: A volte può generare informazioni imprecise o fuorvianti. Bias: Può riflettere i pregiudizi presenti nei dati di addestramento. Limitazioni nella comprensione del contesto: Potrebbe avere difficoltà a comprendere richieste complesse o ambigue. Gemini AI: Il Multitasking di Google Gemini AI è la risposta di Google a ChatGPT. Ancora in fase di sviluppo, Gemini promette di essere un modello ancora più potente e versatile, in grado di gestire non solo testo, ma anche immagini e altri tipi di dati. Pro (previsti): Multimodalità: Capacità di comprendere e generare testo, immagini e altri tipi di dati. Potenza: Si prevede che Gemini sarà più potente di ChatGPT, grazie all’enorme quantità di dati a disposizione di Google. Integrazione con i servizi Google: Probabilmente sarà integrato con altri prodotti Google, come la Ricerca e Gmail. Contro (previsti): Disponibilità limitata: Ancora in fase di sviluppo, non è ancora disponibile al pubblico. Costo: Potrebbe essere un prodotto premium, con un costo elevato, al momento sono disponibili versioni di test o integrate negli abbonamenti ai servizi Google one. Preoccupazioni sulla privacy: Google ha una storia controversa in materia di privacy, il che potrebbe sollevare preoccupazioni sull’utilizzo dei dati degli utenti. Claude AI: L’Alternativa Etica Sviluppato da Anthropic, una startup fondata da ex dipendenti di OpenAI, Claude AI si pone come un’alternativa più etica e responsabile a ChatGPT. L’obiettivo è creare un’IA che sia sicura, trasparente e allineata con i valori umani. Pro: Sicurezza: Anthropic si impegna a sviluppare un’IA sicura, che non possa essere utilizzata per scopi dannosi. Trasparenza: L’azienda è trasparente sul processo di sviluppo di Claude AI e sui dati utilizzati per l’addestramento. Allineamento con i valori umani: Claude AI è progettato per essere allineato con i valori umani, come la verità, la giustizia e il benessere. Contro: Disponibilità limitata: Ancora in fase di sviluppo, non è ancora completamente disponibile al pubblico nelle sue versioni avanzata. Potenza: Al momento meno potente di ChatGPT o Gemini AI. Costo: Ha un costo simile a ChatGPT ma ancora le prestazioni dei modelli non sono alla pari. Conclusioni ChatGPT, Gemini AI e Claude AI rappresentano il futuro dell’intelligenza artificiale conversazionale. Ognuno di questi strumenti ha i suoi punti di forza e di debolezza, e la scelta del migliore dipenderà dalle tue esigenze specifiche. Se cerchi un modello versatile e facile da usare, ChatGPT potrebbe essere la scelta giusta. Se hai bisogno di un modello più potente e in grado di gestire diversi tipi di dati, Gemini AI potrebbe essere la soluzione ideale. Se invece la sicurezza, la trasparenza e l’etica sono le tue priorità, Claude AI potrebbe essere l’opzione più adatta. In ogni caso, l’intelligenza artificiale è qui per restare, e questi tre strumenti sono solo l’inizio di una nuova era di innovazione tecnologica.