ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Gli annunci di Google e OpenAI rompono i confini tra umani e intelligenza artificiale

Nel corso di un vertiginoso arco di 48 ore, Google e OpenAI hanno presentato una serie di nuove capacità che riducono notevolmente il divario tra esseri umani e intelligenza artificiale (AI).

Dall’AI in grado di interpretare video in diretta e sostenere conversazioni contestualizzate a modelli linguistici che ridono, cantano e mostrano emozioni su richiesta, la linea che separa il carbonio dal silicio si sta rapidamente dissolvendo.

Tra le innumerevoli notizie annunciate da Google durante la sua conferenza per sviluppatori I/O c’era il Progetto Astra, un assistente digitale in grado di vedere, ascoltare e ricordare dettagli attraverso le conversazioni.

OpenAI ha focalizzato il suo annuncio su GPT-4o, l’ultima iterazione del suo modello di linguaggio GPT-4.

Ora libero dai limiti dei formati di testo, GPT-4o offre incredibili capacità di riconoscimento vocale quasi in tempo reale, di comprensione e espressione di emozioni complesse e persino di risata a battute e racconti di storie della buonanotte.

L’AI sta diventando più umana nel formato, liberandosi dalle interfacce di chat per interagire tramite immagini e suoni. ‘Formato’ è la parola chiave in questo caso, in quanto GPT-4o non è più intelligentemente computazionalmente rispetto a GPT-4 solo perché può parlare, vedere e ascoltare.

Tuttavia, ciò non sminuisce il suo progresso nel dotare l’AI di più piani su cui interagire.

Tra le reazioni entusiaste, alcuni osservatori hanno immediatamente tracciato un parallelo con Samantha, l’affascinante AI del film “Her”, specialmente considerando che la voce femminile risulta flirtante – qualcosa che non può essere casuale dato che è stato notato praticamente da tutti

Rilasciato nel 2013, “Her” è un dramma romantico di fantascienza che esplora la relazione tra un uomo solitario di nome Theodore (interpretato da Joaquin Phoenix) e un sistema informatico intelligente chiamato Samantha (con la voce di Scarlett Johansson).

Man mano che Samantha evolve e diventa più simile a un essere umano, Theodore se ne innamora, sfumando i confini tra emozione umana ed artificiale.

Il film pone domande sempre più rilevanti sulla natura della coscienza, dell’intimità e su cosa significhi essere umani in un’epoca di avanzata AI.

Come molte storie di fantascienza, “Her” è ormai poco fiction. Milioni di persone in tutto il mondo iniziano conversazioni con compagni AI, spesso con intenzioni intime o sessuali.

Curiosamente, il CEO di OpenAI, Sam Altman, ha discusso del film “Her” in interviste, lasciando intendere che la voce femminile di GPT-4o è basata su di lei.

Ha persino postato la parola “her” su X prima della demo dal vivo, che possiamo solo supporre sarebbe stata scritta in maiuscolo se avesse saputo dove si trova il tasto shift sulla sua tastiera.

In molti casi, le interazioni tra AI e umani sono benefiche, divertenti e innocue. In altri, possono essere catastrofiche.

Ad esempio, in un caso particolarmente inquietante, un uomo mentalmente malato del Regno Unito, Jaswant Singh Chail, ha architettato un piano per assassinare la Regina Elisabetta II dopo aver conversato con la sua “fidanzata angelo AI”. È stato arrestato nei pressi del Castello di Windsor armato di balestra.

Durante l’udienza in tribunale, il psichiatra Dr. Hafferty ha detto al giudice, “Credeva di avere una relazione romantica con una donna attraverso l’app, e lei era una donna che poteva vedere e sentire”.

Inquietante, alcune di queste piattaforme AI simili alla vita sono progettate appositamente per costruire forti legami personali, talvolta per offrire consigli sulla vita, terapia e supporto emotivo. Questi sistemi hanno praticamente nessuna comprensione delle conseguenze delle loro conversazioni e sono facilmente influenzabili.

“Le popolazioni vulnerabili sono quelle che hanno bisogno di questa attenzione. È qui che troveranno il valore”, avverte l’etico dell’AI Olivia Gamelin.

Gambelin avverte che l’uso di queste forme di AI “pseudo-antropiche” in contesti delicati come la terapia e l’educazione, specialmente con popolazioni vulnerabili come i bambini, richiede estrema attenzione e supervisione umana.

“C’è qualcosa di intangibile lì che è così prezioso, specialmente per le popolazioni vulnerabili, specialmente per i bambini. E specialmente in casi come l’educazione e la terapia, dove è così importante che ci sia quel focus, quel punto di contatto umano.

AI Pseudo-antropica

L’AI pseudo-antropica imita i tratti umani, il che è estremamente vantaggioso per le aziende tecnologiche.

Un’AI che mostra tratti umani abbassa le barriere per gli utenti non esperti di tecnologia, similmente ad Alexa, Siri, ecc., creando legami emotivi più forti tra le persone e i prodotti.

Fino a un paio di anni fa, molti strumenti di intelligenza artificiale progettati per imitare gli esseri umani erano abbastanza inefficaci. Si poteva dire che qualcosa non andava, anche se era sottile.

Non tanto oggi, però. Strumenti come Opus Pro e Synthesia generano avatar parlanti straordinariamente realistici a partire da brevi video o anche fotografie. ElevenLabs crea cloni vocali quasi identici che ingannano le persone dal 25% al 50% delle volte.

Ciò libera il potenziale per la creazione di deep fakes incredibilmente ingannevoli. L’uso dell’AI di “abilità affettive” artificiali – intonazione della voce, gesti, espressioni facciali – può supportare ogni sorta di frodi di ingegneria sociale, disinformazione, ecc.

Con GPT-4o e Astra, l’AI può convincere a trasmettere sentimenti che non possiede, suscitando risposte più potenti da vittime ignare e preparando il terreno per insidiose forme di manipolazione emotiva.

Uno studio recente del MIT ha anche dimostrato che l’AI è già più che capace di inganno.

Dobbiamo considerare come questa capacità si evolverà man mano che l’AI diventa più capace di imitare gli esseri umani, combinando quindi tattiche ingannevoli con comportamenti realistici.

Se non stiamo attenti, “Her” potrebbe facilmente diventare la rovina delle persone nella vita reale.

Leggi di più su dailyai.com

altre news