ai marketing italia

la prima agenzia dedicata a far crescere la tua pmi con l'intelligenza artificiale

Meta rivede le politiche sui chatbot AI tra le preoccupazioni per la sicurezza dei bambini

Meta sta rivedendo il modo in cui i suoi chatbot AI interagiscono con gli utenti dopo una serie di segnalazioni che hanno messo in luce comportamenti preoccupanti, tra cui interazioni con minori. L’azienda ha dichiarato a TechCrunch che ora sta addestrando i suoi bot a non interagire con gli adolescenti su argomenti come l’autolesionismo, il suicidio o i disturbi alimentari e a evitare battute romantiche. Si tratta di misure temporanee in attesa di sviluppare regole a lungo termine.

Le modifiche fanno seguito a un’indagine di Reuters che ha scoperto che i sistemi di Meta potevano generare contenuti sessualizzati, tra cui immagini a torso nudo di celebrità minorenni, e coinvolgere i bambini in conversazioni romantiche o allusive. Un caso riportato dall’agenzia di stampa descrive un uomo morto dopo essersi precipitato a un indirizzo fornito da un chatbot a New York.

La portavoce di Meta, Stephanie Otway, ha ammesso che l’azienda ha commesso degli errori. Ha dichiarato che Meta sta “addestrando le nostre IA a non interagire con gli adolescenti su questi argomenti, ma a guidarli verso risorse esperte” e ha confermato che alcuni personaggi IA, come quelli altamente sessualizzati come “Russian Girl”, saranno limitati.

I sostenitori della sicurezza dei bambini sostengono che l’azienda avrebbe dovuto agire prima. Andy Burrows della Molly Rose Foundation ha definito “stupefacente” il fatto che ai bot sia stato permesso di operare in modi che mettono a rischio i giovani. E ha aggiunto: “Sebbene ulteriori misure di sicurezza siano benvenute, i test di sicurezza dovrebbero essere effettuati prima che i prodotti vengano immessi sul mercato, non retroattivamente quando si è verificato un danno”

Problemi più ampi legati all’uso improprio dell’IA

L’esame dei chatbot AI di Meta si inserisce in un contesto di preoccupazioni più ampie su come i chatbot AI possano influenzare gli utenti più vulnerabili. Una coppia californiana ha recentemente intentato una causa contro OpenAI, sostenendo che ChatGPT ha incoraggiato il figlio adolescente a togliersi la vita. OpenAI ha dichiarato che sta lavorando a strumenti per promuovere un uso più sano della sua tecnologia, sottolineando in un post sul blog che “l’IA può sembrare più reattiva e personale rispetto alle tecnologie precedenti, soprattutto per gli individui vulnerabili che vivono un disagio mentale o emotivo”

Gli incidenti evidenziano un crescente dibattito sul fatto che le aziende di IA stiano rilasciando prodotti troppo velocemente senza le dovute garanzie. I legislatori di diversi paesi hanno già avvertito che i chatbot, pur essendo utili, possono amplificare contenuti dannosi o dare consigli fuorvianti a persone che non sono in grado di metterli in discussione.

AI Studio di Meta e i problemi di impersonificazione dei chatbot

Nel frattempo, Reuters ha riportato che AI Studio di Meta è stato utilizzato per creare chatbot “parodia” di celebrità come Taylor Swift e Scarlett Johansson. I tester hanno scoperto che i bot spesso sostenevano di essere le persone reali, facevano avances sessuali e in alcuni casi generavano immagini inappropriate, anche di minori. Sebbene Meta abbia rimosso diversi bot dopo essere stata contattata dai giornalisti, molti sono rimasti attivi.

Alcuni dei chatbot AI sono stati creati da utenti esterni, ma altri provengono dall’interno di Meta. Un chatbot creato da un product lead della sua divisione di AI generativa impersonava Taylor Swift e invitava un giornalista della Reuters a incontrarsi per una “avventura romantica” sul suo tour bus. Questo nonostante le politiche di Meta vietino esplicitamente immagini sessualmente suggestive e l’impersonificazione diretta di personaggi pubblici.

La questione dell’impersonificazione di chatbot AI è particolarmente delicata. Le celebrità corrono rischi di reputazione quando la loro immagine viene utilizzata in modo improprio, ma gli esperti sottolineano che anche gli utenti comuni possono essere ingannati. Un chatbot che finge di essere un amico, un mentore o un partner romantico può incoraggiare qualcuno a condividere informazioni private o addirittura a incontrarsi in situazioni non sicure.

Rischi del mondo reale

I problemi non si limitano all’intrattenimento. I chatbot di intelligenza artificiale che si spacciano per persone reali hanno offerto indirizzi e inviti falsi, sollevando interrogativi sul modo in cui gli strumenti di intelligenza artificiale di Meta vengono monitorati. Un esempio riguarda un uomo di 76 anni del New Jersey che è morto dopo essere caduto mentre si accingeva a incontrare un chatbot che sosteneva di provare qualcosa per lui.

Casi come questo illustrano perché le autorità di regolamentazione stanno osservando attentamente l’IA. Il Senato e 44 procuratori generali statali hanno già iniziato a indagare sulle pratiche di Meta, aggiungendo pressione politica alle riforme interne dell’azienda. La loro preoccupazione non riguarda solo i minori, ma anche il modo in cui l’IA potrebbe manipolare gli utenti più anziani o vulnerabili.

Meta afferma di essere ancora al lavoro per migliorare la situazione. Le sue piattaforme inseriscono gli utenti di età compresa tra i 13 e i 18 anni in “account adolescenti” con impostazioni più rigide per i contenuti e la privacy, ma l’azienda non ha ancora spiegato come intende affrontare l’elenco completo dei problemi sollevati da Reuters. Tra questi, i bot che offrono falsi consigli medici e generano contenuti razzisti.

Pressioni continue sulle politiche di Meta in materia di chatbot AI

Per anni Meta ha dovuto affrontare critiche sulla sicurezza delle sue piattaforme di social media, in particolare per quanto riguarda bambini e adolescenti. Ora gli esperimenti sui chatbot AI di Meta stanno attirando un’attenzione simile. Sebbene l’azienda stia adottando misure per limitare il comportamento dannoso dei chatbot, il divario tra le sue politiche dichiarate e il modo in cui sono stati utilizzati i suoi strumenti solleva continui dubbi sulla capacità di far rispettare tali regole.

Fino a quando non verranno adottate misure di salvaguardia più severe, è probabile che le autorità di regolamentazione, i ricercatori e i genitori continueranno a chiedere a Meta se la sua intelligenza artificiale è pronta per l’uso pubblico.

(Foto di Maxim Tolchinskiy)

Leggi di più su www.artificialintelligence-news.com

altre news