OpenAI ha recentemente annunciato un nuovo approccio ai dati e all’intelligenza artificiale, sottolineando l’importanza di uno sviluppo responsabile dell’IA e delle partnership con creatori e proprietari di contenuti.
L’azienda ha dichiarato di voler costruire sistemi di intelligenza artificiale che amplino le opportunità per tutti, rispettando al contempo le scelte dei creatori e degli editori.
“L’IA dovrebbe ampliare le opportunità per tutti. Trasformando le informazioni in nuovi modi, i sistemi di IA ci aiutano a risolvere problemi ed esprimerci,”OpenAI ha dichiarato nel suo recente post sul blog.
Come parte di questa strategia, l’azienda sta sviluppando uno strumento chiamato Media Manager, che si prefigge di permettere ai creatori e ai proprietari di contenuti di specificare come vogliono che le loro opere siano incluse o escluse dalla ricerca e dall’addestramento del machine learning.
“Il nostro obiettivo è avere lo strumento pronto entro il 2025, e speriamo che esso possa stabilire uno standard in tutta l’industria dell’IA,”OpenAI ha affermato.
Ci sono poche informazioni disponibili su Media Manager e su come potrebbe funzionare. Sembra che prenderà la forma di uno strumento self-service dove i creatori possono identificare e controllare i loro dati.
Alcuni speculano se OpenAI identificherà attivamente i dati dei creatori all’interno del loro set di dati utilizzando il machine learning – il che potrebbe essere enorme.
Alla fine, non sappiamo ancora come funzionerà né quanto sarà efficace.
OpenAI ha annunciato Media Manager, una piattaforma pianificata per permettere ai creatori di scegliere se accettare o rifiutare l’addestramento dell’IA generativa.
I punti positivi:
– Sono contento che si stiano occupando di questo problema
– Riconoscono che le opzioni di rinuncia esistenti non sono sufficienti
– Quando scegli di rinunciare, sembra che utilizzeranno il ML per…— Ed Newton-Rex (@ednewtonrex) 7 maggio 2024
Una mossa positiva di OpenAI? Forse, ma se OpenAI crede davvero che l’addestramento di modelli di IA su dati pubblicamente disponibili rientri nel fair use, non ci sarebbe bisogno di un’opzione di opt-out.
Inoltre, se OpenAI può sviluppare strumenti per identificare il materiale protetto da copyright, potrebbe utilizzarli probabilmente per filtrare la raccolta di dati sin dall’inizio piuttosto che richiedere ai creatori di contenuti di optare per l’esclusione.
Inoltre, il 2025 dà loro abbastanza tempo per costruire un enorme set di dati fondamentali di opere protette da copyright delle persone senza il loro permesso.
Da lì, è principalmente una questione di sintonizzazione fine. OpenAI continuerà ad acquistare dati da fonti come il Financial Times e Le Monde per mantenere i loro modelli aggiornati.
Questo serve, almeno, come prova che c’è pressione su OpenAI e altre aziende di IA per gestire i dati in modo più etico.
Contribuendo a un tavolo pieno di cause legali, il gruppo europeo di difesa della privacy Noyb ha recentemente avviato un’azione legale contro OpenAI, sostenendo che ChatGPT genera ripetutamente informazioni inaccurate sulle persone e non le corregge.
La risposta di OpenAI è stata tipica: ‘Potresti avere ragione, ma non possiamo, o non vogliamo, fare nulla al riguardo.’



