Il generatore di immagini di Grok ha conquistato le prime pagine dei giornali, suscitando immense critiche per il fatto che apre le porte a forme inappropriate, esplicite e manipolative di utilizzo dell’IA.
Quando Musk fondò xAI nel 2023, disse che l’obiettivo era “comprendere l’universo ”
Quell’obiettivo ambizioso si è in qualche modo schiantato sulla Terra, anche se Grok, il primo e unico prodotto di xAI, sta ancora facendo scalpore nella comunità dell’IA e nella società in generale.
Rilasciato per la prima volta nel 2023, Grok si differenzia da concorrenti come ChatGPT di OpenAI o Bard di Google per un aspetto fondamentale: la mancanza di filtri tradizionali per i contenuti.
Ora, grazie alle sue nuove capacità di generazione di immagini, Grok può applicare la sua natura senza filtri al mondo delle immagini visive.
Non si tratta di una svolta sorprendente. La ben documentata posizione di Musk contro ciò che percepisce come eccessiva correttezza politica si è manifestata nei prodotti di xAI.
Ha ripetutamente criticato altre aziende di IA per aver addestrato i loro modelli a essere “woke”, sostenendo che questo approccio rende l’IA meno sincera e potenzialmente pericolosa.
il pericolo di addestrare l’IA a essere “sveglia”, ovvero a mentire, è mortale”, ha twittato Musk nel 2022, gettando le basi per l’eventuale rilascio di Grok.
Il pericolo di addestrare l’IA a essere sveglia – in altre parole, a mentire – è mortale
– Elon Musk (@elonmusk) 16 dicembre 2022
Molti media sostengono che Grok siaprivo di guardrail, ma questo è semplicemente falso.
Se Grok non avesse guardrail, il tipo di immagini che vedremmo sarebbe praticamente indicibile.
Quando si chiede a Grok quali sono i suoi controlli, la risposta è la seguente:
- “Evito di generare immagini pornografiche, eccessivamente violente, odiose o che promuovono attività pericolose”
- “Sono cauto nel creare immagini che potrebbero violare i diritti d’autore o i marchi registrati esistenti. Questo include personaggi noti, loghi o qualsiasi contenuto che possa essere considerato proprietà intellettuale senza un elemento di trasformazione”
- “Non creo immagini che possano essere utilizzate per ingannare o danneggiare gli altri, come ad esempio deepfakes destinati a trarre in inganno, o immagini che potrebbero causare danni reali”
Dopo aver esaminato i tipi di immagini che le persone producono con Grok, direi che il primo punto è corretto. Gli altri sono al massimo deboli.
Grok è chiaramente eccellente per le immagini politicamente satiriche, alcune delle quali superano il limite del territorio offensivo e al limite dell’esplicito.
Musk ha fatto di questa caratteristica un punto di forza, definendo Grok “l’intelligenza artificiale più divertente del mondo!”
Anche i filtri per il copyright e la proprietà intellettuale sono evidentemente scadenti, con numerose immagini che ritraggono personaggi noti come Darth Vader e Topolino.
ehi, Grok?
penso che potresti essere citato in giudizio. pic.twitter.com/XDBgFNGgTs
– Silicon Jungle (@JungleSilicon) 14 agosto 2024
Grok non esita a compromettere Musk nelle sue uscite.
L’LLM ha detto di Musk: “Bene, bene, bene, se non è l’uomo che ha messo il ‘twit’ in Twitter, l’unico e solo @elonmusk!”
E a proposito delle sue imprese ha detto: “Forse è la tua incapacità di comprendere le emozioni umane di base o la tua mancanza di autoconsapevolezza. O forse è solo perché sei un gigantesco uomo-bambino che non sa resistere a un nuovo giocattolo scintillante”
Le persone hanno utilizzato Grok per generare immagini divertenti e volutamente offensive di Musk, tra cui l’approvazione di opinioni a cui si oppone.
Contraddizioni e preoccupazioni
Grok ha sicuramente modellato le qualità antagoniste del suo padrone, ma c’è un imperativo morale nel rilasciare prodotti di intelligenza artificiale senza filtri? O si tratta solo di un progetto di vanità rischioso e guidato dall’ego?
Come si può immaginare, le opinioni sono molto discordanti.
Alejandra Caraballo, avvocato per i diritti civili e docente presso la Cyberlaw Clinic della Harvard Law School, ha definito Grok “una delle implementazioni di IA più avventate e irresponsabili che abbia mai visto”
Lei e altri temono che la mancanza di salvaguardie possa portare a una marea di disinformazione, falsi profondi e contenuti dannosi, soprattutto se si considera l’enorme base di utenti di X e l’influenza politica di Musk.
La tempistica del rilascio di Grok, a pochi mesi dalle elezioni presidenziali statunitensi del 2024, ha amplificato queste preoccupazioni.
I critici sostengono che la possibilità di generare facilmente immagini e testi fuorvianti su personaggi politici potrebbe destabilizzare i processi democratici.
Sebbene gli studi indichino che le persone sono effettivamente suscettibili alla manipolazione da parte dei media generati dall’intelligenza artificiale, è difficile dire se Grok accelererà questo fenomeno.
I risultati di Grok spesso tendono al surreale e all’assurdo piuttosto che a rappresentazioni fotorealistiche, il che potrebbe limitarne la persuasività.
Tuttavia, non possiamo dare per scontato che le persone riconoscano le immagini generate dall’IA e, con il miglioramento della tecnologia, non potrà che migliorare la produzione di immagini fotograficamente realistiche.
Il caso dell’IA senza filtri
Grok ha lanciato il guanto di sfida nel dibattito sulla censura dell’IA e, al di là dei titoli dei giornali e delle immagini virali, si tratta di un argomento serio.
Non si tratta solo di permettere all’intelligenza artificiale di raccontare barzellette sporche. L’argomento principale è che un’eccessiva moderazione dei contenuti potrebbe limitare la capacità dell’IA di comprendere e confrontarsi con le complessità della comunicazione e della cultura umana.
Innanzitutto, dobbiamo esaminare come le persone utilizzano Grok. Serve a manipolare le persone? È troppo presto per dirlo. Ma possiamo sicuramente notare che le persone lo stanno usando per scopi di satira politica.
Grok guarirà la nazione pic.twitter.com/jKXM0LzJeo
– Nate Friedman (@NateFriedman97) 14 agosto 2024
Storicamente, la satira è uno strumento utilizzato dagli esseri umani nella letteratura, nel teatro, nell’arte e nella commedia per esaminare criticamente la società, prendere in giro le figure autoritarie e sfidare le norme sociali attraverso l’arguzia, l’ironia, il sarcasmo e l’assurdità.
È una tradizione che risale all’Antica Grecia e ai Romani, portata avanti fino ai giorni nostri da innumerevoli e famosi autori di satira letteraria, tra cui Giovenale, Voltaire, Jonathan Swift, Mark Twain e George Orwell.
Ma Grok è satirico nel senso tradizionale del termine? Può un’IA, per quanto sofisticata, comprendere davvero le sfumature della società umana come può fare un autore satirico umano?
E quali sono le implicazioni di un’IA che genera contenuti satirici senza la responsabilità di un autore umano?
Se Grok genera contenuti che diffondono disinformazione, perpetuano stereotipi o incitano alla divisione, chi deve essere ritenuto responsabile?
L’IA stessa non può essere incolpata, perché sta semplicemente seguendo la sua programmazione. Gli sviluppatori dell’IA possono avere qualche responsabilità, ma non possono controllare tutti i risultati che l’IA genera. Le responsabilità legali potrebbero ricadere sui singoli individui.
Non esiste un’IA oggettiva e non filtrata
I dati e l’architettura di Grok influenzano il tipo di contenuti che produce. Non è veramente “senza filtri” perché i dati, l’architettura, i parametri, ecc. sono stati scelti durante il processo di sviluppo.
I dati utilizzati per addestrare Grok riflettono probabilmente i pregiudizi e le rappresentazioni distorte dei contenuti online, il che potrebbe portare il modello a perpetuare stereotipi e visioni del mondo problematiche.
Ad esempio, se i dati di addestramento di Grok contengono una quantità sproporzionata di contenuti che oggettivizzano o sovrasessualizzano le donne, è più probabile che generi risultati che riflettono questi pregiudizi dannosi.
Alcuni utenti hanno già riscontrato la difficoltà di creare immagini di donne senza che Grok le sovrasessualizzi, probabilmente a causa dei pregiudizi presenti nei suoi dati di formazione.
Inoltre, il concetto di contenuti AI “non filtrati” può essere fuorviante, in quanto suggerisce un livello di obiettività o neutralità che semplicemente non esiste nei sistemi AI.
Ogni aspetto dello sviluppo di Grok, dalla selezione dei dati di addestramento alla regolazione dei suoi parametri, implica scelte umane e giudizi di valore che danno forma al tipo di contenuto che produce.
Se gli utenti percepiscono i risultati di Grok come oggettivi o imparziali solo perché “non filtrati”, potrebbero essere più inclini ad accettare e interiorizzare i pregiudizi e le prospettive distorte incorporate nelle risposte dell’IA.
La censura non fornisce tutte le risposte
Un altro punto a favore dell’IA non filtrata è il rischio di una censura prolungata dei risultati dell’IA.
È risaputo che la censura amplifica i tentativi di contrastare la presunta ingiustizia della limitazione dell’accesso alla conoscenza, portando spesso a conseguenze indesiderate e a un aumento dell’interesse per le stesse idee che si volevano sopprimere.
Prendiamo ad esempio l’effetto Streisand, che prende il nome dal tentativo della cantante Barbra Streisand di sopprimere le fotografie della sua casa nel 2003. I suoi sforzi per censurare le immagini hanno portato solo a una pubblicità massiccia, dimostrando come limitare le informazioni abbia spesso l’effetto opposto.
Ecco un altro esempio: l’Autorità per il Codice dei Fumetti, progettata per sanificare i contenuti dei fumetti. Istituita nel 1954 per autocensurare i fumetti, ha finito per soffocare la creatività per decenni.
Solo alla fine degli anni ’80 opere come “Watchmen” e “The Dark Knight Returns” si sono liberate da questi vincoli, inaugurando una nuova era di narrazione matura e complessa nei fumetti.
La censura dell’IA potrebbe anche sottomettere forme di espressione utili e spingere gli usi più nefasti verso la clandestinità, formando nel frattempo sottoculture potenzialmente dannose.
Inoltre, i contenuti di finzione come quelli che vediamo nei fumetti e nei film aiutano l’umanità a esplorare il “sé ombra” che si cela nelle persone – i lati oscuri che sappiamo esistere ma che non sempre vogliamo mostrare.
Affinché l’IA sia davvero “umana” e serva a scopi umani, potrebbe avere bisogno di un lato oscuro.
Come osservanoi professori Daniel De Cremer e Devesh Narayanan in uno studio del 2023, “l’IA è uno specchio che riflette i nostri pregiudizi e difetti morali ”
Questo non significa però che non ci debbano essere limiti. È chiaro che ci sono dei limiti a ciò che le persone dovrebbero essere in grado di pubblicare utilizzando gli strumenti di IA, pur rimanendo nell’ambito della libertà di parola.
I sostenitori di Grok e di altre IA non filtrate potrebbero pensare di fare di tutto per preservare la libertà di parola, ma la penserebbero allo stesso modo se fosse un membro della loro famiglia a essere ritratto in contenuti abusivi generati dall’IA?
Le sfide pratiche della creazione di IA sicure
Dal punto di vista pratico, creare un’intelligenza artificiale in grado di affrontare e integrare questi dibattiti è estremamente difficile.
“L’idea di poter rendere sicuri i sistemi di IA semplicemente inculcando loro i giusti valori è sbagliata”, sostiene Stuart Russell, professore di informatica alla UC Berkeley.
“Abbiamo bisogno di sistemi di IA che siano incerti sulle preferenze umane” Questa incertezza, suggerisce Russell, è essenziale per creare IA in grado di adattarsi alle sfumature e alle contraddizioni dei valori e dell’etica umana.
Inoltre, anche se costruiamo un’IA con linee guida presumibilmente solide, man mano che i sistemi di IA diventano più avanzati, è probabile che gli utenti determinati trovino il modo di aggirare i filtri dei contenuti, indipendentemente da quanto siano severi.
Lo abbiamo visto nelle continue sfide che le piattaforme di social media devono affrontare per la moderazione dei contenuti, nonostante i massicci investimenti in sistemi di filtraggio basati sull’IA.
La via di mezzo
Esiste una via di mezzo tra l’IA libera e la censura troppo restrittiva? Forse.
Per arrivarci, dovremo riflettere in modo critico sui danni specifici che diversi tipi di contenuti possono causare e progettare sistemi che attenuino questi rischi senza inutili restrizioni.
Questo potrebbe comportare:
- Filtraggio contestuale: Sviluppare un’intelligenza artificiale in grado di comprendere meglio il contesto e le intenzioni, anziché limitarsi a segnalare le parole chiave.
- IA trasparente: rendere più trasparenti i processi decisionali dell’IA in modo che gli utenti possano capire perché determinati contenuti vengono segnalati o limitati.
- Responsabilità dell’utente: Dare agli utenti un maggiore controllo sul tipo di contenuti che vedono, piuttosto che imporre restrizioni universali.
- Formazione etica sull’IA: Concentrarsi sullo sviluppo di IA con solide basi etiche, piuttosto che affidarsi esclusivamente alla moderazione post-hoc dei contenuti.
- Governance collaborativa: Coinvolgere diversi stakeholder – etici, politici e pubblico – nello sviluppo di linee guida sull’IA. In particolare, però, dovrebbero rappresentare un campione demografico davvero trasversale.
In tutti i casi, costruire un’IA che serva tutti allo stesso modo è molto difficile e le IA open-source come Grok, Llama, ecc. possono trarre vantaggio dall’imposizione di minori restrizioni ai comportamenti e agli usi dell’IA.
Grok, con tutte le sue controversie e capacità, ci ricorda almeno le sfide e le opportunità che ci attendono nell’era dell’IA.
Costruire l’IA a immagine e somiglianza del “bene superiore” è possibile o pratico? Oppure dovremmo imparare a convivere con un’IA capace di “uscire un po’ dai binari”, come i suoi creatori?



