Il mondo sta correndo verso la diffusione dell’IA, ma una voce di spicco dell’etica tecnologica avverte che dare la priorità alla velocità rispetto alla sicurezza rischia di provocare una “crisi di fiducia”
Suvianna Grecu, fondatrice della AI for Change Foundation, sostiene che senza una governance forte e immediata, ci stiamo avviando verso “l’automazione del danno su scala”
Parlando dell’integrazione dell’IA nei settori critici, Grecu ritiene che il pericolo etico più pressante non sia la tecnologia in sé, ma la mancanza di struttura che ne circonda l’implementazione.
I potenti sistemi stanno prendendo sempre più spesso decisioni che cambiano la vita, dalle domande di lavoro ai punteggi di credito, dall’assistenza sanitaria alla giustizia penale, spesso senza che vengano effettuati sufficienti test per verificare la presenza di pregiudizi o che venga preso in considerazione l’impatto a lungo termine sulla società.
Per molte organizzazioni, l’etica dell’IA rimane un documento di principi elevati piuttosto che una realtà operativa quotidiana. Grecu insiste sul fatto che l’autentica responsabilità inizia solo quando qualcuno viene reso veramente responsabile dei risultati. Il divario tra le intenzioni e l’attuazione è il vero rischio.
La fondazione di Grecu sostiene il passaggio da idee astratte ad azioni concrete. Ciò comporta l’inserimento di considerazioni etiche direttamente nei flussi di lavoro dello sviluppo attraverso strumenti pratici come le checklist di progettazione, le valutazioni obbligatorie dei rischi prima dell’implementazione e i comitati di revisione interfunzionali che riuniscono i team legali, tecnici e politici.
Secondo Grecu, la chiave è stabilire una chiara responsabilità in ogni fase, creando processi trasparenti e ripetibili proprio come si farebbe per qualsiasi altra funzione aziendale principale. Questo approccio pratico cerca di far progredire l’IA etica, trasformandola da un dibattito filosofico in una serie di compiti quotidiani gestibili.
Collaborare per creare fiducia nell’IA e mitigare i rischi
Per quanto riguarda l’applicazione, Grecu è chiaro che la responsabilità non può ricadere solo sul governo o sull’industria. “Non si tratta di uno o dell’altro, ma di entrambi”, afferma Grecu, sostenendo la necessità di un modello collaborativo.
In questa collaborazione, i governi devono stabilire i confini legali e gli standard minimi, soprattutto quando sono in gioco i diritti umani fondamentali. La regolamentazione fornisce la base essenziale. Tuttavia, l’industria possiede l’agilità e il talento tecnico per innovare al di là della semplice conformità.
Le aziende sono nella posizione migliore per creare strumenti di controllo avanzati, sperimentare nuove salvaguardie e spingersi oltre i limiti che la tecnologia responsabile può raggiungere.
Lasciare la governance interamente alle autorità di regolamentazione rischia di soffocare proprio l’innovazione di cui abbiamo bisogno, mentre lasciarla alle sole aziende invita all’abuso. “La collaborazione è l’unica strada sostenibile”, afferma Grecu.
Promuovere un futuro orientato al valore
Guardando oltre le sfide immediate, Grecu si preoccupa di rischi più sottili e a lungo termine che non ricevono sufficiente attenzione: la manipolazione emotiva e l’urgente necessità di una tecnologia orientata al valore.
Man mano che i sistemi di intelligenza artificiale diventano più abili nel persuadere e influenzare le emozioni umane, Grecu avverte che non siamo preparati alle implicazioni che ciò comporta per l’autonomia personale.
Un principio fondamentale del suo lavoro è l’idea che la tecnologia non sia neutrale. “L’intelligenza artificiale non sarà guidata dai valori, a meno che non li inseriamo intenzionalmente”, avverte l’autrice. È un’idea comunemente errata che l’IA rifletta semplicemente il mondo così com’è. In realtà, riflette i dati che le forniamo, gli obiettivi che le assegniamo e i risultati che premiamo.
Senza un intervento deliberato, l’IA si ottimizzerà invariabilmente in base a parametri come l’efficienza, la scala e il profitto, non in base a ideali astratti come la giustizia, la dignità o la democrazia, e questo avrà naturalmente un impatto sulla fiducia della società. Per questo motivo è necessario uno sforzo consapevole e proattivo per decidere quali valori vogliamo che la nostra tecnologia promuova.
Per l’Europa, questo rappresenta un’opportunità cruciale. “Se vogliamo che l’IA sia al servizio degli esseri umani (e non solo dei mercati), dobbiamo proteggere e incorporare valori europei come i diritti umani, la trasparenza, la sostenibilità, l’inclusione e l’equità a tutti i livelli: politica, progettazione e implementazione”, spiega Grecu.
Non si tratta di fermare il progresso. Come conclude la Grecu, si tratta di prendere il controllo della narrazione e di “plasmarla attivamente prima che sia lei a plasmare noi”
Attraverso il lavoro della sua fondazione – tra cui workshop pubblici e durante l’imminente AI & Big Data Expo Europe, dove Grecu presiede il secondo giorno dell’evento – sta costruendo una coalizione per guidare l’evoluzione dell’IA e aumentare la fiducia mantenendo l’umanità al centro.
(Foto di Cash Macanaya)