L’intelligenza dimostrata dai chatbot di intelligenza artificiale generativa come ChatGPT di OpenAI ha catturato l’immaginazione di privati e aziende e l’intelligenza artificiale è diventata improvvisamente l’area più interessante dell’innovazione tecnologica.
L’Intelligenza Artificiale è stata riconosciuta come un’innovazione rivoluzionaria, in grado di trasformare molti aspetti della nostra vita. Dalla medicina personalizzata ai veicoli autonomi, dagli investimenti automatizzati agli asset digitali, le possibilità offerte dall’IA sembrano infinite.
Tuttavia, per quanto l’IA sia destinata a trasformarsi, questa nuova tecnologia presenta molti rischi. Se i timori di un sistema di intelligenza artificiale maligno, in stile Skynet, sono fuori luogo, non lo sono invece i pericoli della centralizzazione dell’IA. Mentre aziende come Microsoft, Google e Nvidia avanzano nella ricerca dell’IA, i timori per la concentrazione del potere nelle mani di pochi attori centralizzati si fanno sempre più forti.
Perché dovremmo preoccuparci dell’IA decentralizzata?
Potere monopolistico
Il problema più urgente che deriva dall’IA centralizzata è la prospettiva che pochi giganti tecnologici raggiungano il controllo monopolistico del settore. I grandi colossi tecnologici hanno già accumulato una quota di mercato molto significativa nel settore dell’IA, che consente loro di disporre di enormi quantità di dati. Inoltre, controllano l’infrastruttura su cui funzionano i sistemi di IA, consentendo loro di soffocare i concorrenti, ostacolare l’innovazione e perpetuare la disuguaglianza economica.
Ottenendo il monopolio sullo sviluppo dell’IA, queste aziende hanno maggiori probabilità di avere un’influenza sleale sui quadri normativi, che possono manipolare a loro vantaggio. Ciò significa che le startup più piccole, che non dispongono delle enormi risorse dei grandi colossi tecnologici, faranno fatica a tenere il passo dell’innovazione. Quelle che sopravvivono e sembrano poter prosperare finiranno quasi certamente per essere acquisite, concentrando ulteriormente il potere nelle mani di pochi. Il risultato sarà una minore diversità in termini di sviluppo dell’IA, meno scelte per i consumatori e condizioni meno favorevoli, limitando i casi d’uso e le opportunità economiche promesse dall’IA.
Pregiudizi e discriminazioni
Oltre al controllo monopolistico, esistono timori reali riguardo alla parzialità dei sistemi di IA, timori che assumeranno sempre più importanza man mano che la società si affiderà all’IA.
Il rischio deriva dal fatto che le organizzazioni si affidano sempre più a sistemi automatizzati per prendere decisioni in molti settori. Ad esempio, non è insolito che un’azienda impieghi algoritmi di IA per filtrare i candidati a un posto di lavoro: il rischio è che un sistema distorto possa escludere ingiustamente un sottoinsieme di candidati in base alla loro etnia, età o posizione geografica. L’intelligenza artificiale viene utilizzata anche dalle compagnie assicurative per stabilire le tariffe delle polizze, dalle società di servizi finanziari per determinare se una persona ha i requisiti per ottenere un prestito e l’ammontare degli interessi che dovrà pagare e dalle forze dell’ordine per determinare quali sono le aree in cui è più probabile che si verifichi una maggiore criminalità. In tutti questi casi d’uso, le potenziali implicazioni di sistemi di intelligenza artificiale distorti sono estremamente preoccupanti.
Che si tratti di forze dell’ordine che prendono di mira le comunità minoritarie, di pratiche di prestito discriminatorie o altro, l’IA centralizzata può potenzialmente esacerbare le disuguaglianze sociali e consentire la discriminazione sistemica.
Privacy e sorveglianza
Un altro rischio rappresentato dai sistemi di IA centralizzati è la mancanza di protezione della privacy. Quando poche grandi aziende controllano la stragrande maggioranza dei dati generati dall’IA, acquisiscono la capacità di effettuare una sorveglianza senza precedenti sui propri utenti. I dati accumulati dalle piattaforme di IA più dominanti possono essere utilizzati per monitorare, analizzare e prevedere il comportamento di un individuo con incredibile precisione, erodendo la privacy e aumentando il potenziale di abuso delle informazioni.
Questo fenomeno è particolarmente preoccupante nei paesi con governi autoritari, dove i dati possono essere utilizzati per creare strumenti più sofisticati per il monitoraggio dei cittadini. Anche nelle società democratiche, però, l’aumento della sorveglianza rappresenta una minaccia, come dimostrano le rivelazioni di Edward Snowden sul programma Prism della National Security Agency statunitense.
Anche le aziende possono potenzialmente abusare dei dati dei consumatori per aumentare i loro profitti. Inoltre, quando le entità centralizzate accumulano grandi quantità di dati sensibili, diventano bersagli più lucrosi per gli hacker, aumentando il rischio di fughe di dati.
Rischi per la sicurezza
Anche i problemi di sicurezza nazionale possono sorgere a causa dell’IA centralizzata. Ad esempio, ci sono timori fondati che i sistemi di IA possano essere armati dalle nazioni, utilizzati per condurre guerre informatiche, praticare lo spionaggio e sviluppare nuovi sistemi di armamento. L’IA potrebbe diventare uno strumento chiave nelle guerre future, alzando la posta in gioco nei conflitti geopolitici.
Anche gli stessi sistemi di IA possono essere presi di mira. Man mano che le nazioni aumentano la loro dipendenza dall’IA, questi sistemi saranno dei bersagli allettanti, in quanto rappresentano degli ovvi punti di rottura. Se si mette fuori uso un sistema di intelligenza artificiale, si può interrompere l’intero flusso di traffico delle città, mettere fuori uso le reti elettriche e molto altro ancora.
Etica
L’altra grande preoccupazione dell’IA centralizzata riguarda l’ etica. Infatti, le poche aziende che controllano i sistemi di IA potrebbero avere un’influenza sostanziale sulle norme e sui valori culturali di una società e spesso darebbero la priorità al profitto, creando ulteriori problemi etici.
Ad esempio, gli algoritmi di IA sono già ampiamente utilizzati dalle piattaforme di social media per moderare i contenuti, nel tentativo di identificare e filtrare i post offensivi. Il timore è che gli algoritmi, per caso o per progetto, possano finire per sopprimere la libertà di parola.
Ci sono già polemiche sull’efficacia dei sistemi di moderazione basati sull’intelligenza artificiale: numerosi post apparentemente innocui sono stati bloccati o eliminati dagli algoritmi automatici. Questo porta a speculare sul fatto che tali sistemi non siano rotti ma vengano manipolati dietro le quinte in base alla narrativa politica che la piattaforma sta cercando di promuovere.
L’alternativa? L’intelligenza artificiale decentralizzata
L’unico contrappeso logico all’IA centralizzata è lo sviluppo di sistemi di IA decentralizzati che garantiscano che il controllo della tecnologia rimanga nelle mani della maggioranza, anziché di pochi. In questo modo, possiamo garantire che nessuna singola azienda o entità acquisisca un’influenza significativa sulla direzione dello sviluppo dell’IA.
Quando lo sviluppo e la governance dell’IA saranno condivisi da migliaia o milioni di entità, il suo progresso sarà più equo, con un maggiore allineamento alle esigenze dei singoli. Il risultato sarà una maggiore varietà di applicazioni di IA, con una selezione quasi infinita di modelli utilizzati da diversi sistemi, invece di pochi modelli che dominano il settore.
I sistemi di IA decentralizzati comporteranno anche controlli ed equilibri contro il rischio di sorveglianza di massa e di manipolazione dei dati. Mentre l’IA centralizzata può essere armata e utilizzata in modo contrario agli interessi di molti, l’IA decentralizzata si oppone a questo tipo di oppressione.
Il vantaggio principale dell’IA decentralizzata è che tutti hanno il controllo sull’evoluzione della tecnologia, impedendo a una singola entità di avere un’influenza eccessiva sul suo sviluppo.
Come decentralizzare l’IA
L’IA decentralizzata implica un ripensamento dei livelli che compongono lo stack tecnologico dell’IA, compresi elementi come l’infrastruttura (risorse di calcolo e di rete), i dati, i modelli, i processi di formazione, inferenza e messa a punto.
Non possiamo riporre le nostre speranze in modelli open-source se l’infrastruttura sottostante rimane completamente centralizzata da giganti del cloud computing come Amazon, Microsoft e Google, ad esempio. Dobbiamo assicurarci che ogni aspetto dell’IA sia decentralizzato
Il modo migliore per decentralizzare lo stack dell’IA è quello di suddividerlo in componenti modulari e creare mercati intorno ad essi basati sulla domanda e sull’offerta. Un esempio di come questo possa funzionare è Spheron, che ha creato una rete di infrastrutture fisiche decentralizzate (DePIN) a cui chiunque può partecipare.
Con la DePIN di Spheron, tutti sono liberi di condividere le proprie risorse informatiche sottoutilizzate, affittandole essenzialmente a chi ha bisogno di infrastrutture per ospitare le proprie applicazioni di intelligenza artificiale. Così, un grafico che utilizza un potente computer portatile con una GPU può donare la potenza di elaborazione alla DePIN quando non la utilizza per il proprio lavoro e viene ricompensato con incentivi in gettoni.
Ciò significa che il livello dell’infrastruttura AI diventa ampiamente distribuito e decentralizzato, senza il controllo di un singolo fornitore. È abilitato dalla tecnologia blockchain e dai contratti intelligenti, che garantiscono trasparenza, immutabilità e automazione.
DePIN può funzionare anche con modelli e dati sottostanti open-source. Ad esempio, è possibile condividere i set di dati di formazione su una rete decentralizzata come Qubic, che si assicurerà che il fornitore dei dati venga ricompensato ogni volta che le sue informazioni vengono consultate da un sistema di intelligenza artificiale.
Per garantire che l’accesso e i permessi siano decentralizzati, ogni parte dello stack tecnologico è distribuita in questo modo. Tuttavia, l’industria dell’IA attualmente fatica a fornire un tale livello di decentralizzazione. Sebbene i modelli open-source siano diventati estremamente popolari tra gli sviluppatori di IA, la maggior parte delle persone continua ad affidarsi a reti cloud proprietarie, il che significa che i processi di formazione e inferenza sono fortemente centralizzati.
Ma ci sono forti incentivi affinché la decentralizzazione abbia la meglio. Uno dei principali vantaggi delle reti DePIN, ad esempio, è che aiutano a ridurre le spese generali. Poiché le reti come Spheron non si basano su intermediari, i partecipanti non devono effettuare pagamenti o condividere le entrate con terzi. Inoltre, possono permettersi di essere più competitivi in termini di prezzi rispetto alle aziende che sono sotto pressione per aumentare la redditività.
La decentralizzazione deve vincere
Il futuro dell’IA ha un grande potenziale, ma è anche pericoloso. Sebbene le capacità dei sistemi di IA siano migliorate notevolmente negli ultimi anni, la maggior parte dei progressi sono stati compiuti da aziende onnipotenti e ciò ha comportato un aumento della loro influenza sul settore. C’è un prezzo da pagare per questo, non solo in termini monetari.
L’unica alternativa ragionevole è promuovere una maggiore adozione dell’IA decentralizzata, che può migliorare l’accessibilità e garantire una maggiore flessibilità dell’IA. Consentendo a tutti di partecipare allo sviluppo dell’IA su un piano di parità, vedremo applicazioni più diverse, interessanti e utili, che potranno portare benefici a tutti in egual misura e che metteranno gli utenti al primo posto.
La costruzione di un futuro decentralizzato dell’IA comporterà una grande quantità di coordinamento e collaborazione in tutti i livelli dello stack dell’IA. Fortunatamente, i partecipanti sono fortemente incentivati a farlo. E ancora, gli incentivi non sono solo monetari.



