La sete di energia dell’AI sta diventando una sfida mostruosa. E non si tratta solo di bollette dell’elettricità. Le ripercussioni sull’ambiente sono gravi e si estendono al consumo di preziose risorse idriche, alla creazione di montagne di rifiuti elettronici e, sì, all’aumento delle emissioni di gas serra che tutti stiamo cercando di ridurre.
Man mano che i modelli di intelligenza artificiale diventano sempre più complessi e si inseriscono in un numero sempre maggiore di parti della nostra vita, si pone un enorme punto interrogativo: possiamo alimentare questa rivoluzione senza che ciò costi alla Terra?
I numeri non mentono: La domanda di energia dell’intelligenza artificiale sta aumentando rapidamente
La potenza di calcolo necessaria per l’IA più intelligente è in una curva ascendente quasi incredibile – alcuni dicono che raddoppia ogni pochi mesi. Non si tratta di una curva dolce, ma di un’ascesa verticale che minaccia di lasciare nella polvere anche i nostri piani energetici più ottimistici.
Per darti un’idea della scala, il futuro fabbisogno energetico dell’IA potrebbe presto assorbire una quantità di elettricità pari a quella di interi paesi come il Giappone o i Paesi Bassi, o persino di grandi stati americani come la California. Quando si sentono statistiche del genere, si inizia a capire quanto l’IA potrebbe mettere a dura prova le reti elettriche su cui tutti facciamo affidamento.
nel 2024 si è registrato un aumento record del 4,3% della domanda globale di elettricità e l’espansione dell’IA è stata una delle ragioni principali, insieme al boom delle auto elettriche e alle fabbriche che lavorano di più.
Tornando al 2022, i data center, l’IA e persino il mining di criptovalute rappresentavano già quasi il 2% di tutta l’elettricità utilizzata nel mondo, ovvero circa 460 terawattora (TWh).
Arrivando al 2024, i data center da soli consumano circa 415 TWh, pari a circa l’1,5% del totale globale, con una crescita del 12% all’anno. La quota diretta dell’intelligenza artificiale in questa fetta è ancora relativamente piccola – circa 20 TWh, ovvero lo 0,02% dell’utilizzo globale di energia – ma tenetevi forte, perché questo numero è destinato a salire vertiginosamente.
Le previsioni? Beh, sono piuttosto illuminanti. Entro la fine del 2025, i data center di intelligenza artificiale di tutto il mondo potrebbero richiedere 10 gigawatt (GW) di energia in più. Si tratta di una quantità superiore all’intera capacità energetica di una località come lo Utah.
Nel 2026, il consumo globale di elettricità dei data center potrebbe raggiungere i 1.000 TWh, una cifra simile a quella utilizzata attualmente dal Giappone. Inoltre, entro il 2027, la fame di energia globale dei data center di intelligenza artificiale dovrebbe raggiungere i 68 GW, ovvero quasi la capacità energetica totale della California nel 2022.
Verso la fine di questo decennio, le cifre diventano ancora più sbalorditive. Si prevede che il consumo globale di elettricità dei data center raddoppierà fino a raggiungere circa 945 TWh entro il 2030, ovvero poco meno del 3% di tutta l’elettricità utilizzata sul pianeta.
Secondo l’OPEC, il consumo di elettricità dei data center potrebbe addirittura triplicare fino a raggiungere i 1.500 TWh. E Goldman Sachs? Secondo loro, la domanda globale di energia da parte dei data center potrebbe aumentare fino al 165% rispetto al 2023, con i data center specificamente attrezzati per l’intelligenza artificiale che vedrebbero la loro domanda aumentare di oltre quattro volte.
Si ipotizza addirittura che i data center potrebbero essere responsabili fino al 21% di tutta la domanda globale di energia entro il 2030, se si conta l’energia necessaria per fornire i servizi di IA a noi utenti.
Quando parliamo di consumo energetico dell’IA, ci dividiamo principalmente in due grandi gruppi: l’addestramento dell’IA e il suo effettivo utilizzo.
L’addestramento di modelli enormi, come il GPT-4, richiede una quantità colossale di energia. Solo per addestrare GPT-3, ad esempio, si stima che siano stati utilizzati 1.287 megawattora (MWh) di elettricità, e si ritiene che GPT-4 abbia richiesto una quantità di energia 50 volte superiore.
Se l’addestramento è una fonte di energia, è il funzionamento quotidiano di questi modelli addestrati che può consumare oltre l’80% dell’energia totale dell’intelligenza artificiale. È stato riportato che porre una singola domanda a ChatGPT consuma circa dieci volte più energia di una ricerca su Google (stiamo parlando di circa 2,9 Wh contro 0,3 Wh).
Con la corsa di tutti all’IA generativa, è iniziata la corsa alla costruzione di centri dati sempre più potenti e quindi più energivori.
Quindi, possiamo fornire energia per l’IA – e per noi stessi?
Questa è la domanda da un milione di dollari, non è vero? I sistemi energetici del nostro pianeta sono in grado di far fronte a questa nuova domanda? Ci stiamo già destreggiando con un mix di combustibili fossili, energia nucleare e fonti rinnovabili. Se vogliamo soddisfare il crescente appetito dell’intelligenza artificiale in modo sostenibile, dobbiamo aumentare e diversificare le modalità di generazione dell’energia, e in fretta.
Naturalmente, l’energia rinnovabile – solare, eolica, idroelettrica, geotermica – è un pezzo enorme del puzzle. Negli Stati Uniti, ad esempio, le energie rinnovabili passeranno dal 23% della produzione di energia nel 2024 al 27% nel 2026.
I giganti della tecnologia stanno facendo grandi promesse; Microsoft, ad esempio, sta pianificando di acquistare 10,5 GW di energia rinnovabile tra il 2026 e il 2030 solo per i suoi centri dati. L’intelligenza artificiale stessa potrebbe aiutarci a utilizzare l’energia rinnovabile in modo più efficiente, riducendo forse il consumo di energia fino al 60% in alcune aree, rendendo più intelligente l’immagazzinamento dell’energia e gestendo meglio le reti elettriche.
Ma non lasciamoci trasportare. Le energie rinnovabili hanno i loro problemi. Il sole non splende sempre e il vento non soffia sempre, il che rappresenta un vero problema per i data center che hanno bisogno di energia 24 ore su 24, ogni giorno. Le batterie di cui disponiamo oggi per ovviare a questi inconvenienti sono spesso costose e occupano molto spazio. Inoltre, collegare nuovi progetti rinnovabili di massa alle reti elettriche esistenti può essere un’operazione lenta e complicata.
È qui che l’energia nucleare comincia a sembrare più interessante per alcuni, soprattutto come metodo costante e a basse emissioni di carbonio per alimentare l’enorme fabbisogno energetico dell’AI. Fornisce un’alimentazione 24 ore su 24, 7 giorni su 7, che è esattamente ciò che i data center desiderano. C’è molto fermento anche intorno ai piccoli reattori modulari (SMR), perché sono potenzialmente più flessibili e hanno caratteristiche di sicurezza rafforzate. E non sono solo chiacchiere: grandi nomi come Microsoft, Amazon e Google stanno valutando seriamente le opzioni nucleari.
Matt Garman, responsabile di AWS, lo ha detto chiaramente alla BBC, definendo il nucleare una “grande soluzione” per i data center. Ha detto che è “un’ottima fonte di energia a zero emissioni di carbonio, 24 ore su 24, 7 giorni su 7” Ha anche sottolineato che la pianificazione dell’energia futura è una parte importante delle attività di AWS.
“È una cosa che pianifichiamo con molti anni di anticipo”, ha detto Garman. “Investiamo in anticipo. Credo che il mondo dovrà costruire nuove tecnologie. Credo che il nucleare sia una parte importante di questo, soprattutto se guardiamo a 10 anni dopo”
Tuttavia, l’energia nucleare non è una bacchetta magica. La costruzione di nuovi reattori richiede notoriamente molto tempo, costa una fortuna e comporta una complessa burocrazia. Inoltre, siamo sinceri, l’opinione pubblica sull’energia nucleare è ancora un po’ instabile, spesso a causa di incidenti passati, anche se i reattori moderni sono molto più sicuri.
La velocità con cui l’intelligenza artificiale si sta sviluppando, inoltre, crea una certa discrepanza con il tempo necessario per mettere in funzione una nuova centrale nucleare. Ciò potrebbe significare che nel breve periodo ci affideremo ancora di più ai combustibili fossili, il che non è positivo per le nostre ambizioni ecologiche. Inoltre, l’idea di collocare i centri dati proprio accanto alle centrali nucleari ha suscitato in alcuni preoccupazioni per le conseguenze che potrebbe avere sui prezzi dell’elettricità e sull’affidabilità per tutti gli altri.
Non solo kilowatt: L’ombra ambientale dell’IA si allunga
L’impatto dell’IA sul pianeta va ben oltre l’elettricità utilizzata. I data center si surriscaldano e il loro raffreddamento richiede grandi quantità di acqua. Un data center medio consuma circa 1,7 litri di acqua per ogni chilowattora di energia consumata.
Nel 2022, i data center di Google hanno consumato circa 5 miliardi di galloni di acqua dolce, con un aumento del 20% rispetto all’anno precedente. Secondo alcune stime, per ogni kWh utilizzato da un data center, potrebbero essere necessari fino a due litri d’acqua solo per il raffreddamento. In altre parole, l’infrastruttura globale di intelligenza artificiale potrebbe presto consumare sei volte più acqua dell’intera Danimarca.
E poi c’è la montagna di rifiuti elettronici, o e-waste, in continua crescita. Poiché la tecnologia dell’IA – in particolare l’hardware specializzato come le GPU e le TPU – si muove così velocemente, il vecchio kit viene buttato via sempre più spesso. L’intelligenza artificiale potrebbe contribuire all’accumulo di rifiuti elettronici dai data center, raggiungendo i cinque milioni di tonnellate all’anno entro il 2030.
Anche la produzione dei chip AI e di tutti gli altri componenti dei data center ha un impatto sulle nostre risorse naturali e sull’ambiente. Significa estrarre minerali critici come il litio e il cobalto, spesso con metodi non proprio rispettosi del pianeta.
Solo per produrre un chip AI possono essere necessari oltre 1.400 litri di acqua e 3.000 kWh di elettricità. Questa fame di nuovo hardware spinge anche a costruire più fabbriche di semiconduttori che, indovina un po’, spesso portano alla costruzione di più centrali energetiche a gas.
E, ovviamente, non possiamo dimenticare le emissioni di carbonio. Quando l’intelligenza artificiale è alimentata da elettricità generata dalla combustione di combustibili fossili, si aggiunge al problema del cambiamento climatico che stiamo affrontando. Si stima che l’addestramento di un solo grande modello di intelligenza artificiale possa emettere una quantità di CO2 pari a quella prodotta da centinaia di case statunitensi in un anno.
Se guardi i rapporti ambientali delle grandi aziende tecnologiche, puoi vedere la crescente impronta di carbonio dell’IA. Le emissioni annue di Microsoft, ad esempio, sono aumentate di circa il 40% tra il 2020 e il 2023, soprattutto a causa della costruzione di più data center per l’IA. Anche Google ha dichiarato che le sue emissioni totali di gas serra sono aumentate di quasi il 50% negli ultimi cinque anni, e la richiesta di energia da parte dei suoi centri dati per l’IA è una delle principali cause.
È possibile trovare una via d’uscita con l’innovazione?
Potrebbe sembrare una situazione di sfortuna, ma una combinazione di nuove idee potrebbe aiutarci.
Una grande attenzione è rivolta a rendere gli algoritmi di IA più efficienti dal punto di vista energetico. I ricercatori stanno escogitando trucchi intelligenti come il “model pruning” (eliminazione delle parti non necessarie di un modello di IA), la “quantizzazione” (utilizzo di numeri meno precisi, con conseguente risparmio energetico) e la “distillazione della conoscenza” (in cui un modello di IA più piccolo e parsimonioso impara da uno grande e complesso). Anche la progettazione di modelli di IA più piccoli e specializzati che svolgano lavori specifici con meno energia è una priorità.
All’interno dei data center, elementi come il “power capping” (limitare la quantità di energia che l’hardware può assorbire) e l'”allocazione dinamica delle risorse” (spostare la potenza di calcolo in base alle esigenze in tempo reale e quando l’energia rinnovabile è abbondante) possono fare la differenza. Un software “consapevole dell’intelligenza artificiale” può persino spostare i lavori di intelligenza artificiale meno urgenti in momenti in cui l’energia è più pulita o la domanda sulla rete è più bassa. L’intelligenza artificiale può persino essere utilizzata per rendere più efficienti i sistemi di raffreddamento dei data center.
L’IA on-device potrebbe anche contribuire a ridurre il consumo energetico. Invece di inviare i dati a centri dati cloud enormi e affamati di energia, l’elaborazione dell’intelligenza artificiale avviene direttamente sul tuo telefono o dispositivo. In questo modo si potrebbe ridurre il consumo di energia, poiché i chip progettati per questo scopo danno la priorità all’efficienza rispetto alla potenza grezza.
E non possiamo dimenticare le norme e i regolamenti. I governi stanno iniziando a rendersi conto della necessità di rendere l’IA responsabile del suo utilizzo di energia e dell’impatto ambientale in generale.
Disporre di metodi chiari e standard per misurare e riportare l’impronta dell’IA è un primo passo fondamentale. Abbiamo anche bisogno di politiche che incoraggino le aziende a produrre hardware che durino più a lungo e che siano più facili da riciclare, per contribuire ad affrontare la montagna di rifiuti elettronici. Sistemi di scambio di crediti energetici potrebbero anche dare alle aziende un motivo finanziario per scegliere una tecnologia AI più ecologica.
Vale la pena notare che questa settimana gli Emirati Arabi Uniti e gli Stati Uniti si sono stretti la mano su un accordo per la costruzione del più grande campus di IA al di fuori degli Stati Uniti nel Golfo. Se da un lato questo dimostra l’importanza che l’IA sta assumendo a livello globale, dall’altro fa capire perché le preoccupazioni energetiche e ambientali devono essere al centro di progetti di tale portata.
Trovare un futuro sostenibile per l’IA
L’IA ha il potere di fare cose straordinarie, ma il suo feroce appetito per l’energia rappresenta un serio ostacolo. Le previsioni sulla sua futura domanda di energia sono davvero sbalorditive, potenzialmente pari a quella utilizzata da interi paesi.
Se vogliamo soddisfare questa domanda, abbiamo bisogno di un mix intelligente di fonti energetiche. Le fonti rinnovabili sono fantastiche nel lungo periodo, ma hanno dei problemi quando si tratta di garantire una fornitura costante e di scalare rapidamente. L’energia nucleare – compresi i nuovi SMR – offre un’opzione affidabile e a basse emissioni di carbonio che sta attirando l’attenzione delle grandi aziende tecnologiche. Ma dobbiamo ancora fare i conti con la sicurezza, i costi e i tempi di costruzione.
E ricorda che non si tratta solo di elettricità. L’impatto ambientale dell’IA in senso lato – dall’acqua bevuta per raffreddare i data center, alle pile crescenti di rifiuti elettronici dell’hardware e alle risorse consumate durante la produzione – è enorme. Se vogliamo ridurre l’impronta ecologica dell’IA, dobbiamo considerare l’intero quadro.
La buona notizia? Ci sono molte idee e innovazioni promettenti che stanno nascendo.
Gli algoritmi di IA a risparmio energetico, la gestione intelligente dell’energia nei data center, il software AI che può gestire i carichi di lavoro in modo intelligente e il passaggio all’IA su dispositivo sono tutti modi per ridurre l’uso di energia. Inoltre, il fatto che si parli sempre di più dell’impatto ambientale dell’IA significa che si sta finalmente discutendo di politiche e regole per promuovere la sostenibilità.
Per affrontare le sfide energetiche e ambientali dell’IA è necessario che tutti – ricercatori, industria tecnologica e politici – si rimbocchino le maniche e lavorino insieme, e in fretta.
Se facciamo dell’efficienza energetica una priorità assoluta nelle modalità di sviluppo dell’IA, se investiamo adeguatamente in energia sostenibile, se gestiamo l’hardware in modo responsabile dalla culla alla tomba e se mettiamo in atto politiche di sostegno, possiamo puntare a un futuro in cui l’incredibile potenziale dell’IA venga sbloccato in un modo che non distrugga il nostro pianeta.
La corsa alla leadership nell’IA deve essere anche una corsa all’IA sostenibile.



