Flash #55: Intelligenza artificiale, il peso invisibile per la sfida ambientale
Nonostante i recenti passi avanti, lo sviluppo dei data center legati all’IA pone un rischio aggiuntivo sempre più marcato nella sfida al cambiamento climatico
Negli ultimi anni il rinascimento dell’intelligenza artificiale, la digitalizzazione dell’economia e il mining delle criptovalute hanno portato alla crescita esponenziale dei data center, infrastrutture essenziali per l'elaborazione e l'archiviazione di enormi quantità di dati. Questi poli tecnologici sono il motore di innovazioni come l’IA generativa e i modelli predittivi, ma il loro impatto ambientale sta diventando sempre più difficile da ignorare: se da un lato promettono di ottimizzare i processi industriali e ridurre gli sprechi, dall’altro il loro consumo di energia e risorse pone dubbi sulla sostenibilità a lungo termine.
Si stima che l’addestramento di un modello avanzato di intelligenza artificiale come GPT-3 abbia richiesto circa 1.300 megawattora di energia, mentre modelli più recenti come GPT-4 potrebbero aver consumato diverse decine di gigawattora. Questo valore equivale al consumo annuo di alcune migliaia di abitazioni negli Stati Uniti, a seconda delle dimensioni del modello. A ciò si aggiunge l’energia necessaria per il funzionamento quotidiano e il raffreddamento delle apparecchiature.
Uno degli Stati più coinvolti in questa crescita è il Texas, dove il boom dei data center è incentivato da costi energetici competitivi e da una regolamentazione favorevole. Secondo il Texas Tribune, l’operatore della rete elettrica statale prevede il raddoppio della domanda di energia entro il 2030, dovuto in gran parte alle richieste di connessione da parte di colossi tecnologici. Tuttavia, la capacità della rete texana è già stata messa alla prova da eventi climatici estremi, come il blackout del 2021, causato da una tempesta invernale. Per questi motivi l’aumento della domanda solleva dubbi sulla tenuta del sistema, in particolar modo se gran parte dell’energia continua a provenire da combustibili fossili.
Le emissioni di CO₂ legate ai data center sono un aspetto critico. Uno studio dell’università del Massachusetts Amherst ha stimato che addestrare un singolo modello di IA può generare tanta CO₂ quanto cinque automobili nell’arco del loro intero ciclo di vita. Nonostante gli impegni delle aziende tecnologiche a ridurre il loro impatto, il ritmo con cui crescono le infrastrutture supera spesso la capacità di compensazione attraverso le energie rinnovabili.
Tuttavia, oltre all’elettricità i data center richiedono ingenti quantità d'acqua per il raffreddamento. Secondo uno studio pubblicato su Nature, un impianto di grandi dimensioni può consumare tra uno e cinque milioni di litri d’acqua al giorno. Il centro di elaborazione IA di Microsoft in Iowa, ad esempio, ha utilizzato quasi 700 milioni di litri d’acqua in un anno, suscitando polemiche in uno Stato già colpito da siccità ricorrenti. L’impatto è ancora più evidente in regioni aride come Arizona e Nevada, dove il prelievo d’acqua per i data center entra in competizione con quello destinato all’agricoltura e alle comunità locali.
Di fronte a queste problematiche, le grandi aziende tecnologiche stanno cercando di adottare strategie di mitigazione. Google, ad esempio, ha annunciato l’obiettivo di operare esclusivamente con energia a zero emissioni entro il 2030, mentre Amazon ha dichiarato che il 90 per cento dei suoi data center sarà alimentato da fonti rinnovabili entro il 2025. Tuttavia, molti di questi impegni si scontrano con la difficoltà nel reperire quantità sufficienti di energia pulita, soprattutto nei Paesi in cui le infrastrutture per le rinnovabili non sono ancora sviluppate a sufficienza. Inoltre, secondo Business Insider, alcuni progetti prevedono l’utilizzo di centrali a gas naturale per garantire una fornitura costante, come nel caso del progetto Stargate, sempre in Texas. Questo compromesso riduce i benefici delle energie rinnovabili, aumentando l’impatto ambientale totale.
Tuttavia, il progresso tecnologico può offrire soluzioni per rendere più sostenibili i data center. DeepMind, società di Alphabet, ha sviluppato algoritmi che nel 2016 hanno ridotto del 40 per cento il consumo energetico necessario per il raffreddamento delle strutture, mentre il recente exploit dell’IA cinese Deepseek sembra essere un punto di svolta verso dei modelli pensati fin dal principio per non disboscare una foresta a ogni query. Tuttavia, l'efficienza da sola potrebbe non bastare a compensare la crescita della domanda.
Il dibattito sul futuro dei data center e del loro impatto climatico è destinato a intensificarsi. Regolamentazioni più stringenti potrebbero essere necessarie per limitare il consumo di energia e acqua, mentre le aziende dovranno investire non solo nella riduzione delle emissioni, ma anche nell'adozione di modelli di business più sostenibili. Il rischio è che l’innovazione tecnologica, se non gestita correttamente, diventi un freno agli stessi obiettivi climatici che si propone di supportare.