Il consumo dei data center, spinto dall’IA, è destinato a più che raddoppiare entro il 2030, una domanda paragonabile al fabbisogno del Giappone che sta già mettendo a dura prova le infrastrutture esistenti

[In pillole] La sintesi per chi va di fretta:
L'intelligenza artificiale sta rapidamente aumentando la domanda energetica globale. L'IEA prevede che entro il 2030 i data center raddoppieranno i consumi, superando i 1.000 TWh annui, equivalenti al fabbisogno del Giappone. Questo impatto, anche sulla produzione di chip, solleva seri interrogativi sulla sostenibilità e sulla capacità delle infrastrutture di reggere la pressione, rendendo l'energia dell'IA una sfida cruciale.
Una domanda di energia senza precedenti
Per capire le radici di questo fenomeno, è utile fare un passo indietro. Fino a poco tempo fa, l’aumento del consumo energetico dei data center era stato in parte mitigato da continui miglioramenti nell’efficienza hardware e software. Questa tendenza, però, si è bruscamente interrotta con l’avvento dell’intelligenza artificiale generativa.
Sistemi come ChatGPT o Midjourney richiedono una potenza di calcolo di un ordine di grandezza superiore rispetto alle applicazioni tradizionali.
Una singola richiesta inviata a ChatGPT, ad esempio, consuma in media 2,9 watt-ora di elettricità, quasi dieci volte di più rispetto a una semplice ricerca su Google, come descritto in un’analisi di Key4biz. Moltiplicato per miliardi di interazioni quotidiane in tutto il mondo, questo scarto si trasforma in un fabbisogno energetico imponente.
Attualmente i data center sono responsabili di circa il 2% del consumo elettrico globale, ma le proiezioni indicano che l’intelligenza artificiale da sola potrebbe portare questa quota a raddoppiare in meno di un decennio. Questa pressione non si distribuisce in modo uniforme.
Negli Stati Uniti, che ospitano quasi un terzo dei data center mondiali, si sta già assistendo a una competizione serrata per l’accesso all’energia elettrica. Alcune stime suggeriscono che, entro la fine del decennio, i data center per l’IA potrebbero arrivare a consumare più elettricità di tutte le case di una città come Pittsburgh.
La situazione è tale che diverse società energetiche statunitensi hanno dovuto rivedere al rialzo le loro previsioni di crescita della domanda per i prossimi anni, un’inversione di tendenza rispetto al trend di stabilità, o persino di lieve calo, osservato negli ultimi vent’anni.
Questo improvviso aumento della domanda sta mettendo in crisi le reti di trasmissione, spesso vecchie e inadeguate a gestire carichi così concentrati e intensi, costringendo a ritardare o a ridimensionare la costruzione di nuovi, imponenti centri di calcolo.
Il costo nascosto nella filiera dei chip
L’impatto energetico dell’intelligenza artificiale non si esaurisce però nell’operatività dei data center. Un aspetto spesso trascurato, ma altrettanto rilevante, è il consumo di energia legato alla produzione dei componenti hardware su cui si basa questa tecnologia, in particolare i semiconduttori avanzati.
La fabbricazione di questi chip è un processo estremamente energivoro, che richiede ambienti ultra-controllati e macchinari complessi che funzionano senza sosta.
Questo scenario non è unico al mondo dei semiconduttori, ma è una sfida comune a tutto il settore manifatturiero avanzato. Il controllo e l’ottimizzazione dei consumi energetici a livello di singola macchina o linea produttiva sono esattamente gli obiettivi per cui nascono i sistemi di esecuzione della produzione, piattaforme software che monitorano in tempo reale l’efficienza degli impianti per ridurre sprechi e costi operativi.
Un recente rapporto, pubblicato da Greenpeace, ha messo in luce come il consumo di elettricità e le relative emissioni di gas serra legate alla produzione di chip per l’IA siano aumentati di oltre il 350% in un solo anno, tra il 2023 e il 2024.
– Leggi anche: L’equilibrio prima dello stipendio: la nuova priorità degli sviluppatori
Il problema è aggravato dalla concentrazione geografica di questa industria. La maggior parte dei semiconduttori più avanzati viene prodotta in Asia orientale, in particolare a Taiwan e in Corea del Sud, dove il mix energetico dipende ancora in larga misura dai combustibili fossili.
Di conseguenza, l’impronta di carbonio di ogni singolo processore per l’IA è intrinsecamente alta ancora prima che venga installato in un data center.
Questa dipendenza da fonti energetiche non rinnovabili lungo la catena di approvvigionamento rende le dichiarazioni di sostenibilità di molte grandi aziende tecnologiche incomplete, se non fuorvianti.
Mentre queste società investono in contratti per l’acquisto di energia rinnovabile per alimentare i propri data center, l’impatto ambientale “incorporato” nei loro stessi strumenti di lavoro rimane in gran parte fuori dai loro bilanci di sostenibilità, nascosto nelle complesse dinamiche della produzione globale.
Tra promesse di efficienza e dubbi sulla sostenibilità
Di fronte a questa sfida, le grandi aziende del settore tecnologico, come Google, Microsoft e Amazon, non sono rimaste a guardare. Stanno investendo miliardi di dollari per migliorare l’efficienza energetica dei loro data center, sperimentando nuove tecnologie di raffreddamento a liquido, che sono molto più efficaci di quelle tradizionali ad aria, e sviluppando sistemi per riutilizzare il calore di scarto generato dai server.
Inoltre, sono diventate i maggiori acquirenti al mondo di energia rinnovabile, siglando accordi a lungo termine per finanziare la costruzione di nuovi parchi eolici e solari.
Queste iniziative sono certamente importanti, ma ci si interroga se possano essere sufficienti a compensare una crescita della domanda così rapida e di tale portata.
Il paradosso è che la stessa intelligenza artificiale viene proposta come uno strumento per ottimizzare i consumi energetici, ad esempio migliorando la gestione delle reti elettriche o l’efficienza dei processi industriali. Tuttavia, al momento, il bilancio energetico complessivo pende pesantemente in negativo.
L’energia risparmiata grazie alle ottimizzazioni introdotte dall’IA è di gran lunga inferiore a quella consumata dalla tecnologia stessa. Il rischio, come sottolineano diversi osservatori, è che si entri in un circolo vizioso in cui una domanda di energia sempre crescente, guidata dall’IA, renda più difficile e costosa la transizione verso un sistema energetico completamente rinnovabile.
Per contestualizzare la scala del problema, basta pensare che i circa 1.000 TWh di consumo previsti per il 2030 corrispondono a più del triplo dell’intero fabbisogno elettrico annuale dell’Italia, come evidenziato da Geopop.
La strada per conciliare lo sviluppo dell’intelligenza artificiale con la sostenibilità ambientale appare quindi ancora lunga e tutt’altro che scontata.



