E’ ormai ampiamente riconosciuto che la crescita dell’economia digitale sta avendo ripercussioni sempre più importanti sull’ambiente, dal consumo di acqua ed elettricità da parte dei data center fino all’esaurimento delle materie prime. L’allarme arriva direttamente dall’Onu, che nel Digital Economy Report ha evidenziato l’impatto della rapidissima diffusione a livello globale delle infrastrutture su cui si reggono i servizi di nuova generazione, a partire da quelli costruiti sull’AI.
I data center potrebbero consumare il 9% della produzione di elettricità degli Stati Uniti entro il 2030, il doppio della quantità consumata oggi, secondo uno studio pubblicato dall’Electric Power Research Institute (EPRI).
La crescita dei consumi energetici
La crescita è guidata dall’aumento della potenza di calcolo associata all’intelligenza artificiale. Le query AI richiedono circa dieci volte l’elettricità delle ricerche Internet tradizionali e la generazione di musica, foto e video originali ne richiede molto di più, secondo l’EPRI.
Una ricerca tradizionale su Google utilizza circa 0,3 Wh, mentre una query che utilizza ChatGPT, richiede circa 2,9 Wh, secondo il rapporto “Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption” dell’EPRI
Secondo il Digital Economy Report dell’Onu il consumo di elettricità di sole 13 società equivale e 460 TWh, più di quello di un Paese come la Francia, con Amazon, Alphabet, Microsoft e Meta in testa alla classifica. Inoltre, secondo l’Agenzia Internazionale dell’energia, da qui al 2026 si balzerà a 1.000 TWh per effetto dell’intelligenza artificiale. Come termine di paragone, il consumo totale di elettricità in Francia è stato di circa 459 TWh nel 2022.
In alcuni Paesi, d’altra parte, la continua crescita dei data center ha messo a dura prova la rete elettrica locale. In Irlanda, l’utilizzo di elettricità da parte dei data center è più che quadruplicato tra il 2015 e il 2022, rappresentando il 18% del consumo totale di elettricità nel 2022. Le proiezioni indicano che tale percentuale potrebbe raggiungere il 28% entro il 2031.
A Singapore, dove i data center erano responsabili di circa il 7% di tutta la domanda di elettricità nel 2020, il governo ha imposto una moratoria sui nuovi data center, poi sostituita da condizioni più severe sull’uso di elettricità, acqua e terreni da parte delle strutture.
L’impatto ambientale
Nel suo rapporto, l’Unctad fornisce numerosi esempi dei danni causati dall’economia digitale. Nel 2020, il settore delle tecnologie dell’informazione e della comunicazione ha generato tra 0,69 e 1,6 gigatonnellate di anidride carbonica, ovvero circa l’1,5-3,2% delle emissioni totali di gas serra a livello mondiale. Il loro livello è paragonabile a quello del trasporto aereo o marittimo.
Il rapporto mostra anche che la produzione di un computer di due chili richiede circa 800 kg di materie prime. La domanda di minerali necessari per la digitalizzazione, come grafite, litio e cobalto, potrebbe aumentare del 500% da qui al 2050. L’energia necessaria per estrarre Bitcoin è aumentata del 34% tra il 2015 e il 2023, raggiungendo una cifra stimata di 121 TWh, superiore al consumo annuo di elettricità del Belgio o della Finlandia, che non raggiungono i 90 TWh.

Le tecnologie digitali generano poi un’impronta idrica significativa che costituisce una parte sostanziale del loro impatto ambientale complessivo. I data center non solo hanno un notevole fabbisogno di elettricità, infatti, ma richiedono anche acqua per il raffreddamento. Tuttavia, le informazioni sull’impatto del consumo di acqua sono limitate. L’utilizzo dell’acqua e l’impatto dei data center sulle risorse idriche locali dovrebbero invece essere valutati in un contesto specifico, poiché la scelta della tecnologia di raffreddamento è influenzata dal clima locale e dalla disponibilità delle risorse; il confronto tra regioni con abbondanti scorte d’acqua e quelle che devono affrontare gravi carenze idriche richiede considerazioni molto diverse. Alcune tecnologie di raffreddamento possono funzionare con meno acqua, ma possono consumare più elettricità. Pertanto, l’uso dell’acqua e dell’elettricità da parte dei data center deve essere considerato con una visione più ampia.
L’evoluzione del concetto di “inquinamento”
Inoltre, il concetto di impatto ambientale, e più in generale di “inquinamento”, è una definizione dinamica che cambia nel tempo. Basti pensare all’evoluzione delle misure per la limitazione dell’inquinamento degli idrocarburi che si è sviluppata negli anni, in funzione di una diversa e mutata sensibilità sociale, nuove metodologie di ricerca ed analisi e nuovi studi sugli effetti ambientali e sull’uomo
Negli anni ’70, la questione dell’inquinamento atmosferico ambientale e i problemi di salute causati dalle emissioni dei veicoli automobilistici avevano raggiunto un limite che ha indotto una grande preoccupazione sociale e la necessità di forti sforzi legislativi per ridurre le emissioni delle automobili.
Prima degli anni ’70, la benzina (cosiddetta “benzina rossa”) veniva riformulata attraverso l’aggiunta di piombo tetraetile come agente antidetonante per aumentare il numero di ottani. Tuttavia, l’utilizzo di questo agente antidetonante è stato interrotto quando è stato emanato il Clean Air Act del 1970. Sono stati introdotti veicoli con i convertitori catalitici che richiedevano benzina senza piombo (che poi in più tardi verrà denominata ”benzina verde”) e l’ etere metil-terz-butilico (MTBE) è stato quindi inserito in basse concentrazioni (1-3 vol%) nella benzina come sostituto del piombo tetraetile come booster di ottani. Nel 1996, uno studio dell’U.S. Geological Survey ha riportato che l’MTBE è stato trovato frequentemente nelle riserve idriche sotterranee urbane campionate e l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) e l’Agenzia per la Protezione dell’Ambiente degli Stati Uniti (EPA) hanno classificato l’MTBE come una minaccia per la salute nel 2000. Dopo che gli svantaggi dell’MTBE sono stati rivelati, un’altra sostanza, l’ETBE, che è una variante del bioetanolo, è risultato essere un ossigenato di ottani alternativo ed ecologico ed è diventato un popolare additivo ossigenato alternativo per la benzina.
l bioetanolo è un alcol che si ottiene dalla fermentazione di biomasse dedicate o anche di scarto. In particolare, si utilizzano cereali amidacei come il mais e colture zuccherine come la canna da zucchero. Per quanto meno pericoloso dell’MTBE, recenti studi stabiliscono che l’ETBE, essendo particolarmente solubile, è comunque eco-tossico e presente una debole tossicità cronica verso l’uomo, ma soprattutto ha un impatto importante sul consumo del territorio agricolo, ovvero sull’espansione dei terreni per produrre bioetanolo, in particolare per la coltivazione del mais. Il trentasei per cento del mais mondiale proviene dagli Stati Uniti, la cui quasi totalità viene coltivato nell’area compresa tra le Grandi Pianure a ovest e i monti Appalachi a est. Tra il 2005 e il 2021, l’area di terra riservata alla coltivazione di mais negli Stati Uniti è aumentata di circa il quattordici per cento. Il problema principale è che i terreni, che in passato erano un serbatoio di carbonio, ora vengono arati per piantare queste colture.
Non è escluso che in un prossimo futuro queste nuove considerazioni porteranno ad identificare nuovi componenti e soluzioni per diminuire l’impatto verso l’ambiente e verso l’uomo da parte degli idrocarburi.
Un discorso analogo si può fare per altre dimensioni di inquinamento, totalmente diverse, come quello acustico, problema che è stato attenzionato in Italia già dal 1991 con il DPCM del 1 marzo 1991, primo e transitorio approccio in attesa di una più completa legge quadro, intervenuta solo qualche anno dopo, nel 1995, in seguito a mutate sensibilità sociali sul tema e a casi esemplari (come l’ inquinamento acustico originato dall’aeroporto di Malpensa, che ha creato polemiche fin dal 2000 ed è ancora un tema di stretta attualità) che indicano che la tematica è complessa e non di facile risoluzione.
Il rumore, le tutele ecologiche della biodiversità, l’impatto visivo sono solo alcuni degli aspetti considerati nelle “Linee guida per la procedure di Valutazione Ambientale dei Data center” pubblicati dal Ministero dell’ambiente e della sicurezza energetica nell’agosto 2024.
In sintesi, questo prologo per indicare che ciò che una volta non era considerato “inquinante” oggi potrebbe esserlo, o viceversa.
Come effettuare un data center assessment
Un data center assessment, ovvero una valutazione per identificare l’impatto ambientale (oppure la sua rischiosità), dovrebbe essere effettuata considerando tre dimensioni, strettamente correlate:
- dimensione temporale (il Data Life Cycle del data center, delle sue componenti e di ciò che contiene),
- dimensione spaziale (la relazione tra il data center e il territorio circostante ed altri eventuali data center strettamente relazionati) e
- dimensione tecnologica (la tecnologia costruttiva utilizzata, quella delle sue componenti e di ciò che contiene il data center).
Confrontare un data center costruito negli anni ‘80 con un data center recente non ha molto senso, perché hanno logiche realizzative completamente diverse, tecnologie utilizzate e spesso anche finalità dissimili.
La sfida è quella di utilizzare metriche che siano in grado di rappresentare nel miglior modo possibile la figura dell’impatto ambientale di un data center e potersi adattare nel tempo.
Tradizionalmente, il PUE (Power Usage Effectiveness) era la metrica principale per valutare l’efficienza, ma oggi non intercetta completamente le prestazioni ambientali dei data center.
Gartner suggerisce di adottare una gamma più ampia di metriche di sostenibilità (come si può vedere nella Figura sotto), tra cui WUE, CUE, REF ed ERE. Queste metriche affrontano le complesse interdipendenze tra l’uso dell’energia, il consumo di acqua e l’impronta di carbonio.

Con l’aumento del consumo energetico dei data center, la transizione verso fonti di energia più pulite è diventata un imperativo fondamentale per la sostenibilità.
Il REF è una metrica fondamentale in questo senso, in quanto quantifica la quota di energia totale derivata da fonti rinnovabili come il solare, l’eolico o l’idroelettrico. Il monitoraggio del REF rivela esattamente quanto sia “verde” l’approvvigionamento energetico di un data center, guidando investimenti mirati come accordi di acquisto di energia (PPA) o installazioni solari in loco. Queste misure non solo riducono le emissioni di carbonio, ma aiutano anche gli operatori a proteggersi dalle fluttuazioni dei prezzi dei combustibili fossili e a rispettare le normative ambientali più severe.
Parallelamente, i data center possono utilizzare l’ERE per sfruttare il potenziale, spesso trascurato, del calore di scarto. Le server farm di grandi dimensioni generano una notevole quantità di calore, che tradizionalmente si dissipa nell’atmosfera. Monitorando l’ERE, le organizzazioni possono misurare l’efficacia con cui recuperano e riutilizzano questo calore di scarto, sia che venga reindirizzato agli edifici adiacenti per il riscaldamento, utilizzato nei refrigeratori ad assorbimento per il raffreddamento o utilizzato nei processi industriali. Tali strategie di riutilizzo possono ridurre il consumo netto di energia, ridurre i costi operativi e contribuire agli sforzi di sostenibilità locale, il tutto fornendo risultati ambientali.
I sistemi di raffreddamento sono tra i maggiori consumatori di energia in un data center e un raffreddamento inefficiente può gonfiare notevolmente le spese operative. Il CER aiuta gli operatori a identificare la quantità di energia dedicata al raffreddamento rispetto al carico termico effettivo. Monitorando regolarmente la CER, si possono individuare anomalie, come il raffreddamento eccessivo o la cattiva gestione del flusso d’aria, e implementare misure correttive, come il contenimento del corridoio caldo/corridoio freddo o i refrigeratori aggiornati. L’ottimizzazione del raffreddamento migliora le prestazioni ambientali e migliora la longevità dell’hardware mantenendo stabili le temperature di esercizio.
Un altro aspetto critico è la massimizzazione dell’ingombro fisico attraverso le metriche di efficienza dello spazio del data center. Con l’avanzare delle tecnologie server, densità di rack più elevate possono fornire una maggiore potenza di calcolo per metro quadrato, riducendo potenzialmente lo spazio totale richiesto per il data center. Questo, a sua volta, riduce sia le esigenze immobiliari che quelle di raffreddamento, creando una cascata positiva di risparmi energetici. Visualizzando il CER e l’utilizzo dello spazio in tandem, gli operatori possono perfezionare meglio i layout delle strutture, individuare le risorse sottoutilizzate e garantire che le espansioni vengano implementate solo quando necessario. Collettivamente, queste pratiche riducono i costi operativi, riducono le inefficienze energetiche e migliorano i risultati di sostenibilità del Data center (Gartner, “Data Center Sustainibility Metrics”, febbraio 2025).
Il moderno software di gestione dell’infrastruttura del data center (DCIM), che è stato fondamentalmente progettato e utilizzato per il monitoraggio dei dispositivi e la pianificazione delle risorse dello spazio IT, può essere utilizzato anche per ridurre l’uso di energia e le emissioni di gas serra (GHG) delle operazioni IT. Fornisce inoltre informazioni di base per iniziare a tracciare e perseguire le metriche di sostenibilità.
La qualità delle metriche
È importante che le metriche adottate abbiano una qualità sufficientemente buona per produrre risultati affidabili, in quanto le metriche utilizzate oggi potrebbero non essere le stesse di quelle necessarie per monitorare i progressi verso l’efficienza dell’infrastruttura in futuro. Trovare metriche utilizzabili ed efficaci è un processo dinamico che richiede un adeguamento continuo e una verifica costante, con un meccanismo di “backtesting”.
In questo processo “dinamico” di assesment, l’utilizzazione di standard di riferimento per i data center è sicuramente di aiuto, perché indirizza le metriche in un contesto di applicazione normativo o di “best practice” aggiornato e comunemente riconosciuto ed adottato, con cui confrontarsi.

Emissioni di gas serra dei data center per ambito di applicazione
L’anidride carbonica (CO2) è di gran lunga il gas serra più abbondante associato alla costruzione e al funzionamento dei data center. Tuttavia, ce ne sono molti altri che devono essere gestiti attraverso il ciclo di vita del data center, inclusi i gas fluorurati come l’SF6, utilizzato come isolante, e gli HFC utilizzati nel raffreddamento. Il modo migliore per organizzare e gestire tutte le emissioni di gas serra è suddividerle per ambito:
1° Ambito (3%): emissioni dirette. Nell’ambito del controllo operativo del data center. La fonte include i veicoli utilizzati nel data center, le caldaie o i forni a gas naturale e la generazione di combustibili fossili in loco dalla combustione, compresi i generatori diesel di riserva.
2° Ambito (42%): emissioni associate all’acquisto di elettricità, calore, vapore o raffreddamento. Poiché i data center raramente acquistano energia diversa dall’elettricità, le fonti in Ambito 2 sono in genere limitate alle emissioni dalla rete e da qualsiasi accordo di acquisto di energia in essere nel Data center.
3° Ambito (55%): altre emissioni indirette da fonti come viaggi, catene di approvvigionamento (supply chain) e gestione dei rifiuti.
- upstream: le fonti includono il viaggio dei lavoratori verso il sito e il carbonio incorporato in modo significativo in tutte le apparecchiature che compongono il Data center, dai materiali da costruzione grezzi alle apparecchiature finite.
- downstream: può includere l’uso di prodotti finiti, ma nel contesto di un Data center include la gestione dei rifiuti, compresi i rifiuti e il riciclaggio derivanti dal normale funzionamento, e la gestione delle apparecchiature alla fine del loro ciclo di vita.
Inoltre, le apparecchiature utilizzate nei data center, come gli UPS, dovrebbero possedere una fonte informativa, come ad esempio il Product Environnement Profile (PEP) che contiene informazioni sui materiali utilizzati, sul Life Cycle Assessment (LCA), sul livello di compliance normativo, sul contenuto di materiali riciclabili, sull’utilizzo di sorgenti rinnovabili, l’efficienza energetica e le emissioni totali.
Appare abbastanza evidente che una buona parte dell’inquinamento prodotto dai data center nasce e si sviluppa in relazione alla distanza degli stessi dai luoghi deputati per la fruizione dei servizi erogati.
Il ruolo dell’edge comptuing
L’edge computing è un’implementazione dell’infrastruttura IT che permette di aumentare l’affidabilità e migliorare il flusso dei dati collocando le applicazioni il più vicino possibile agli utenti o agli “oggetti” che ne hanno bisogno.
L’edge computing è necessario per gestire i punti deboli delle applicazioni e dei servizi basati sul cloud, in relazione alle performance e ai requisiti normativi. In breve, non sempre il cloud computing è in grado di soddisfare i requisiti in termini di tempi rapidi di risposta richiesti dalle applicazioni critiche (ad es. per la latency). Per le aziende soggette al rispetto di regolamenti governativi correlati alla posizione di archiviazione dei dati, il cloud computing potrebbe non essere in grado di fornire il tipo di archiviazione locale richiesto.
Ciò rappresenta un problema, dal momento che la tendenza alla digitalizzazione per incrementare l’efficienza e le performance aziendali sta alimentando la domanda di applicazioni che richiedono performance di picco, specialmente per l’IoT (Internet of Things). Le applicazioni IoT spesso richiedono una notevole larghezza di banda, una bassa latenza e performance affidabili, e al tempo stesso devono rispettare requisiti normativi e di conformità, per cui rappresentano candidati classici per l’edge computing.
In particolare, l’edge computing potrebbe essere una risposta alle problematiche legate alla sostenibilità ambientale dei data center.
Bilanciare sostenibilità e ridondanza
Ma come si possono conciliare le esigenze di sostenibilità ambientale e di elevata resilienza ed affidabilità dei data center, considerando anche una necessaria ridondanza geografica delle risorse degli stessi data center (che può comportare una notevole distanza tra loro), per diminuire l’esposizione multipla e contemporanea ai rischi dei siti?
Una possibile risposta, che sarà oggetto di un prossimo articolo, potrebbe venire dai recenti progetti di ricerca europei, come il progetto Horizon “Autopoietic Cognitive Edge-cloud Services ACES” e il progetto Hiro Microdata centers per la realizzazione di un Edge mobile data centers (EMDC), da 1 kW fino a 3,8 kW in un 3U enclosure, e fino a 150 kW in un container rack. Dotato di capacità di elaborazione di Big Data e AI (federated learning), con la possibilità di catturare il 97% del calore del server e di restituire alla struttura acqua calda a 65 gradi Celsius. Il raffreddamento è passivo (nessuna pompa, nessuna ventola). L’elaborazione di Big Data e AI viene effettuata con reattività in tempo reale come “as a service” direttamente nel cuore dell’infrastruttura, risparmiando cosi energia sul trasporto dei dati e sui costi infrastrutturali (rete energetica, teleriscaldamento).