Il Data Center Green conviene

La Roadmap verso un’economia low-carbon suggerisce di cominciare dal “fare le cose in modo diverso al proprio interno”. Val la pena dunque guardare  a ciò che l’It può fare su se stessa, concentrandosi sull’impatto che può avere rendere eco-efficienti le operazioni del data center

Pubblicato il 13 Mar 2009

fabbricaa70

La Roadmap verso un’economia low-carbon definita da Gartner (www.gartner.com), che abbiamo anlizzato nell’articolo precedente, sottolinea come il primo passo per le aziende debba essere compiuto a partire dall’interno. Il primo step, è “fare le cose in modo diverso”. L’It, in questo senso, può fare molto, a partire dall’efficienza dei data center. L’obiettivo è aumentare l’efficienza nell’utilizzo di energia e materie prime, massimizzando il lavoro produttivo del data center, senza comprometterne performance, resilienza e sicurezza. Secondo la Roadmap bisognerà da un lato studiare le forze che agiscono sul data center a lungo termine e possono spingerlo a diventare Green (abilitatori) o essere d’inciampo (inibitori), e “tenerle d’occhio” nella propria pianificazione strategica It; e d’altro canto concentrarsi a breve su quegli investimenti in tecnologie e tecniche di disegno che promettono i maggiori risultati e risparmi, in termini di eco-efficienza delle operazioni. Seguiamo in questa strada le indicazioni di Rakesh Kumar, Vp Ricerca Gartner.

I driver che spingono al Green i Data Center
In primo luogo non c’è dubbio che il trend dei data center a diventare green è in atto, ma per ragioni economiche, non ambientali. È un fatto che molte parti di un programma green per l’It aiutino a ridurre i costi e a controllare il rischio di crisi energetica. Anche se un numero crescente di Corporation si preoccupa per l’impatto sui valori del brand, la grande maggioranza delle aziende è motivata dai risparmi sui costi crescenti di dispositivi It e di infrastrutture di supporto e le sta bene “dipingerli di green”. “Ma al di là dell’efficienza energetica, bisognerà ovviamente riconsiderare strategicamente nel loro insieme processi gestionali diversi, come le gestioni dell’edificio, degli asset e dei rifiuti, l’architettura tecnologica, il capacity management dei dispositivi It e i servizi di supporto. Ad esempio, i dispositivi It vanno scelti in base all’impatto del loro ciclo di vita sull’ambiente, e i servizi di supporto alla loro eco-efficienza oltre che ai livelli di servizio e ai requisiti di performance”, spiega Kumar.
Per far funzionare e raffreddare l’infrastruttura hardware, è probabile che nei grandi data center il consumo di energia continui a crescere per i prossimi dieci anni, anche se con una curva a dente di sega. Che si spiega (vedi figura1) con gli effetti contrapposti della piattaforma tecnologica (richiede un incremento di potenza al crescere dei volumi), e di ogni introduzione di una nuova tecnologia (a livello ad esempio server, software gestionale, raffreddamento liquido).

Figura 1 – Crescita del consumo di energia nei data center


Il problema centrale è senza dubbio l’uso efficiente dell’energia, che viene o consumata dai sistemi di raffreddamento (impianto di raffreddamento, pompe e ventilatori) e dagli impianti elettrici (illuminazione, alimentazione e trasformatori), o assorbita dall’infrastruttura It.
Un primo indicatore è il Power Utilization Effectiveness (Pue), ossia il carico totale di energia del datacenter diviso il consumo utilizzato per il solo equipaggiamento It (esclusa quindi l’energia necessaria per il raffredamento, illuminazione ecc.). L’avvicinamento all’unità è un indice di disegno energetico efficiente del data center, (vedi figura 2). “Di conseguenza, gli obiettivi di più immediato interesse sono i risparmi sull’energia spesa in raffreddamento, in impianti elettrici e in distribuzione. Oltre naturalmente a un’efficienza nel carico di lavoro della stessa It, perseguibile con un uso energetico efficiente del server”, dice l’analista Gartner.

Figura 2 – Valore del pUE nei diversi approcci nella realizzazione di un datacenter in ottica Green


Sempre più normative
C’è comunque attesa anche di maggiori incentivi governativi (in Usa) o di un rafforzamento legislativo in termini di imposizione di standard ambientali (in Ue). Lo stato dell’arte in Usa è la Legge 109-431, approvata dal Congresso nel 2007, che fissa tre scenari target per i data center, dal punto vista dell’uso efficiente di energia: operazioni “improved” (risparmi energetici del 20%), best practice (del 45%) e stato dell’arte (del 55%). Sono probabili incentivi corrispondenti, con la nuova Presidenza. Nella Ue, ci sono già direttive come la Waste Electrical and Electronic Equipment, che responsabilizza i fornitori nello smaltimento dei rifiuti, o la Restrictions on Hazardous Substances (RoHS). Ci sono linee guida per gestire in modo efficiente i data center (European Union Code of Conduct on Dc). Si delinea in prospettiva la Certificazione Leed (Leadership nel Disegno Energetico e nell’Environment), emessa per la costruzione di edifici dall’U.S. Green Building Counicil (www.usgbc.org). La certificazione non è specifica per i data center, ma Gartner individua un crescente interesse a farsi certificare “Leed” proprio nella costruzione di questi (alcune aziende lo hanno già fatto).
Un caveat infine sul Greenwash, che secondo la definizione di Wikipedia è“una crasi fra Green e White-wash (copertura), che descrive l’atto con cui un fornitore inganna i clienti sulle pratiche o sui benefici ambientali di un prodotto o un servizio”. Kumar snocciola sei “peccati” di greenwashing cui porre attenzione: compromessi nascosti con altri attributi non green; nessuna prova di un’affermazione; vaghezza; irrilevanza; la tesi sul “minore dei due mali”; “una pura bugia”.

Tecnologie e tecniche di Disegno
per un risparmio energetico
Bisognerà anzitutto controllare l’efficienza energetica del data center. Data la complessità, “servirà un certo numero di metriche”. Tener sotto controllo e misurare le perdite sistematiche nei vari componenti del data center (sistemi di raffreddamento, impianti elettrici, infrastruttura It) è la più importante, ma serve ovviamente anche misurare l’effetto dei carichi di lavoro It sul consumo energetico, l’effetto della maturità dei processi operativi o delle condizioni climatiche.
Secondo Gartner, ci sono alcune pratiche di base raccomandate per ottimizzare il flusso dell’aria fredda come, per esempio, tappare tutte le brecce negli elementi del pavimento (questo accorgimento da solo può far risparmiare fino al 10% dell’energia consumata nel raffreddamento); usare pannelli di riempimento per ogni posizione non utilizzata in un rack, evitando che attraverso il buco l’aria calda che esce da un dispositivo sia risucchiata sul lato freddo di un altro dispositivo dello stesso rack; rimuovere le ostruzioni sotto il pavimento rialzato, ripulendolo da cavi di dati o elettrici abbandonati, che disturbano o ostruiscono la distribuzione di aria fredda. Con sensori e ventilatori si può anche dirigere il flusso d’aria sotto il pavimento nella direzione più utile. Inoltre, è possibile disporre i rack realizzando un corridoio caldo e uno freddo fra loro alternati (vedi figura 3), il che garantisce una maggior differenza di temperatura e una maggior efficienza nel sistema di raffreddamento. Tradizionalmente si disponevano i rack stile “banchi di scuola”, con l’aria calda che, uscendo dalla fila davanti, si mescolava con l’aria fredda della fila dietro.
La modalità di gestione ottimale dei corridoi caldo e freddo e che dà il maggiore vantaggio è quella del contenimento, cioè una separazione completa delle due masse d’aria, realizzando una barriera adiabatica sopra e attorno ai rack, fra corridoio freddo e corridoio caldo.
La figura 3 mostra un contenimento dell’aria fredda, che può avere un payback di pochi mesi nei data center esistenti a pavimento sollevato. Il contenimento dell’aria calda, costretta a tornare verso il Computer Room Air Handler (Crah) attraverso tubi senza mescolarsi con altra aria è indicato invece per quelli di nuova costruzione.
Oltre a queste pratiche di base, si può ricorrere a Crah o condizionatori dotati di ventilatori a velocità variabile (Variable speed Drive o Vsd), per un’erogazione del raffreddamento modulata in funzione delle necessità di carico, e un conseguente minor consumo dell’energia di raffreddamento (che incide da un 4% a un 21% sul totale). Con una riduzione della velocità del Vsd rispettivamente del 10%, del 20% e del 40%, ci si possono attendere riduzioni del consumo di energia di raffreddamento dell’ordine del 27%, del 49% e addirittura del 75%.
Come trend, anche il sistema del pavimento sollevato sembra aver fatto il suo tempo, superato dal raffreddamento diretto tra le file (vedi studio di Sun e Lawrence Berkeley National Labs – – in tre data center che hanno adottato questa tecnologia si rileva una notevole diminuzione da 0,4 kW/tonn. di refrigerante fino a 0,15 e a 0,05.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2