Efficienza energetica: ottimizzare alimentazione e raffreddamento

Calcolare l’efficacia di utilizzo dell’elettricità in un data center basandosi solo sul rapporto tra energia e carichi It non è sufficiente. Intraprendere una concreta ed efficace strada verso l’ottimizzazione richiede un approccio strutturato che tenga conto anche dei sistemi di power energy & cooling. È necessario identificare un “modello dell’efficienza”.

Pubblicato il 01 Ott 2013

Data Center

Fino a qualche anno fa l'efficienza energetica dei data center raramente veniva presa in considerazione nelle fasi di pianificazione e ottimizzazione delle infrastrutture; di conseguenza, aveva poco peso anche nelle operazioni di manutenzione e gestione. Una maggiore esigenza di controllo sui costi ha però fatto emergere, in molti casi, evidenti sprechi di energia sia nei consumi di elettricità per l’alimentazione delle macchine presenti nelle sale server, sia per il raffreddamento delle apparecchiature e il condizionamento degli ambienti. Le strategie di consolidamento e ottimizzazione dei data center che hanno spinto a un uso massivo della tecnologia di virtualizzazione hanno generato indiscutibili vantaggi (riduzione dello spazio fisico occupato, della potenza necessaria per alimentare le macchine, dei costi energetici ecc.); tuttavia, ulteriori benefici potrebbero essere raggiunti estendendo le strategie di consolidamento/ottimizzazione anche alle cosiddette ‘infrastrutture di supporto’, ossia alle tecnologie utilizzate per il dimensionamento dell'alimentazione e del raffreddamento.

Primo step, misurare l’efficienza

Secondo alcune recenti analisi condotte da Schneider Electric, durante il suo ciclo di vita, un data center ad alta disponibilità da 1 Mega Watt può comportare costi energetici pari a 20.000.000 di dollari (ipotizzando un ciclo di vita medio tra i 7 e i 10 anni, considerando tuttavia che le infrastrutture It interne hanno cicli di vita molto più brevi). In molti casi, il costo complessivo dell’elettricità è superiore a quello dell’investimento in hardware It, questo perché infrastrutture di alimentazione e raffreddamento consumano, da sole, il 50% o più della corrente elettrica disponibile (l’ideale sarebbe invece che tutta l’alimentazione energetica fosse spesa solo per supportare i carichi It). Per ovviare a situazioni di questo tipo si lavora da diversi anni a livello internazionale per definire best practices e framework standard utili a contenere i costi, da un lato, e dall’altro a ridurre gli impatti ambientali di implementazioni ‘energivore’ come quelle tipiche dei data center. L'indice PUE (Power Usage Effectiveness), per esempio, è lo standard di settore utilizzato per misurare l'efficienza di un data center: tanto più è vicino a 1, maggiore è l'efficienza dell'infrastruttura. L’indice, infatti, è il risultato del rapporto tra l'alimentazione energetica complessiva del data center e l’energia necessaria a fornire potenza ai carichi It (cioè l’energia spesa solo per l’It e non per le altre infrastrutture quali condizionamento, illuminazione, gruppi di continuità, generatori, sistemi di sicurezza, ecc.). L’ideale, come si diceva è avere un indice pari ad 1: ciò significherebbe che tutta l’energia in ingresso sarebbe effettivamente consumata solo a supporto dei carichi It. Una situazione ottimale che, tuttavia, risulta sostanzialmente impossibile da raggiungere perché, di fatto, gli altri sistemi all’interno del data center necessitano, a loro volta, di energia elettrica per funzionare. Dato che la domanda di potenza per i carichi It è in continua crescita (soprattutto se pensiamo a trend come cloud, mobility, big data e social media), gli interventi sul fronte dell’efficienza iniziano fin dalla produzione dei sistemi sempre più smart per controllare al meglio la spesa energetica (in supporto sono arrivate negli anni anche tecnologie che hanno spinto sempre più verso la standardizzazione e la virtualizzazione).

Lo stesso vale per i produttori di sistemi e apparecchiature che, come abbiamo visto, non servono direttamente a fornire potenza It ma all’interno di un data center dovrebbero incidere sulla spesa energetica il meno possibile. Se l’indice pari a 1, come accennato, potrebbe rappresentare la situazione ottimale ma alquanto improbabile, l’ideale sarebbe poter controllare l’efficienza energetica dei sistemi non It per tenere l’indice Pue il più possibile vicino all’1 al fine di controllare al meglio i costi (facendo un esempio in termini monetari, un PUE di 1,2 rispetto a un PUE di 1,6 per una tipica sala dati di 500 m2 può comportare un risparmio di oltre 3,5 milioni di euro sui costi energetici nell’arco di dieci anni.

Ma come misurare l’efficienza di quei sistemi e apparecchiature non direttamente coinvolti nel carico It?

I produttori forniscono dati sull'efficienza delle apparecchiature di alimentazione e raffreddamento. Per le apparecchiature di alimentazione, l’efficienza è in genere espressa in percentuale, mentre l’efficienza dell'apparecchiatura di raffreddamento è espressa in diversi modi, in genere come coefficiente delle prestazioni (Cop) per le pompe di calore, rapporto tra calore (kW) rimosso ed energia elettrica (kW) consumata, Kw/tonnellata per i refrigeratori ed Eer (rapporto di efficienza energetica) per i sistemi da tetto. Queste misure non forniscono però dati completi sull'efficienza, poiché i loro valori nominali sono calcolati utilizzando un unico rilevamento a temperatura e umidità standard mentre l’efficienza effettiva dell’apparecchiatura varia in base alle condizioni che si verificano nel corso dell'anno (ambienti dove vengono installati, condizioni climatiche, reale utilizzo che se ne fa ecc.).

Il Pue, da solo, non è dunque sufficiente a misurare l’efficienza di un data center: vi sono diverse variabili nell'ambiente che hanno un impatto notevole sull’efficienza complessiva; parliamo di variabili che dipendono, ad esempio, dall’effettivo carico It e del suo impatto sugli altri sistemi presenti nel data center, le condizioni esterne, le configurazioni degli utenti, le impostazioni e le performance delle apparecchiature.

Modelli di efficienza: verso l’ottimizzazione

Come abbiamo visto, per poter intraprendere una strada verso l’ottimizzazione del data center che sia realmente omnicomprensiva, è necessario misurarne l’efficienza a più livelli e tenendo conto di molte variabili (carico It, condizioni meteo, performance e utilizzo dei sistemi da parte degli utenti, ecc.).

Un approccio di questo tipo richiede modelli matematici complessi che consentono però di raffigurare nel dettaglio l’attività di un data center nel suo complesso dal quale ricavare poi tutte le informazioni necessarie alla sua gestione (anche da un punto di vista energetico). Stiamo parlando di modelli riportati all’interno di console tecnologiche che, di fatto, consentono di immagazzinare, raccogliere, collegare e analizzare tutti i dati inerenti il data center, con vantaggi in termini di:

1) previsione accurata delle prestazioni in termini di efficienza, in anticipo, in una nuova progettazione di data center;

2) stima accurata delle prestazioni (efficienza) di un data center già funzionante anche per condizioni difficili da misurare, quali carichi It diversi (picchi stagionali, downtime notturni ecc.) o particolari condizioni di riferimento per una data azienda;

3) analisi e stima delle prestazioni energetiche in situazioni dove vi sono solo informazioni parziali (dove non è agevole misurare il consumo energetico di tutti i circuiti e i componenti presenti nel data center) o dove i dati sono riferiti a condizioni esterne al data center;

4) identificazione e quantificazione della misura in cui gli specifici dispositivi dei sistemi di alimentazione, raffreddamento e illuminazione contribuiscono all’inefficienza del data center.

L’ottimizzazione dell’efficienza energetica, in sostanza, è un processo continuo di analisi e aggiornamento; una singola misurazione dell'efficienza del data center in un determinato momento è puramente informativo, ma non produce alcun effetto sul piano dell’ottimizzazione e, soprattutto, non fornisce le informazioni utili per stabilire eventuali interventi correttivi.

Secondo gli studi di Schneider Electric, l’ottimizzazione di un data center sotto il profilo dell’efficienza energetica deve inoltre consentire, attraverso specifici modelli matematici, di individuare e comprendere preventivamente le eventuali cause e i rischi di inefficienze. Tale approccio rappresenta quello che la società chiama ‘modello di efficienza’, che non può essere unico per tutti. Ogni azienda deve identificare il proprio modello attraverso cui analizzare e gestire accuratamente l'attività del data center; un modello, ad ogni modo, dove gli input non provengono solo dall’analisi del carico It, ma anche da dati esterni come per esempio le statistiche sulle condizioni meteorologiche che potrebbero incidere sul programma di gestione dell'energia del data center.

A differenza della misurazione dei dati in un data center effettivamente funzionante in un dato momento (approccio tradizionale ancora oggi utilizzato per definire le strategie di management di un data center), che fornisce solo dati inerenti le condizioni rilevate al momento della misurazione, un ‘modello di efficienza’ può fornire dati per qualsiasi condizione di input immessa. Ad esempio, un modello può fornire il valore previsto di efficienza di un data center a pieno carico anche quando il carico It effettivo in un dato momento non è a pieno regime. Non solo: sfruttando l’analisi preventiva è possibile immettere nel modello matematico le stesse condizioni di input di due data center diversi per permetterne il confronto e capire qual è il proprio livello di efficienza. Attraverso la misurazione tradizionale su un data center funzionante, non è possibile modificare i dati sulla situazione meteorologica o il carico It. Quando si effettua una singola misurazione ‘istantanea’, non c’è scelta, si ottengono come risultati il carico It attuale e le condizioni meteorologiche del momento. Un ‘modello matematico di analisi preventiva’ consente invece di effettuare misurazioni inserendo dati differenti (statistiche, previsioni, ecc. come abbiamo visto) migliorando la capacità di governare le prestazioni operative fondamentali del data center e ragionare quindi in un’ottica di miglior efficienza energetica.

Un approccio di questo tipo, consente inoltre di estendere i benefici dell’ottimizzazione del data center a tutti i livelli, non solo It, con il consolidamento e l’efficientamento delle ‘infrastrutture di supporto’ per il power energy & cooling.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2