I data center continuano a giocare un ruolo importante nella corsa all’innovazione. Queste strutture, assieme alle reti che le interconnettono, restano tra i candidati protagonisti anche della svolta ecologica che le aziende devono compiere, mentre cercano di restare competitive.
Secondo i dati dell’Agenzia Internazionale dell’Energia (AIE) sono i responsabili del 3% del consumo globale di elettricità e di quasi l’1% delle emissioni di gas serra legate all’energia. È impensabile non preoccuparsi per la loro efficienza, non fosse altro che per il costo dell’energia, impennatosi proprio in questi ultimi anni.
Su questa ovvia priorità globale si concentra un nuovo rapporto dell’Uptime Institute, affrontandola con un approccio più originale, puntuale e pratico. Per prima cosa, infatti, osserva che i server possono rappresentare più della metà del consumo energetico di un moderno data center. Va da sé, quindi, che l’efficienza energetica di tali strutture diventa un’area chiave su cui le aziende devono concentrarsi se vogliono raggiungere gli obiettivi di sostenibilità.
La regola del pieno funzionamento
La prima e più importante conclusione a cui si giunge in questo rapporto riguarda il fatto che i server più recenti possono offrire un discreto miglioramento dell’efficienza energetica, ma vale la pena di cambiarli solo se si riesce a continuare a garantirne il pieno utilizzo.
Non si tratta di una considerazione di buon senso o di una delle tante best practice da manuale. Basandosi sull’analisi del database Server Efficiency Rating Tool (SERT) di Green Grid, solo per i server x86, il rapporto fornisce dati a supporto di questa tesi che la rendono pressoché indiscutibile.
Con un utilizzo della CPU al 50%, l’aumento dell’efficienza tra l’hardware del 2017 e quello del 2019 è del 34% per i server Intel e del 140% per i server AMD.
Tra le generazioni di hardware del 2019 e del 2021, i server Intel hanno poi registrato un aumento del 32%, mentre la cifra è del 47% per AMD.
In parallelo, va considerato anche il fatto che l’efficienza media di un server aumenta di almeno il 50% quando l’utilizzo della CPU viene raddoppiato da livelli bassi (20-30%) a livelli più alti (40-60%).
Ciò significa che, prima di gettarsi ad acquistare nuovi server in nome della sostenibilità ambientale, meglio sarebbe provare ad aumentare l’utilizzo dei server esistenti. È infatti combinando un maggior utilizzo con un aggiornamento del server, che si possono ottenere reali miglioramenti dell’efficienza. Secondo l’Uptime Institute anche superiori al 100 percento.
Alimentazione, potenza di calcolo e latenza: i conti non tornano
L’idea di poter elaborare più del doppio del carico di lavoro con la stessa quantità di energia, con una notevole riduzione dei requisiti energetici quando si opera su scala, cambia le carte in tavola e le strategie sui tavoli dei manager.
A questa comprovata teoria, lo studio ne aggiunge un’altra che riguarda i sistemi di gestione dell’alimentazione. Secondo lo studio dell’Uptime Institute, intervenendo su questa parte, si possono apportare miglioramenti dell’efficienza di almeno il 10%. Non è una novità assoluta ma pochi ancora ne tengono concretamente conto. C’è un motivo più che comprensibile, però: potrebbero esserci degli impatti negativi sulle prestazioni di calcolo e sulla latenza.
Secondo il report, infatti, la gestione dell’alimentazione permette di ridurre la potenza inattiva del 41%, ma riducendo la capacità di lavoro dei server del 5-6%. Ci sarebbe anche il rischio di veder aumentare la latenza di 20-80 microsecondi, un ritardo inaccettabile per carichi di lavoro critici come il trading finanziario. Scatterebbe un forte rischio attorno alle violazioni degli accordi sul livello di servizio (SLA).
Si torna quindi a doversi concentrare sui server, ma non acquistandone voracemente di nuovi. Ciò che sarebbe pazientemente necessario fare è imparare a migliorarne dell’utilizzo, trovando il giusto equilibrio tra innovazione delle tecnologie, delle competenze e delle strategie.