Da alcuni anni a questa parte il data center è oggetto di una serie di profondi mutamenti sia per le funzionalità sia per l’infrastruttura. Per quanto riguarda le funzionalità, i cambiamenti sono indotti dal nuovo ruolo assunto dall’It nell’impresa che ormai, nella maggioranza dei casi, si va evolvendo da mero strumento operativo a elemento a supporto del business e della competitività. Sul data center aziendale confluiscono quindi compiti e servizi nuovi, ad alto valore per il business, mentre quelli tradizionali sono spesso dati in outsourcing, con relativo impatto sui Centri dei service provider. Mentre le prospettive del SaaS e del Cloud computing stanno per avviare un’evoluzione ulteriore, capace in teoria di portare alla scomposizione del data center in punti dispersi e specializzati per funzione, uniti solo dalle logiche di gestione e controllo.
Per quanto riguarda l’infrastruttura, i mutamenti in atto, che investono server, storage e network, sono volti a soddisfare sia le esigenze di potenza imposte dai nuovi servizi It (che devono gestire enormi volumi di dati fornendo risposte sempre più veloci), sia soprattutto quelle di flessibilità determinate dal contesto operativo in cui questi servizi vanno erogati. Di questa evoluzione intendiamo appunto trattare un aspetto specifico ma fondamentale, e cioè l’impatto economico e ambientale derivante dai consumi energetici dell’infrastruttura del centro dati, problematica che va sotto il nome di ‘Green Data center’.
Di Green Dc si parla da tempo. Secondo un’indagine di un paio d’anni fa svolta presso le aziende ‘Global 2000’, sebbene più del 70% degli intervistati si dichiarasse interessato al problema, solo il 14% aveva attuato delle iniziative su questi aspetti. Oggi però i problemi economici, più che la sensibilità all’ambiente, hanno cambiato la situazione. Perché è vero che consumando meno energia s’immette meno CO2 nell’aria e si rallenta l’innalzamento della temperatura del pianeta, ma è ancor più vero che si risparmia un sacco di soldi. La ‘bolletta’ di uno dei maggiori gruppi bancari italiani è di 150 milioni di euro all’anno, equamente ripartita tra riscaldamento, illuminazione e ‘macchine d’ufficio’; i suoi computer, cioè, assorbono 50 milioni di euro l’anno in energia; ogni punto percentuale di riduzione porta 500 mila euro a casa. Vale la pena provare. Ma anche per una Pmi il gioco vale la candela. Consolidando e virtualizzando anche pochi server, si realizzano risparmi che in generale ripagano già entro il primo anno gli investimenti fatti. E in più ci si può fregiare del titolo di ‘azienda green’, che nel marketing non guasta mai.
Software e hardware, uniti al risparmio
Abbiamo parlato di virtualizzazione perché le soluzioni software per il consolidamento e la virtualizzazione dei server sono gli strumenti preferiti per ottenere, oltre ai noti vantaggi in termini di flessibilità operativa, un notevole risparmio energetico. Questo deriva dalla maggiore efficienza con la quale le macchine fisiche sono utilizzate, che permette di ridurne drasticamente, anche di un ordine di grandezza, il numero, con guadagni diretti (minore alimentazione e raffreddamento) e indiretti (meno spazio occupato e quindi meno illuminazione e condizionamento) sull’energia. Sono fatti noti, tanto che da una recente indagine Symantec risulta che la riduzione dei consumi energetici gioca un ruolo chiave nel decidere l’avvio del 68% dei progetti di server virtualization. Lo stesso discorso si applica ai sistemi storage dove, oltre alle soluzioni di virtualizzazione i cui vantaggi energetici derivano dallo stesso principio di sfruttamento ottimale delle risorse fisiche utilizzato per i server, hanno grande importanza le soluzioni di de-duplicazione dei dati. Soluzioni che riducono non solo il fabbisogno di spazio su disco ma anche il numero degli accessi ai dati, risparmiando su quella che è la maggior fonte di consumo di un disk array.
Per proseguire nel risparmio d’energia, dopo le soluzioni di server e storage virtualization, occorre però mettere mano all’hardware. Qui le strade sono due, che procedono spesso in parallelo: l’adozione delle architetture ‘blade’ e di Cpu ad alta efficienza energetica da un lato e l’adozione di sistemi parimenti ad alta efficienza per la gestione dell’alimentazione e soprattutto del raffreddamento dall’altro. Dell’architettura blade abbiamo già scritto in dettaglio (vedi ZeroUno n. 325). In sintesi, i vantaggi energetici che questa offre, che a parità di potenza di calcolo disponibile possono ridurne anche del 30% il consumo, derivano principalmente dall’elevata densità (minore spazio occupato a parità di Cpu) e dalla maggiore efficienza dei gruppi di alimentazione, che servono più Cpu nello stesso tempo. Purtroppo, il rovescio della medaglia è che la densità delle unità di calcolo e, nelle singole unità, dei processori multi-core, aumenta il bisogno di raffreddamento, che in un data center è responsabile di più della metà della spesa totale in energia elettrica.
Il problema è noto e l’approccio per poterlo superare è duplice. Sul lato server i costruttori di processori hanno sviluppato una nuova generazione di chip multi-core (i cui più recenti esempi sono gli Xeon 5500 di Intel, per i server x86, e i Power7 di Ibm per i server Aix-Unix), che grazie a una elevata parallelizzazione dei thread sui diversi nuclei di calcolo e alla variazione del clock in funzione del carico di lavoro forniscono prestazioni elevate consumando meno energia. Sul lato raffreddamento Apc (che fondendosi con Schneider Electric è oggi praticamente l’unico vendor di Ups di classe Data center) ha sviluppato sistemi integrati che gestiscono in modo ‘intelligente’ sia l’alimentazione sia il raffreddamento in funzione dello stato di attività delle macchine, riducendo gli sprechi di energia.
Esiste però una ‘terza via’ al Green Data center, ed è quella che, attraverso un progetto tuttora in corso ma che ha già fornito importanti risultati, promette una riduzione dei consumi energetici ottenibile sfruttando il materiale esistente senza dover sostituire né i server né i sistemi di raffreddamento. Il progetto Energ-It, promosso dalla Fondazione Politecnico e dal Dipartimento di Elettronica e Informazione del Politecnico di Milano, finanziato dalla Regione Lombardia e svolto in partnership con tre società (Beta80, Enter e Neptuny) cui sono state affidati specifici compiti e ruoli. Si basa su un’idea di partenza tanto semplice quanto innovativa: portare l’elaborazione più intensiva dove più efficace è il raffreddamento.
Come spiega Eugenio Capra (nella foto a destra)
Un vantaggio non da poco per qualsiasi impresa.