“Eni ha sviluppato una grande sensibilità nei confronti del risparmio energetico e una forte attenzione all’impatto ambientale derivante dalla sua attività; per questo negli anni ha messo in campo azioni per diffondere questa sensibilità all’esterno e all’interno dell’azienda stessa nonché implementato tecnologie per ridurre l’impatto delle attività legate al suo core business e per massimizzare l’efficienza energetica al proprio interno”, esordisce Gianluigi Castelli, Cio di Eni, nel corso del suo intervento pubblico durante la Green It conference di Idc, tenutasi pochi giorni fa a Milano.
L’insieme di queste attività ha consentito al colosso italiano dell’energia, tra le altre cose, di entrare nel 2007 a far parte del Climate Disclosure Leadership Index, indice che raggruppa le imprese che sono risultate “best in class” sulla base delle risposte al questionario promosso dal Carbon Disclosure Project, iniziativa internazionale lanciata il 4 dicembre 2000, che ha l’obiettivo di valutare le strategie di risposta al cambiamento climatico da parte delle aziende più importanti a livello mondiale per capitalizzazione di borsa.
“L’Ict rappresenta sicuramente un asset molto importante nel perseguimento di questa strategia”, ha precisato Castelli, che ha ricordato alcune iniziative che, con il supporto dell’It, intervengono direttamente in alcuni processi di business, modificandoli nella direzione di un minor consumo energetico. Un esempio per tutti riguarda la gestione logistica dell’approvvigionamento dei carburanti: grazie all’It sono stati ridisegnati i percorsi delle autobotti, gli orari di trasferimento (in modo da evitare, per esempio, le ore di maggiore traffico) ecc. al fine di aumentare l’efficienza distributiva. Ma l’Ict in una realtà delle dimensioni e della complessità di Eni è esso stesso fortemente “energivoro” per cui la struttura sistemi informativi dell’azienda lavora da anni nella direzione di ottimizzare il consumo energetico. “Le direttrici lungo le quali ci siamo mossi hanno riguardato: la tecnologia, l’architettura/infrastruttura del data center, le facility, le applicazioni e i comportamenti”, precisa Castelli.
Dal consolidamento al nuovo data center
Per quanto riguarda la tecnologia vera e propria, la possibilità di intervento diretto è relativa e si concretizza nell’utilizzo di soluzioni allo stato dell’arte con, per esempio, processori a basso consumo ecc.; diverso è invece il discorso che riguarda l’architettura e l’infrastruttura del data center.
“Nel 2007 – spiega Castelli – abbiamo avviato un programma di consolidamento e virtualizzazione che ci ha portato a ridurre in modo drastico i server implementati: per quanto riguarda i server ad architettura Intel siamo passati da 750 a 21; per l’area dei server enterprise siamo passati da 210 a 19 server Sun, con una riduzione delle Cpu da 671 a 138, e da 185 a 7 server Hp, con una riduzione delle Cpu da 574 a 225”. La direzione sistemi informativi di Eni ha calcolato una riduzione di emissioni di anidride carbonica per watt di 2.900 tonnellate all’anno grazie a questo processo di consolidamento.
Passando all’analisi di quello che Eni sta facendo riguardo le facility correlate al data center, Castelli ha illustrato alcune caratteristiche di base del nuovo edificio che è in fase di progettazione e diventerà operativo nel 2012. Prima però di addentrarsi in questa descrizione, Castelli ha ricordato quali sono i cambiamenti nelle tecnologie che hanno portato alla necessità di riflettere sull’inadeguatezza delle infrastrutture dei data center di oggi e studiare luoghi completamente diversi dal passato.
“Un data center, in pratica, è una macchina che trasforma energia elettrica in calcolo e calore. Quello che riscontriamo oggi è che la densità media di energia elettrica utilizzata in un data center è notevolmente aumentata: negli anni ’90 era di circa 500 W per metro quadrato, oggi siamo sopra i 30 kW e questo rapporto è destinato ad aumentare. Tutto ciò perché l’evoluzione tecnologica dei calcolatori – spiega Castelli – li ha resi molto più tolleranti ai parametri ambientali, di temperatura e della qualità della corrente elettrica di alimentazione”.
L’alta densità genera il problema della dissipazione della potenza che è il grande fattore critico dei data center; per rendere più evidente la portata di questa problematica per il data center Eni, Castelli ha ricordato che Blue Gene, il supercalcolatore progettato da Ibm, assorbe 1,32 MW con un’efficienza di 248 Mflops al secondo per Watt, nel caso di Eni la potenza assorbita è di 0,8 MW con un’efficienza di 120 Mflops/s/W. “Visto che l’esplorazione sismica, fondamentale per l’attività di ricerca, si basa su queste macchine e visto che il tempo di elaborazione è un fattore critico per raggiungere gli obiettivi di business (accordi di esplorazione ecc.) la proiezione di consumo nei prossimi 10 anni è che un supercalcolatore assorbirà fino a 10 MW di potenza elettrica”, sottolinea Castelli che aggiunge: “Parametri fondamentali di funzionamento sono dunque la potenza generale disponibile e la potenza termica da gestire: ne consegue che lo spazio deve essere attrezzato in modo tale da gestire questi parametri nel modo più efficiente. I data center diventano quindi impianti industriali specifici, non sono più edifici riadattati e vanno progettati in funzione dell’altissima densità che deve essere dissipata”.
Il data center che Eni sta progettando traguarda sulla sua vita un consumo fino a 30W di potenza e un parametro che diventa essenziale considerare è il Pue (Power usage effectiveness) ossia il rapporto tra energia utilizzata per far funzionare il sistema ed energia di “contorno” per il raffreddamento ecc. “In un data center convenzionale oggi abbiamo un Pue di 3,3, il che significa che per ogni Watt di potenza consumata per il calcolo, 3,3 Watt vengono utilizzati per il raffreddamento e le strutture accessorie; lo standard dei moderni centri, i cosiddetti Green data center, è di un Pue di 1,5; il target del nuovo data center Eni è di 1,2 Watt medio annuo”.
Il nuovo data center sarà posizionato nei pressi di una centrale elettrica Eni, dalla quale proviene l’alimentazione primaria, mentre l’alimentazione secondaria è fornita da Terna. Castelli ha enucleato i contributi all’efficienza del nuovo data center: l’alimentazione primaria da una centrale Eni consente un risparmio del 15%, non solo per il minor costo dell’energia ma perché la vicinanza del data center alla centrale garantisce una dissipazione dell’energia più bassa; la relativa vicinanza a una raffineria consentirà inoltre di utilizzare l’acqua di falda estratta che la raffineria stessa deve aspirare dal terreno, con un ulteriore risparmio del 5% dovuto all’utilizzo di quest’acqua, a costo zero, per l’impianto di raffreddamento; trattandosi di un impianto industriale nei pressi di un altro impianto industriale ci sono meno vincoli paesaggistici e sarà possibile costruire torri di estrazione e di ripresa dell’acqua, per il free cooling diretto, alte fino a 40 metri, con un elevatissimo livello di efficienza energetica. “L’insieme di queste scelte adottate nella costruzione del data center consentirà ad Eni un risparmio di 28 milioni di euro all’anno; il ritorno dell’investimento, che è intorno ai 70 milioni di euro, è inferiore ai sei anni. Quindi, è un buon affare!”, afferma Castelli.
Il ruolo del software e il comportamento
Il ruolo del software nell’ottimizzazione dell’energia utilizzata è molto spesso sottovalutato. “E invece – dice Castelli – dovremmo porci alcune domande: quanto consuma il software? Il software che utilizziamo fa un uso efficiente della potenza di elaborazione, e quindi dell’energia? Credo che, negli ultimi 15 anni, dato che la potenza di calcolo da bene scarso è diventata un bene abbondante, si sia persa l’abitudine di scrivere del software fatto bene, del cosiddetto lean software”. Il gruppo sistemi informativi di Eni ha misurato l’impatto che alcuni miglioramenti al software hanno avuto sul tempo di elaborazione e, quindi, sul consumo energetico: in un caso, il tempo di accesso a una vista era di 3,5 secondi prima dell’intervento con un numero di buffer di 223.000 che è passato a 0,01 secondi con 163 buffer dopo l’intervento (e Castelli assicura che questo intervento ha richiesto mezza giornata di lavoro); in un altro caso, una semplice query di ricerca sul data base clienti è passata da 6,62 secondi a 0,01 e per ricerche più elaborate la riduzione del tempo utilizzato è andata da 14,49 secondi in un caso e 18,26 in un altro, rispettivamente a 0,01 e 0,05 secondi. Infine Castelli ha sottolineato l’importanza di trasmettere a tutti i dipendenti dell’azienda la necessità di agire in modo “sostenibile”: da un lato mettendo in atto tutte quelle policy tendenti a non sprecare energia (spegnere i dispositivi quando non si usano, utilizzare con attenzione le stampanti ecc.); dall’altro incentivando l’adesione a progetti, come il World Community Grid, che aiutino a consumare “consapevolmente”.