I data center possono avere un impatto significativo sui profitti di un’azienda perché rappresentano il cuore infrastrutturale attraverso il quale l’It eroga servizi di valore in grado di aiutare gli utenti a svolgere meglio e con maggior produttività il proprio lavoro, oltre a rappresentare l’elemento cardine dei servizi esterni resi ai clienti e ai partner/fornitori. Se ciò è vero ‘sulla carta’, la realtà dei fatti è ben diversa, dato che la maggior parte dei data center aziendali risulta oggi spesso obsoleto, inefficiente sotto il profilo energetico, organizzato ‘a solos’ tecnologici complessi da gestire e con costi operativi e di manutenzione molto elevati. Un quadro che sta tuttavia mutando grazie alle innovazioni introdotte dalla virtualizzazione e dal cloud che spingono le organizzazioni a rivedere le proprie architetture infrastrutturali in un’ ottica di maggior dinamicità e flessibilità nell’allocazione e gestione delle risorse; il tutto a sostegno di servizi It sempre più orientati verso la mobilità, il social business, l’analisi in real-time dei big data.
Le esigenze di dinamicità e flessibilità che hanno contribuito al ‘successo’ della virtualizzazione e all’evoluzione verso modelli di cloud hanno fatto emergere importanti criticità legate alla gestione dei data center rendendo non più efficaci gli strumenti tradizionali di gestione delle infrastrutture fisiche il cui campo di applicazione era limitato e richiedevano un notevole intervento manuale. Gli strumenti di ‘prima generazione’, per esempio, consentivano di generare all’interno della piattaforma di gestione un elenco precaricato di dispositivi/macchine e di segnalare l’aumento, oltre una soglia prestabilita, della temperatura di entrata di un’unità Crac (Computer Room Air Conditioner, ossia dei condizionatori per i locali che ospitano le macchine server e l’infrastruttura del data center), senza tuttavia avere un quadro specifico delle apparecchiature e del perché potesse verificarsi l’aumento o meno della temperatura o l’innalzamento del condizionamento. Gli strumenti, infatti, non erano in grado di individuare la correlazione tra il dispositivo di raffreddamento dell’infrastruttura fisica e il singolo server e quindi non erano neanche in grado di intraprendere azioni per prevenire i tempi di fermo macchina, come per esempio aumentare la velocità delle ventole per dissipare il calore dei punti caldi.
Migliorare la pianificazione, ridurre i costi
L’esempio riportato riguarda il controllo dell’efficienza energetica ma gli strumenti Dcim (Data Center Infrastructure Management) di seconda generazione sono concepiti per identificare e risolvere problemi, con un intervento minimo da parte dell’uomo, attraverso la correlazione tra risorse di alimentazione, raffreddamento, spazio e singoli server, fornendo poi ai sistemi di gestione It informazioni relative all’eventuale presenza di problemi dell’infrastruttura fisica e alle possibili conseguenze che possono avere su carichi It specifici. Soprattutto in ambienti cloud altamente virtualizzati e dinamici, i dati in tempo reale relativi alla costante variazione nella capacità di alimentazione e raffreddamento sono fondamentali per garantire una collocazione sicura dei server.
Uno degli aspetti più rilevanti nell’ambito della gestione delle infrastrutture data center riguarda la pianificazione dei sistemi: rispetto alle esigenze aziendali che nell’odierna digital economy mutano molto rapidamente, poter contare su un’infrastruttura tecnologica altrettanto dinamica risulta ormai imprescindibile.
Vanno in questa direzione gli strumenti software di pianificazione che illustrano, attraverso interfacce grafiche intuitive e in grado di fornire più informazioni in un un’unica vista, lo stato fisico del data center mostrando anche gli impatti, le conseguenze, le ricadute di determinate scelte come eventuali aggiunte infrastrutturali, spostamenti e modifiche di macchine fisiche che hanno un impatto sulle capacità di alimentazione e raffreddamento e, quindi, sui costi e sulle prestazioni dei sistemi.
Ragionare in ottica di prevenzione significa non soltanto simulare gli effetti di determinati interventi all’interno del data center ma anche cambiare approccio rispetto alla gestione tout court del data center attraverso una strategia più orientata all’efficienza operativa e di processo. Gli strumenti di pianificazione non solo consentono di avere una migliore capacità di simulazione dei risultati, ma aiutano anche a gestire l’inventario delle architetture, i flussi di lavoro operativo e i processi di gestione, manutenzione, interventi straordinari, ecc. senza dover ricorrere, come un tempo, ai cosiddetti ‘fermo macchina’, con inevitabili ricadute sulla produttività del business (oltre a considerare l’aspetto dei costi da sostenere).
Stiamo parlando di un nuovo approccio che non riguarda solo gli ambienti fisici, ma anche quelli virtuali; nei nuovi ambienti cloud di tipo privato, per esempio, la selezione e l’implementazione dell’host sono aspetti delicati e la presenza di numerose macchine virtuali e applicazioni in esecuzione su ogni singolo host rende ancora più critico lo stato e la disponibilità di ciascun computer fisico. In ambienti di questo tipo, gli strumenti di pianificazione servono, da un lato, a garantire che ogni macchina fisica disponga dell’alimentazione e del raffreddamento necessari per rimanere operativi, dall’altro a migliorare l’efficienza delle operazioni necessarie a gestire e mantenere l’ambiente virtuale controllandone i costi.
Verso una miglior efficienza energetica
L’intelligenza degli strumenti di pianificazione e controllo dei data center permette al sistema It di informare i responsabili aziendali sulle conseguenze delle loro azioni prima che vengano prese decisioni relative all’aggiunta di server (fisici o virtuali) o di altre infrastrutture. Le decisioni aziendali che comportano un maggior consumo di energia nel data center, per esempio, hanno una ricaduta diretta sul ‘carbon footprint’ e sui costi energetici, mentre il consumo di energia dovrebbe essere allineato alle esigenze e ai risultati aziendali.
Quello del consumo energetico è un problema tutt’altro che superato: numerosi studi dimostrano come il consumo di energia sia un costo sostanziale delle operazioni It che, in alcuni casi, supera addirittura il costo dell’hardware stesso (fonte: Dipartimento dell’energia degli Stati Uniti, “Creating Energy Efficient Data Centers”). Fortunatamente il livello di maturità delle aziende rispetto alla ‘cultura energetica’ è ormai consolidato (grazie anche alla sensibilità rispetto al fattore risparmio di costo) e si sta facendo molto sul fronte del controllo e della gestione per raggiungere livelli di efficienza energetica sempre più elevati che consentano contemporaneamente di ridurre i costi e i negativi impatti sull’ambiente.
Uno dei sistemi di misurazione più utilizzati oggi per il controllo dei consumi energetici di un data center è la metrica Pue (Power Usage Effectiveness) divenuta standard internazionale. Il parametro Pue indica il rapporto tra il consumo elettrico complessivo di un data center (architetture e infrastrutture Ict, condizionatori, ventilatori, Ups, ecc.) e il consumo dei soli apparati It. I consumi energetici delle apparecchiature It che svolgono il ‘lavoro utile’ in un data center rappresentano infatti in media solamente il 50% dei consumi totali, in quanto il restante è diviso tra sistema di raffreddamento (circa il 30%) e di alimentazione elettrica. A fini energetici è quindi fondamentale che la parte di consumi relativi alla continuità elettrica e raffreddamento siano i minori possibili. Sul piano It, invece, nella scelta delle apparecchiature e dei sistemi si dovrebbe tener conto oltre che delle prestazioni, anche della potenza assorbita dalle infrastrutture. Queste sono le responsabili del ‘lavoro utile’ del data center, ma anche della produzione del calore che deve essere dissipato. Minore potenza elettrica richiesta equivale a minore calore prodotto. Nella scelta della Cpu, per esempio, è molto importante non solo valutare le performance di calcolo, ma anche il rapporto con la potenza assorbita (performance per Watt) e come questo varia in base alla percentuale di utilizzazione.
Nell’ottica dell’efficientamento energetico, i sistemi di gestione delle infrastrutture data center consentono oggi di generare un valore Pue quotidiano per averne quindi un tracciamento storico; tale raccolta di dati permette di analizzare se la riduzione dei costi di gestione e le strategie di risparmio energetico stanno effettivamente producendo gli effetti desiderati.