L’efficienza del datacenter è un concetto complesso che comporta il rightsizing e l’ottimizzazione continua dell’infrastruttura (IT e attrezzature), del personale e dei processi. Incrementare l’utilizzo del sistema è un modo per aumentare l’efficienza dei server e del personale, obiettivo raggiunto negli ultimi anni con la virtualizzazione e il consolidamento delle infrastrutture, soprattutto facendo scelte di investimento orientate verso sistemi standard. Secondo alcune analisi di Idc, però, da qualche tempo risultati interessanti sono stati registrati anche dai sistemi basati su Unix.
Come riportato nel report Idc “An effective choice for efficiency in the datacenter”, anche i sistemi basati su Unix hanno raggiunto elevati livelli d’utilizzo, come testimoniano i risultati emersi da alcune analisi che la società americana ha condotto direttamente sulle aziende utenti. Le aziende monitorate rivelano che i costi di acquisizione, gestione, manutenzione, alimentazione e raffreddamento dei server Unix, su base triennale per 100 utenti, risultano inferiori del 25% rispetto agli stessi costi per sistemi x86 (figura 1: costo totale superiore a 52.000 dollari per Unix rispetto al costo totale di oltre 77.000 dollari per i server standard).
La ‘grande vittoria’ dei sistemi Unix si rileva però sugli aspetti gestionali e di manutenzione. Il costo di gestione di un sistema Unix per 100 utenti nell’arco di tre anni è di 8.100 dollari, rispetto ai 50.400 dollari per i server x86. “La facilità di gestione è in parte dovuta all’accresciuto utilizzo e scalabilità del server Unix rispetto ai sistemi x86”, si legge nel report Idc. “I manager It sono in grado di consolidare qualsiasi carico di lavoro in un singolo sistema Unix con più facilità di gestione, maggior disponibilità di risorse e Tco inferiore”.
Nella comparazione delle infrastrutture su ambienti Unix rispetto ai server standard, ciò che emerge dall’analisi di Idc è sostanzialmente questo:
1) meno sistemi fisici da gestire: incrementare l’utilizzo di un sistema (aspetto sul quale sono risultati ‘vincenti’ i sistemi basati su Unix grazie a più elevate performance) comporta una riduzione dei sistemi fisici necessari per gestire lo stesso carico di lavoro, e, di conseguenza, maggiori tempi attivi, meno manutenzione, meno gestione e decisamente meno criticità operative;
2) riduzione del tempo del personale: utilizzando un numero inferiore di server, gli amministratori di sistema possono dedicare meno tempo alla manutenzione ordinaria, liberando risorse per l’innovazione oppure da dedicare con più efficacia ad aspetti critici quali la system integration;
3) diminuzione dei costi di alimentazione e raffreddamento: i server fisici rappresentano da soli la maggiore richiesta di alimentazione e i più alti costi di raffreddamento di un datacenter. Per le organizzazioni It, riuscire a consolidare i workload su un numero minore di server grazie all’aumento dei livelli di effettivo utilizzo degli stessi significa di fatto avere meno sistemi da alimentare e raffreddare, e, di conseguenza, costi delle utenze più contenuti e maggiore efficienza energetica.
Ottimizzazione degli ambienti virtuali
A dire il vero, ciò che negli ultimi anni ha consentito ancor di più di raggiungere superiori livelli di efficienza nei data center è la virtualizzazione, sia sui sistemi x86 sia sulle infrastrutture basate su Unix, proprio perché ha consentito di innalzare i livelli di utilizzo di ogni singolo server fisico. Non senza conseguenze, però, soprattutto sul piano gestionale. La partizione dei server, maggiorata proprio attraverso la virtualizzazione, risulta difficile da controllare, anche se, va riconosciuto, molti vendor negli anni più recenti hanno fatto ‘passi da gigante’ nella proposta di soluzioni di infrastructure management che consentono di orchestrare tutti i sistemi, fisici e virtuali, da un’unica console di gestione.
Le difficoltà maggiori sono dovute al fatto che ogni ‘zona’ del server e ogni macchina virtuale deve essere controllata e gestita come un server fisico: “ogni sistema logico opera su un server fisico che richiede alimentazione, raffreddamento, patching, monitoraggio e gestione. Senza la struttura fisica, i sistemi logici non possono funzionare”, dettaglia Idc nel report. “Allo stesso tempo, però, la continua crescita dei server virtuali, di fatto infrastrutture ‘mobili’ separate da quello che è in realtà il sistema fisico su cui ‘poggiano’, ha portato gli amministratori It a doversi concentrare più sui layer software che sulle infrastrutture hardware”.
Uno scenario che, secondo i dati riportati da Idc, ha comportato negli ultimi 5 anni un significativo aumento dei costi di gestione degli ambienti virtualizzati (figura 2).
La transizione verso mondi virtualizzati è dunque complessa e numerosi sono i punti critici sui quali i manager It devono porre la loro attenzione. Riprendendo i dati della figura 1 e ragionando sulle difficoltà evidenziate sul piano della gestione e della manutenzione dei sistemi, Idc raccomanda di fare molta attenzione ai costi: senza una strategia chiara che tenga conto di elementi quali la pianificazione dei carichi di lavoro, le performance delle infrastrutture, i workload applicativi e di tutto ciò che ‘passa’ attraverso i server, i costi operativi (Opex) continueranno ad aumentare facendo venire meno i risparmi in termini di Capex che la virtualizzazione dovrebbe garantire.
Scegliere sistemi altamente performanti
Come evitare dunque che la virtualizzazione aggiunga complessità operativa e di gestione nel datacenter, minando il percorso di efficienza? Secondo Idc la risposta è una sola: scegliendo infrastrutture hardware altamente performanti in grado di ‘reggere’ i sistemi virtualizzati.
Come già evidenziato, la ricerca effettuata presso le aziende mostra notevoli risparmi nella manutenzione e a livello di Tco attraverso l’impiego di server Unix come infrastruttura di base sulla quale consolidare e gestire più componenti del sistema, fra cui Cpu (processori), sistemi operativi e altri dispositivi associati (network, ecc.).
“È fondamentale per gli amministratori dei sistemi, i manager It e i gestori dei datacenter tenere in considerazione i Tco ma, soprattutto i costi di gestione, molto spesso trascurati, prima di scegliere un server o soluzioni di virtualizzazione”, riporta Idc nel documento. “Le organizzazioni It dovrebbero avere un approccio olistico nei confronti dell’efficienza dei datacenter, considerando tutte le risorse presenti, in particolare quelle che non vengono considerate come costi diretti, tipo quelle del personale e il tempo, che incidono soprattutto laddove la governance diventa complessa”.
Un’altra importantissima sfida per l’It è rappresentata dai ‘tempi inattivi’ provocati nel caso in cui un server fisico altamente virtualizzato dovesse risultare offline. In questo caso, l’efficienza del datacenter deve fare rima con affidabilità, disponibilità e funzionalità (Ras – Reliability, Availability & Serviceability). La situazione di minor efficienza, infatti, si registra solitamente quando un sistema risulta offline per un periodo prolungato (che può essere tollerato in ore per alcune realtà aziendali ma che per altre può essere addirittura rappresentato da pochi minuti) che richiede, di conseguenza, l’impiego di numerose risorse per il ripristino (personale, tempo, infrastrutture).
Mitigare rischi simili evitando di arrivare allo scenario peggiore (un sistema ‘in panne’ inaccessibile agli utenti di business) significa, ancora una volta, indirizzare gli investimenti verso sistemi altamente performanti in grado di garantire elevati livelli di Ras dell’hardware da cui dipendono poi le performance dei sistemi virtualizzati. Consolidamento e virtualizzazione, infatti, sono di sicuro i percorsi ottimali verso l’efficienza del datacenter ma, suggerisce Idc in chiusura, indirizzare carichi di lavoro multipli sullo stesso sistema hardware implica una più accurata attenzione ai livelli di affidabilità, stabilità e disponibilità del server così come dei sistemi di networking, di memorizzazione, di alimentazione e raffreddamento.