Blade server: un’architettura contro la crisi

Non c’è quasi progetto di server consolidation che non preveda la sostituzione di una parte delle risorse di elaborazione del data center con sistemi ‘blade’. Vediamo di capire i perché del successo di questa architettura sul fronte dell’availability, della flessibilità d’impiego e del risparmio energetico

Pubblicato il 11 Giu 2009

Tra i compiti che la funzione It è chiamata a svolgere in azienda, quelli che, secondo una ricerca Gartner svolta intervistando oltre 1000 Cio, occupano (e preoccupano) di più i manager responsabili riguardano l’area che si definisce ‘Infrastrutture e Operazioni’. Da questa nascono infatti oltre i due terzi dei progetti, dei problemi e delle iniziative che ne riempiono l’agenda e in questa confluisce il 70% del budget It delle imprese e il lavoro del 50% delle risorse umane. Dato che la missione delle Infrastrutture e Operazioni è di fornire servizi It al business, che i suoi problemi siano in cima ai pensieri dei Cio è normale. Quello che conta è piuttosto il fatto che oggi i Cio possano assolvere a tale missione avendo a disposizione strumenti decisamente più efficaci che in passato.
Le azioni che oggi guidano l’evoluzione dell’infrastruttura it nel nome dell’affidabilità e della flessibilità delle operazioni sono consolidamento e virtualizzazione. Nessuna prevede che occorra cambiare l’architettura dei sistemi da consolidare prima e virtualizzare poi, però si dà il caso che in una larga parte dei progetti di server consolidation in atto avvenga la sostituzione di una parte dell’infrastruttura, tipicamente quella dedicata alle operazioni che prevedono l’uso di macchine in cluster per l’esecuzione di compiti caratterizzati da carichi di lavoro sostenuti e variabili, con i blade server, la cui architettura consolida risorse di relativamente ridotte dimensioni e potenza in un insieme gestibile come una singola unità.
Un’analisi Gartner relativa al 2008 ha assegnato al settore dei blade server un tasso di crescita annuale e worldwide del 30% in quantità e del 30,6% in valore. Se confrontati con i dati relativi all’intero mercato dei server, che sono stati (secondo la stessa analisi) di un modesto +2,6% in volume e di un drammatico – 4,1 in valore, ciò significa che la domanda si è nettamente spostata verso questa architettura e che resterà elevata, come si può dedurre anche dalla tenuta dei prezzi in un contesto di contrazione dei costi dell’hardware.
Per meglio comprendere quello che un’infrastruttura basata su blade server ha da offrire sul fronte dell’availability, della flessibilità d’impiego e del consumo energetico (un tema che al di là dei discorsi sul ‘green computing’ e sull’ambiente si impone oggi per i risparmi economici che consente di realizzare) vediamo di chiarirci le idee sui blade server in quanto tali.
Un blade server è un insieme formato da un telaio che ospita un certo numero di schede elettroniche modulari, le ‘blades’, ciascuna delle quali è a sua volta un vero e proprio server, completo degli elementi necessari alle funzioni essenziali. Numero, tipologia e disposizione fisica di questi elementi sulla scheda variano da costruttore a costruttore, così come varia il numero delle blade ospitate in ogni telaio, dalle 8 di un server midsize alle 16 di un sistema di classe data center. Ciascuna scheda server (esistono anche schede storage, che possono essere combinate con quelle server in modo da ottenere, in un singolo telaio, un sistema completo avente varia configurazione) contiene processori, memoria Ram, controller di rete e porte di input/output. Inoltre, sovente le schede montano anche uno o due dischi Ata o Scsi in funzione di memoria di massa locale, mentre un adattatore per bus FC o iScsi permette di usufruire di un pool di risorse storage esterne.
L’architettura dei blade server è concepita per ottenere un sistema ad alta densità. Mentre un server tradizionale, sia esso in formato tower o rack, è completo di tutto e ha bisogno soltanto di un cavo di rete e di uno d’alimentazione per entrare in funzione, le blades contengono tutto ciò che serve all’elaborazione, ma solo quello. Alimentazione e raffreddamento sono forniti dal telaio che le ospita, che provvede pure, a seconda delle scelte dei costruttori, a fornire unità storage extra, switch per connessioni di rete e l’interfaccia per gli strumenti di gestione, andando nel complesso a costituire il sistema. Le misure minime di un server in formato rack sono quelle dell’unità standard (19 pollici di larghezza per 1,75 di altezza). Il rack più diffuso è alto 42 unità e quindi questo è anche il massimo numero di server che vi può essere montato. Nel formato blade non vi è più questo limite, e con i blade server attuali la densità arriva sino a 128 macchine per rack.
L’alta densità è già di per sé un vantaggio, perché porta ad una riduzione dello spazio fisico necessario al data center. Uno spazio decisamente costoso per le infrastrutture relative al condizionamento ambientale e alla sicurezza che comporta. Anche se il fattore di densità che abbiamo citato è più teorico che reale, passare da un data center basato su server rack a uno basato su server blade permette, a parità di numero di Cpu, di ridurre fino al 50% lo spazio necessario (fonte: analisi Butler Group). Ma il guadagno di spazio, pur essendo un vantaggio rilevante, è solo uno dei punti di forza dell’architettura. Gli altri sono l’efficienza energetica, l’availability generale e la flessibilità operativa che deriva dalla predisposizione alla virtualizzazione. Vediamoli insieme.
È un fatto che con l’aumento delle prestazioni dei processori e dei microcircuiti in generale sono aumentati anche i consumi d’energia necessari alla loro alimentazione e al loro raffreddamento. Due voci che quantitativamente si equivalgono e che insieme totalizzano il 60% del consumo d’energia (vedi figura 1).


Figura 1: Lo schema sintetizza i consumi di energia di un data center a livello generale, dei sistemi e dei loro componenti. Come si vede, a livello generale (in alto) solo il 40% dell’energia è sfruttato dai sistemi, il resto è assorbito in parti uguali dal raffreddamento e dalla catena di alimentazione. A livello di sistemi (al centro) quelli di calcolo consumano più energia di tutti gli altri messi assieme, mentre tra i componenti (in basso), è notevole il 20% assorbito dalle unità di alimentazione interne ai sistemi (che sono eliminate nei blade) e il 15% sottratto dai regolatori di tensione dei processori (fonte: Gartner)

(clicca sull’immagine per ingrandirla)


E’ il ‘lato oscuro’ della legge di Moore e, come osserva Gartner, ci si deve rendere conto che il problema non avrà mai una vera ‘soluzione’ ed è destinato a crescere negli anni finché i computer continueranno a funzionare secondo i pincìpi attuali, un tempo che nessuno ora è in grado di prevedere. Tutto quello che si può fare è adottare quelle soluzioni che migliorano il rapporto tra l’energia assorbita e le prestazioni rese; e l’architettura blade è tra queste.
In un computer, processori e Ram sono realizzati con microcircuiti integrati funzionanti a corrente continua a valori di tensione molto bassi e molto precisi, mentre la rete elettrica fornisce corrente alternata a tensioni molto più elevate e alquanto variabili. Occorrono quindi alimentatori che trasformino la corrente alternata in continua e ne riducano e stabilizzino il voltaggio. Questi componenti generano a loro volta calore e assorbono una quota di energia che nel migliore dei casi è del 20% (vedi ancora figura 1) e nei server di vecchia generazione, anteriori al 2000, arriva al 25%. Nei blade server l’energia è un ‘servizio’ fornito dal telaio, per cui un solo gruppo di alimentazione serve tutti i blade ospitati. E anche se, come ovvio, si tratta di un gruppo di alimentazione potente, l’energia assorbita risulta comunque inferiore a quanto si avrebbe dalla somma di numerosi piccoli gruppi separati.
Secondo dati forniti da Hp, un blade server consuma sino al 30% in meno di energia rispetto a un rack di equivalente potenza di calcolo. Ma soprattutto, avere gli alimentatori indipendenti dai dispositivi utenti (server o storage blade che siano) permette di ridondare il gruppo d’alimentazione ad un costo competitivo. Infatti per rendere ‘high available’ un blade server a 16 alloggiamenti basta e avanza un gruppo formato da 10 alimentatori, mentre una configurazione rack ne richiede 32. E il livello di availability della versione blade risulta avere un Tbf (time between fault) superiore in quanto statisticamente è più facile che si rompa una unità su 32 che una su 10. Un ulteriore fattore di maggiore disponibilità è dato dalla riduzione dei cablaggi. Un data center che si riorganizzi su blade server può ridurre quasi della metà (- 85%, secondo un’indagine di SearchWin Systems) il numero delle connessioni via cavo rispetto a installazioni rack o tower. Il che, oltre a far risparmiare tempo nella riconfigurazione delle risorse nel caso di sistemi non virtualizzati, elimina una fonte di possibili guasti ed errori umani.


Figura 2: Il grafico mostra i risparmi energetici realizzabili con sistemi di gestione dell’energia in funzione del carico di lavoro dei processori. Nella situazione media di lavoro delle applicazioni business, che raramente supera il 60% della capacità della Cpu, si risparmia dal 65 al 75% di energia

(clicca sull’immagine per ingrandirla)


Superiore affidabilità e flessibilità operativa
Inoltre, mentre in un server tradizionale il sistema operativo e le applicazioni devono essere memorizzate su un disco fisso locale, in un blade server questo è opzionale, Come si è detto, le blade hanno di regola uno o due dischi locali, ma possono anche accedere tramite connessione diretta (Das) via Sata o Scsi, o tramite network (Nas o San) via Fiber Channel o iScsi, a dischi esterni posti in blade dedicate e ospitate nello stesso telaio. La facoltà di far partire il sistema dall’esterno permette di ottenere una più alta densità di processori, eliminando i dischi locali, ma soprattutto offre una superiore affidabilità, dato che il sistema operativo può essere caricato da più dischi, e una superiore flessibilità operativa, dato che diventa molto più facile installare un software di virtualizzazione in grado di caricare sulle diverse blade macchine virtuali aventi diversi sistemi e diverse applicazioni.
Con il consumo aumenta in modo parallelo la necessità di raffreddamento, seconda fonte di assorbimento di energia. Qui purtroppo l’architettura blade non offre vantaggi, dato che l’alta densità dei componenti genera un calore elevato e avere il sistema di raffreddamento condiviso pone dei limiti alla collocazione ottimale delle ventole rispetto alle fonti di calore. Ai limiti architetturali sopperisce però la tecnologia. I telai di nuova generazione hanno infatti ventole ad alta velocità che pur fornendo un flusso d’aria più elevato sono controllate da sistemi che ne regolano la portata in funzione dei carichi di lavoro delle Cpu. Un processore in stand by ha meno bisogno di essere raffreddato di uno che lavora a pieno ritmo; e si sa che anche nel caso di ambienti consolidati e virtualizzati le Cpu hanno uno sfruttamento molto discontinuo. Riducendo il raffreddamento superfluo si riesce a riportare il consumo medio delle ventole dei blade a livelli pari e anche inferiori a quelli dei server tradizionali.
In conclusione, l’architettura blade è un qualcosa che un’azienda che intenda affrontare un progetto di server consolidation, specie se nella prospettiva di virtualizzare l’infrastruttura It, deve necessariamente considerare. Ed è il punto di partenza di un percorso evolutivo fondato su un concetto di modularità che se oggi è soprattutto focalizzato sul componente server, in un futuro vicino coprirà tutti i componenti di un sistema. Sullo storage il processo di modularizzazione è già in atto, con alcune soluzioni disponibili sul mercato. Secondo Gartner, presto seguiranno i dispositivi di rete e, più in là, i processori. In molti casi lo schema riprodurrà quella dei blade server, nel senso che l’utente acquisterà dei telai che andrà poi a riempire alloggiandovi i componenti necessari a realizzare il sistema di cui ha bisogno. In altri casi la funzione del telaio verrà assolta dal rack, che evolverà da semplice incastellatura di supporto a struttura in grado di connettere moduli server, storage e di rete progettati ad hoc.
C’è da dire che a questa evoluzione verso una generale infrastruttura It realizzabile per componenti tracciata da Gartner si oppone il fatto che sebbene in teoria la tecnologia permetta l’interoperabilità tra soluzioni di differenti produttori, allo stadio corrente di sviluppo le cose funzionano solo se ci si affida ad un unico fornitore. Ma nel 2006 è nata Blade.org, una comunità di sviluppatori focalizzati sull’accelerare lo sviluppo e l’adozione di piattaforme blade aperte e, soprattutto, un numero sempre maggiore di vendor sta entrando sul mercato. In passato ciò ha sempre portato alla convergenza su standard comuni. E spesso la storia si ripete.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3