Next generation data center: la gara è aperta

I maggiori player Ict stanno mettendo in campo soluzioni e strategie per ridisegnare data center allineati alle nuove esigenze di risparmio energetico, migliore gestibilità, integrazione, pay per use e sicurezza. E si guarda a una prospettiva di breve-medio periodo al modello “fabric-based”, un nuovo modello di data center con sistemi dai requisiti ideali per ospitare enormi potenze di elaborazione in un ambiente integrato, virtualizzato e automatizzato, sicuro e a consumi ridotti di energia. Ma il cambiamento previsto è impegnativo e le aziende utenti dovranno pianificare con attenzione i propri investimenti.

Pubblicato il 04 Feb 2010

datacenter120due

In tempi di virtualizzazione, consolidamento, green It, risparmi energetici e cloud computing, è inevitabile parlare di evoluzione del data center. Al centro dell’attenzione c’è infatti la proposta di un nuovo modello di data center dai requisiti ideali per ospitare enormi potenze di elaborazione in un ambiente integrato, virtualizzato e automatizzato, sicuro e a consumi ridotti di energia, un modello che nasce quasi “per differenza” rispetto a quello oggi ancora largamente in uso.
Vinicio De Luca, practice principal data center transformation, Technology services di Hp Italia spiega come il tipico data center oggi in uso, “a silos”, manchi di quelle caratteristiche di flessibilità e di velocità di adattamento richieste invece dall’evoluzione del business. Cosa ha prodotto questo modello sempre più costoso e obsoleto? Una situazione di alta inefficienza, con basso utilizzo delle risorse rispetto a quanto disponibile e l’incapacità dell’It di adattarsi di volta in volta alle richieste del business. Il nuovo data center dovrebbe invece essere tutto il contrario: con caratteristiche di flessibilità (per rispondere alle continue variabili del mercato), di integrazione (per superare la logica dell’organizzazione a silos) e di efficienza superiore (con miglior utilizzo di risorse ma anche consumi ridotti di energia).
È indubbio che se da un lato un driver importante verso il nuovo data center è rappresentato dalla flessibilità, dall’altro lato il controllo e il contenimento dei costi sono altrettanti elementi di riferimento.

Un modello "a risorse condivise"
“In un momento come questo – spiega infatti De Luca – quello dei costi è certo un driver importante che si esprime non solo nell’impegno delle strutture It aziendali a risparmiare in termini generali, ma anche a perseguire una differente distribuzione dei costi rispetto alla situazione attuale”. Oggi infatti, rilevano in modo pressoché concorde gli analisti, gran parte del budget It è assorbita dalle attività di manutenzione e “gestione del presente” (fino al 70% e talvolta anche oltre, del totale) mentre la quota residua viene assorbita dai costi per i nuovi progetti e l’innovazione. Incongruenze che hanno portato alla maturazione di un nuovo progetto di data center che ha cominciato a concretizzarsi con l’emergere di una serie di standard e di nuove tecnologie convergenti attorno a un modello identificato con il termine “fabric” o, in altri casi, di “unified fabric” o di “enclosure”. Si tratta di un ambiente capace di combinare – a un forte livello di integrazione e con un’occupazione di spazi molto inferiore all’attuale – risorse di elaborazione, storage, connettività e gestione con un rapporto prezzo-prestazioni largamente vantaggioso.

Strategie data center di Cisco
(Cliccare sull'immagine per visualizzarla correttamente)


La tecnologia già oggi disponibile fornisce un supporto importante alla realizzazione di questo modello. Per esempio con l’evoluzione del networking verso standard ormai affermati come il 10Gigabit Ethernet, o in via di consolidamento come il Fiber Channel over Ethernet. Oppure con le soluzioni di virtualizzazione, fondamentali per indirizzare gli obiettivi sui costi, l’efficienza e l’adattabilità dell’It e che ormai si estende, oltre il tradizionale dominio dei server, a quelli dello storage, del networking, delle applicazioni, fino al desktop.

Strategie data center di Hp
(Cliccare sull'immagine per visualizzarla correttamente)


Un altro componente fondamentale riguarda le soluzioni basate su blade oggi in grande diffusione nelle più recenti generazioni di server, ma sempre più “mattone fondamentale” per l’evoluzione dello storage e dell’hardware di networking del prossimo futuro. Un blade server può essere definito come una versione assai più magra di un server tradizionale di cui conserva, in una struttura ridotta all’osso, le funzionalità “core” mentre, per risparmiare consumi e ingombri, altre funzioni e servizi (alimentazione, raffreddamento, connettività) vengono messi a fattor comune su uno chassis che ospita, e di conseguenza serve, un gran numero di altri blade server ma anche blade che forniscono funzionalità di switching, routing, memorizzazione, accesso a Storage Area Network e fibre channel.

Strategie data center di Ibm
(Cliccare sull'immagine per visualizzarla correttamente)


Il modello che questa architettura “a lame” (blade) prefigura è quindi quello di un data center costituito da pool di risorse condivise, combinabili e ricombinabili in configurazioni che variano in funzione dei requisiti degli utenti e delle esigenze di business, per esempio in occasione di elaborazioni di particolare picco in determinati momenti della vita aziendale.
Questo modello consente anche di semplificare le attività di gestione. “Avendo ridotto le differenti risorse a un unico sistema – spiega Massimo Ciocca, Business development manager data center di Cisco Italia – le incombenze di management che prima si dovevano dedicare parte allo storage, parte ai server o al networking, si riducono a un unico sistema di gestione. Per esempio, quando si inserisce una blade nel nostro Ucs, questa si configura nelle modalità che sono state precedentemente definite. Questo significa fare automazione e provisioning di sistemi in base ai carichi di lavoro ed è alla base di quello che sarà il cloud computing”.

I player principali del mercato
In questo scenario in evoluzione si stanno consolidando gli schieramenti che presumibilmente si contenderanno l’enorme torta del mercato dei data center di nuova generazione, schieramenti oggi guidati da Cisco, Hp e Ibm. Va anche ricordato che già fin d’ora si potrebbe allargare l’elenco degli schieramenti in campo a quello guidato da Oracle, che attraverso alleanze ma soprattutto grazie ad alcune acquisizioni (in particolare quella di Sun ma anche quella della più piccola Virtual Iron) si candida al ruolo di quarto polo della competizione diventando un global player dall’offerta completa (hardware, software, middleware, applicazioni).

Strategie data center di Oracle
(Cliccare sull'immagine per visualizzarla correttamente)


Ma quando nasce la corsa dei vendor al data center di nuova generazione? La cronologia ufficiale fa risalire al febbraio 2009 il momento del “big bang”, con l’annuncio della strategia Ucs (Unified Computing System) da parte di Cisco. Ucs è un tipico esempio di Unified Fabric, ovvero di un ambiente che riunisce in uno chassis le risorse di server, storage e di networking mettendo a fattor comune funzionalità e servizi di tipo generale (vedi “L’offerta dei big” ).

Strategie data center di Vmware
(Cliccare sull'immagine per visualizzarla correttamente)


A soli due mesi di distanza Hp ha risposto a Cisco proponendo il proprio BladeSystem Matrix, che sostanzialmente riproduce molte delle caratteristiche generali di Ucs (anche se, come di regola, si sprecano le distinzioni, le accuse reciproche di “logiche proprietarie” e si contrappongono i primi benchmarking di laboratorio). Comune ai due vendor è anche il fatto di presentare queste soluzioni come una rottura netta rispetto ai data center di tipo tradizionale. E Ibm? Anche Ibm si muove nella direzione di un nuovo data center, ma lo fa in modo più soft (o forse più pragmatico), tenendo conto, come dice Alessandro De Bartolo, Technical sales manager System x & BladeCenter, della “eterogeneità delle esigenze di elaborazione che continuerà a caratterizzare i data center”. Per questo motivo, all’interno delle proprie proposte di Dynamic Infrastructure Ibm non rinuncia a dedicare spazio a tecnologie e architetture più tradizionali (e quindi, per esempio, accanto ai blade server, troviamo i mainframe). Forse anche per questa scelta ibrida e di “transizione morbida” verso il nuovo data center Ibm, oltre a qualche cliente anche di dimensioni medio piccole, si è però attirata qualche rilievo critico. Per esempio di Gartner, la quale sostiene che malgrado le grandi capacità di integrazione di server, storage e networking che l’architettura di Ibm è in grado di fornire, questa non sarebbe così virtualizzata e componentizzata come quelle che Cisco e Hp stanno attualmente realizzando. Yankee Group aggiunge poi che questi presunti limiti deriverebbero dal fatto che Hp avrebbe pensato al disegno dei data center di nuova generazione con qualche anticipo rispetto a Ibm e che quest’ultima si starebbe quindi muovendo più in un’ottica di risposta che non secondo un proprio disegno compiuto.

C’è eterogeneità ed eterogeneità
Queste accuse, piuttosto generiche, sembrano per qualche verso anche superficiali. In effetti, è difficile pensare a una strategia difensiva da parte di una società come Ibm che può a giusto titolo rivendicare addirittura la primogenitura in alcuni campi e su alcune tecnologie oggi alla base del “movimento” verso i nuovi data center.
La virtualizzazione, come noto, è nata sui mainframe Ibm più di 20 anni fa, mentre già sei anni fa sotto il marchio di Ibm veniva alla luce il primo blade server. De Bartolo fa anche notare, a proposito di flessibilità di offerta, la grande eterogeneità delle piattaforme di processori che possono essere ospitate nel Blade Center di Ibm: x86, sia Intel che Amd, Power e persino Sparc. Una eterogeneità indiscutibilmente superiore a quella dei competitor, soprattutto di Cisco.
Siamo comunque in piena competizione su un mercato di enormi proporzioni e ancora allo stato nascente. E c’è da attendersi molto di nuovo per i prossimi mesi: nuove soluzioni, nuovi movimenti, acquisizioni (recentissima è quella di 3Com da parte di Hp) e alleanze inedite.

Dove sono i nuovi data center?
Siamo agli inizi del fenomeno new generation data center. Guardando ai data center delle 2000 più grandi aziende al mondo, Gartner ritiene infatti che nel 2012 solo il 30% impiegherà architetture fabric based. La quasi totalità dei sistemi presenti in queste architetture farà uso della virtualizzazione, mentre solo il 15% sarà utilizzato per fruire di servizi e infrastrutture di tipo cloud.
Sono gli stessi vendor a confermare l’andamento lento, per ora, di questo nuovo mercato, parlando di “grande interesse ma, al momento, solo di qualche sperimentazione a uno stadio più o meno avanzato…”. Passare dagli attuali data center a silos a quelli “di nuova generazione”, componentizzati e modulari grazie a virtualizzazione, blade, 10Gbit Ethernet e Fiber Channel, non è un percorso semplice né di breve durata. Si tratta di far girare applicazioni e operation sui nuovi blade server multicore, passare alle nuove tecnologie di connessione (e il Fiber Channel over Ethernet, malgrado il supporto crescente da parte dei vendor, non è ancora uno standard consolidato), virtualizzare tutto, fino alle infrastrutture e alle applicazioni.
De Luca – anche sulla base dell’esperienza diretta di Hp, che ha consolidato e riorganizzato i propri data center in un enorme progetto pluriennale e su scala mondiale – valuta mediamente in due anni i tempi necessari per condurre a termine un progetto completo di allestimento di un data center di nuova generazione. Non si tratta solo di tecnologie e di architetture. C’è un forte cambio culturale da sostenere: le nuove architetture presuppongono una nuova organizzazione e nuove modalità di lavoro dell’It, un rapporto più stretto tra It e business e così via. Si tratta insomma di cambiamenti che stravolgono a tal punto la logica oggi imperante nell’It e nella sua organizzazione che le direzioni aziendali farebbero bene a occuparsene in prima persona e a mettere in pratica questi cambiamenti in maniera integrata coinvolgendo, accanto alle tecnologie, anche i processi e la formazione delle persone.


I componenti della… fabbrica

Per dare un’idea concreta di “unified fabric” al centro dei nuovi modelli di data center, ecco un sintetico elenco dei “building block” dell’Ucs, Unified Computing System, di Cisco al momento dell’annuncio. Otto blade server, basati su processore Intel Xeon, ciascuno dei quali utilizza degli adattatori di rete; software di management embedded che integra i componenti di sistema e assicura la gestione centralizzata dell’Ucs; un fabric interconnect switch; fabric extenders che forniscono fino a 4 connessioni a 10Gbps ciascuna tra i blade server e il fabric interconnect; chassis che supporta fino a otto blade server; tre tipi di network adapter ottimizzati per la virtualizzazione e compatibili con Ethernet ad alte prestazioni.
Più o meno sono sempre questi i componenti anche delle altre soluzioni offerte, che si caratterizzano però per alcuni aspetti come, per esempio la differente eterogeneità dei processori utilizzati nei blade server, oppure per le differenti tipologie di soluzioni di management.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4