Parlare di governance della virtualizzazione non è cosa facile; il rischio è di rimanere su un piano troppo teorico che poi non trova reale applicazione all’interno delle aziende. Abbiamo dunque provato a fare un po’ il punto con la guida di alcune ricerche di Forrester (www.forrester.com) e Gartner (www.gartner.com), con l’obiettivo di identificare interventi e misure raccomandate, eventualmente con quale urgenza. Fra le pratiche Itil per le quali deve maturare il necessario supporto dai provider, ma su cui in ogni caso occorre rivedere o evolvere il processo, emergono in primo piano concetti come quelli del Capacity e Performance Management e, in seconda battuta, Problem Isolation e Configuration Management.
Naturalmente, adottare queste strategie implica una certa attenzione su ruoli e skill: come in tutti i casi in cui c’è un problema e serve “trovare uno zar”, gli analisti parlano di figure come quella di Architetto della virtualizzazione (Forrester) o di un possibile Centro Competenze Virtualizzazione (Gartner).
Segnali provenienti dal mercato e una percezione crescente del problema da parte delle aziende stesse dimostrano che “Oggi la capacità di virtualizzare sta superando quella di gestire gli stessi ambienti virtualizzati”, come dice la stessa Gartner secondo cui il mercato degli strumenti di gestione per ambienti virtualizzati crescerà tra il 2008 e il 2009 del 42% a 1,3 miliardi di dollari, contro il “solo” 22,5% della spesa per virtualizzare le infrastrutture, che si attesterà a 1,1 miliardi.
Segno che i provider di tecnologia di governance hanno fiutato l’aria che già tirava alla Data Center Conference (Las Vegas, dicembre 2008), quando Gartner ha chiesto all’uditorio di rispondere elettronicamente al quesito “Quali sono le sfide
percepite nel gestire gli ambienti virtualizzati?” (figura 1).
Figura 1: Le sfide percepite nel gestire ambienti virtualizzati
(Cliccare sull'immagine per ingrandirla)
Eifficienza inferiore alle attese
I risultati sono stati pubblicati a marzo 2009 in un rapporto di Cameron Haight, Vice President Ricerca di Gartner. Il problema principale – e percepito in crescita – è la diffusione disordinata delle macchine virtuali, anche nelle organizzazioni It consapevolmente impegnate a contenerlo: un problema che porta ad un uso inefficiente dei server e a una mancata supervisione amministrativa.
In crescita anche la difficoltà di individuare i migliori candidati alla virtualizzazione, innescata dalla sempre più spinta virtualizzazione di applicazioni mission critical, con la necessità indotta di servizi e manutenzioni potenzialmente conflittuali. E da non sottovalutare la crescita di “problem isolation” e mantenimento delle performance per l’utente finale, nonché la percezione di problemi sulla configurabilità delle macchine virtuali: con il diffondersi della pratica della virtualizzazione nel Data Center, “Gartner si aspetta possano anch’esse diventare una criticità”.
Per tutti “si avverte la mancanza di tool avanzati (in particolare di capacity planning)”, ma anche una corrispondente carenza di processi definiti per il nuovo contesto. L’effetto netto? “Una efficienza operativa nettamente inferiore alle attese, almeno inizialmente”.
Sempre alla Data Center Conference di Las Vegas, questo “attrito di primo distacco” è stato misurato da un clamoroso 50% di risposte di Cio che nel loro Data Center virtualizzato non hanno visto crescere il numero di server gestibili dalle stesse persone, mentre solo un 20% lo ha visto raddoppiare e solo il 10% triplicare.
Di qui in generale l’esigenza di nuovi investimenti di governance mirati ad ambienti virtualizzati, tanto per i Provider che per gli utenti finali.
In particolare vanno riformati i processi di Performance Management e di Capacity Management così come li conosciamo oggi: serve un Decision support system per i processi di Performance e Capacity management per governare in modo efficiente le migrazioni delle virtual machine all’interno di un intero Data Center (ora possibili in un contesto di Unified Computing, che promuove la mobilità delle virtual machine assieme a San e Lan associate), e serve soprattutto la capacità di prendere decisioni informate. All’amministratore servono indicazioni dal Capacity e dal Performance Management “ringiovaniti”. Diventa cioé necessario ridisegnarne le specifiche funzionali in ambiente virtuale, a beneficio degli stessi provider di tool di governance.
È quanto crediamo abbia fatto Jean Pierre Garbani, Vice President e Principal Analyst di Forrester, che descrive funzionalmente il processo di automazione del capacity management virtuale. Lo ha così ridefinito: “Il Capacity Management (in ambiente virtuale) diventa un processo di performance management predittiva, che costantemente mira ad ottimizzare livelli di servizi e costi It”. Garbani ne descrive due componenti costitutive (la figura 2 illustra il processo automatizzato).
Figura 2: Processo di Automazione del Virtual Capacity Management
(Cliccare sull'immagine per ingrandirla)
La prima componente è la componente predittiva iniziale del Capacity Management, che prevede in modo tradizionale quali risorse serviranno per un’applicazione e quante applicazioni si possono consolidare in un server fisico. La virtualizzazione (che incapsula applicazione e sistema operativo) rende più agile il consolidamento di più macchine virtuali in un server, anche se con ovvio effetto sul Performance Management dei sottosistemi virtualizzati.
A regime lavora una seconda componente, reattiva, che fa i conti per adattare dinamicamente in tempo “quasi reale” la capacità al carico e alle necessità applicative: andrà, se necessario, ad invocare “Automated provisioning process” coinvolgendo meccanismi di orchestration automation. Ma lo farà passando prima da “Decision Support Dashboard” così che l’amministratore possa prendere decisioni informate. Decisioni non tanto in base all’evoluzione dell’utilizzo di Cpu e di memoria (parametri secondari ormai in ambiente virtuale), quanto al carico di lavoro e al tempo di risposta, i soli indicatori che veramente riflettono la capacità reale complessiva di un’infrastruttura.
I cambiamenti così controllati verranno quindi eseguiti dal provisioning e dall’orchestration delle risorse virtuali.
In sostanza, vediamo che in ambiente virtuale il Performance e il Capacity Management devono evolvere per diventare un processo unico e continuo, supportato da un Decision Support System.
Figura 3: Ruoli e skill ritenuti necessari in ambiente virtuale
(Cliccare sull'immagine per ingrandirla)
L'impatto sui ruoli e gli skill critici
Per il dispiegamento e la gestione di un’infrastruttura virtuale, ancora il rapporto di Cameron Haight identifica come cruciali oltre ad Amministratori dei server virtuali e di San/storage, i ruoli di Architetti (rete e infrastruttura virtualizzata) e Application owner.
La crescita dello storage trainata dalla virtualizzazione del server (e del desktop) impone una stretta collaborazione tra i team storage e server. Ma è “facile prevedere” che diventeranno sempre più critici application owner (man mano che vengono virtualizzate applicazioni mission-critical le cui risorse rimangono spesso opache) e che aumenterà la domanda di architetti di rete e soprattutto di architetti di infrastruttura virtuale, col compito di “integrare il management dei mondi fisici e virtuali e migliorare i servizi abilitati dagli asset virtuali”.
Raccomandazioni molto simili su ruoli e skill derivano Forrester e Gartner, che partono entrambe dal riconoscimento della natura interdisciplinare dell’infrastruttura virtualizzata, e identificano sostanzialmente lo stesso gap fra domanda e disponibilità di skill. Semmai si differenziano per una raccomandazione più formalmente organizzativa nel caso di Gartner, più affidata alla leadership di un responsabile preposto a guidare la collaborazione dei team che i vari domini dell’infrastruttura presidiano nel caso di Forrester. Ma per entrambe le fonti, “competenze e attività gestionali” sono al primo posto nella lista degli skill critici e dei compiti quotidiani: un altro segnale di attenzione per la governance della virtualizzazione.
Gartner raccomanda dunque di collocare e governare i rapporti tra i vari team (storage, server, application owner e architetti di rete e infrastruttura virtuale) “formalizzandoli” in una struttura di Virtualization Competency Center.
Galen Schreck, Principal Analyst di Forrester punta più sulla leadership individuale dell’Architetto di infrastruttura virtuale, che battezza “Vi architect” – una persona (o un gruppo di persone nelle grandi corporation) che gestisce e monitora l’ambiente virtuale; sovrintende alle operazioni di entrambe le piattaforme fisica e virtuale, sui vari domini infrastrutturali, server, storage e network; stabilisce e fa rispettare le regole e policy relative; ed è “riferimento formativo” per colleghi e clienti sulla virtualizzazione.
Quali skill cruciali deve possedere il Vi Architect? Anzitutto ha una solida esperienza pratica di piattaforme di virtualizzazione e strumenti di governance, tipo un consolidamento di larga scala o una migrazione da fisico a virtuale (importa, ma importa al limite di meno che sia certificato Professional VmWare o Amministratore Citrix); possiede un comprovato skill di capacity planning, monitoring e forecasting; ha un diversificato background tecnico da generalista; ha infine capacità di riuscita con poca assistenza o documentazione di riferimento (in un nuovo ambiente virtualizzato potranno mancare processi e metriche presenti in sistemi più maturi); infine skill di comunicazione e facilitazione, un’attitudine proattiva e pratica, e non ultime, doti di inventiva: il candidato ideale aiuta a reinventare processi e livelli di servizio, anche dove mancano modelli di riferimento.
E le attività quotidiane del Vi Architect? Mettendo al centro la sua responsabilità di fondo (garantire che l’infrastruttura virtuale venga realizzata e lavori senza intoppi, onori i Service Level Agreement col business e continui ad espandersi in modo organizzato), Schrek prova a descrivere i suoi “compiti quotidiani”, raggruppandoli attorno a cinque parole chiave: Monitoraggio, Forecast, Formazione, Supervisione, Pianificazione. Monitoraggio dell’utilizzo delle risorse infrastrutturali (che non siano mai né over né under provisioned) e delle performance (che stia in rotta per rispettare gli Sla). Forecast della domanda di risorse infrastrutturali, per mantenere livelli di risorse di riserva ottimali a garantire una provvisione virtualmente istantanea quando serve. Formazione: essere il riferimento formativo per colleghi e clienti. Supervisione: coordinare le iniziative virtuali trasversali ai vari team tecnologici, compito cruciale dato che la virtualizzazione offusca e confonde le responsabilità nei vari silos: un esempio tipico è seguire i gruppi di server nel configurare correttamente reti virtuali. Pianificazione, ricercare proattivamentenuovi settori It o aziendali in cui la virtualizzazione potrebbe portare efficienza e risparmi.
La dynamic virtualization di Fujitsu
Un elemento fondamentale del nuovo Primergy BX900 lanciato recentemente da Fujitsu Technology Solutions (http://it.ts.fujitsu.com) è il concetto di Dynamic Virtualization. Con la totale integrazione del software di gestione Fujitsu Server View chiamato Resource Coordinator Virtual Server Edition (RCVE), disponibile embedded nel BX900, si semplificano le operazioni It garantendo uniformità operativa per i gruppi di server fisici e virtuali e visualizzando le connessioni delle reti. Inoltre, il sistema è in grado di automatizzare le operazioni It riducendo il tempo di provisioning o di scambio fra server fino al 90%”.
Una delle funzionalità più importanti è la dynamic orchestration che permette di gestire al meglio i server e le risorse facendo, per esempio, uno switch in modo da accorpare gli applicativi laddove si voglia incrementare il carico di lavoro su una macchina, oppure dividere il carico degli applicativi sulle varie macchine se necessario per meglio distribuire la potenza. (P.F.)
Red Hat Enterprise Virtualization entra in Beta
I prodotti Red Hat Enterprise Virtualization sono ormai entrati nella fase Beta e saranno disponibili entro la fine dell’anno. Con questo annuncio Red Hat (www.redhat.com) si appresta a rafforzare la strategia dell’azienda orientata alle tecnologie di virtualizzazione e cloud computing. Lo scorso febbraio, la società aveva infatti annunciato pubblicamente la propria strategia di virtualizzazione e la roadmap per il 2009 che prevedevano piani per l’offerta di un portfolio Red Hat Enterprise Virtualization comprendente prodotti server, client e di gestione progettati per rendere possibile l’adozione della virtualizzazione ovunque in azienda.
Il portfolio Red Hat Enterprise Virtualization è costruito sulla base della tecnologia di virtualizzazione integrata con il sistema operativo Red Hat Enterprise Linux ma negli ultimi mesi la società ha lavorato con clienti e partner per realizzare un set di soluzioni compatibili con i loro modelli di installazione e le loro esigenze tecnologiche.
La stessa Idc ha riconosciuto lo sforzo che sta compiendo l’azienda: “La strategia di virtualizzazione annunciata lo scorso febbraio ha messo in mostra un nuovo hypervisor standalone abbinato a prodotti di gestione della virtualizzazione a livello sia server sia desktop. Le prime demo della piattaforma di gestione cui abbiamo potuto partecipare mostrano chiaramente una focalizzazione sulle funzionalità di gestione della virtualizzazione. Attendiamo quindi di vedere i prodotti finiti”, è stato il commento di Gary Chen, research manager di IDC per il settore Enterprise Virtualization Software.
Per maggiori informazioni sul portfolio Red Hat Enterprise Virtualization è possibile visitare: www.redhat.com/virtualization-strategy. (N.B.)
Ecs partner del programma Vac di VmWare
È grazie all’esperienza maturata nell’ambito della gestione degli asset IT che ECS Group (www.ecs-group.com) riesce a supportare le aziende nell’elaborazione e nella realizzazione di progetti globali di virtualizzazione. Le aree di intervento spaziano dall’adozione di tecniche di virtualizzazione in fase di sviluppo delle applicazioni, fino all’area della server consolidation o del disaster recovery.
L’utilizzo delle tecniche di virtualizzazione in fase di sviluppo e creazione di applicazioni consente di avere istanze identiche ma separate, tutte disponibili, magari con versioni diverse dell’applicativo in fase di sviluppo. Questa tecnologia permette di creare un ambiente che ospita una copia del sistema operativo destinato all’esplorazione di caratteristiche che non si vogliono o non si possono avere direttamente sulla macchina fisica. In altre parole, ECS aiuta le aziende a industrializzare i test attraverso piattaforme virtuali meno costose e più flessibili.
Oltre ad interventi in ambito server consolidation, inoltre, ECS interviene anche con progetti di virtualizzazione legati al disaster recovery (un vantaggio strategico fornito dalla virtualizzazione delle risorse è quello di snellire drasticamente le procedure di backup e disaster recovery).
La società ha recentemente conseguito il livello del programma di partnership Authorized Consultant (VAC) di VMware. “L’ingresso nel programma VAC “, ha commentato Nicola Barbi, country manager della società italiana, “testimonia la nostra competenza e le nostre capacità nel settore della virtualizzazione e ci permette di migliorare ulteriormente la nostra offerta grazie ai vantaggi che il programma stesso ci garantisce in termini di supporto, formazione e accesso alle risorse tecnologiche VMware”. (N.B.)