“La virtualizzazione ha di fatto rivoluzionato il mondo It, ma siamo convinti che il bello debba ancora venire”. Parte con questa dichiarazione di Andrea Siviero (nella foto), Emea Product Marketing Manager Desktop Solutions di VMware la nostra indagine sulla virtualizzazione vista dalla parte di chi la propone al mercato e, di conseguenza, ne spinge lo sviluppo. “L’infrastruttura virtuale VMware – prosegue Siviero – è diventata un elemento strategico per molte aziende, di ogni dimensione ed in ogni mercato. Ha consentito di sfruttare al meglio le risorse informatiche, migliorando prestazioni ed affidabilità, incrementando la sicurezza e riducendo i costi. Nella sostanza, acquistando competitività”.
Visione condivisa da molti vendor che vedono fermento sul mercato e ritengono le virtualizzazione un trampolino di lancio verso una nuova spinta innovativa. “Attualmente l’adozione della virtualizzazione è tipica di ambienti medio/grandi, in cui le esigenze di consolidamento, di controllo dei consumi e degli spazi sono particolarmente sentite. Nel prossimo futuro è assai probabile che la virtualizzazione possa diffondersi in modo pervasivo anche agli altri ambienti, arrivando, ad esempio, anche nel mondo desktop grazie alla disponibilità di “virtual appliances”, cioè di ambienti virtualizzati, già configurati e pronti a svolgere funzioni specifiche (sviluppo e test, funzioni di infrastruttura, servizi, etc.)”, dice Giorgio Richelli (nella foto), Systems Architect di Ibm Italia.
Dello stesso parere Ugo Morero (nella foto), Brand Manager Enterprise di Dell che nella virtualizzazione vede “Il motore per rimettere in discussione la struttura It e iniziare a ragionare concretamente in termini di maggior efficienza”.
“Idc dichiara che a livello italiano i server virtualizzati sono intorno al 20%, quindi un primo trend “ovvio” è quello di virtualizzare almeno un altro 40-50% dei server, che contengono applicazioni mission critical che le aziende ora sono (ancora) riluttanti a virtualizzare”, dice Carlo Baffè (nella foto), Datacenter Technology Sales Specialist di Novell Italia. “Nel medio termine assisteremo allo sfruttamento delle vere potenzialità
della virtualizzazione, che consente di creare quello che in gergo viene definito il datacenter “liquido”, dove i cosiddetti workload virtuali sfruttano al meglio le risorse hardware fisiche, non necessariamente interne all’azienda”.
Storage: la virtualizzazione può fare molto
“La quantità di dati che risiede nei database sta crescendo in maniera esponenziale (anche per esigenze di compliance alle normative sulla conservazione delle informazioni). Crescono sempre più anche i dati semi strutturati (email, pagine web e immagini) e quelli non strutturati che devono comunque essere archiviati e resi disponibili all’interno
dell’azienda”, dice Giuseppe Fortunato (nella foto), Business Consulting Principal di Hitachi Data System. “Gli sforzi vanno quindi estesi con decisione anche alle tecnologie di archiving che nella virtualizzazione possono trovare un sostegno molto importante”.
Le tecnologie di archiving proposte da Hds sono quelle che permettono di creare un unico archivio per la conservazione di diverse tipologie di dati e che possano scalare fino a svariati petabyte di capacità. “Il nostro obiettivo è integrare la virtualizzazione sull’elemento hardware che controlla l’ambiente di storage (attraverso una control unit) e permette di estendere a tutte le risorse secondarie le funzionalità e i servizi che tale tecnologia abilita, a partire dalla data mobility fino ad arrivare al thin provisioning”, aggiunge Fortunato.
Scalabilità, protezione dell’investimento, funzionalità in tempo reale e gestione efficace in ambienti eterogenei sono alcuni dei benefici che la virtualizzazione può portare in ambito storage. E il mercato italiano, anche quello delle piccole imprese, sembra ormai pronto a questo tipo di investimento. Ne è convinto Roberto Sortino (nella foto), Director Sales Specialist di EMC Italia, che dalle aziende italiane riceve segnali incoraggianti. “Lo scorso anno abbiamo introdotto una serie di funzionalità e di aggiornamenti software volti a ridurre i costi, semplificare la gestione di ambienti in espansione, rispondere ai nuovi requisiti di data protection e tenere sotto controllo la crescita esponenziale dei dati. Abbiamo ampliato il già ampio supporto software per ambienti virtuali, aggiungendo funzionalità nelle aree del backup, della de-duplicazione dei dati, nella replicazione e nella gestione delle risorse. Abbiamo dato inizio ad una serie di iniziative che ci vedono collaborare con Cisco e VMware. E sono tutti interventi che il mercato chiede e di cui ha bisogno”.
I vantaggi e le proposte
“Uno dei pregi più importanti legati alla virtualizzazione è sicuramente la possibilità che questa tecnologia offre di sfruttare meglio l’infrastruttura esistente”, dice Fortunato. “E questo diventa particolarmente vantaggioso in un momento in cui all’It si chiede di fare di più con meno risorse. Nel 2009 e negli anni successivi, a nostro avviso, l’attenzione alla virtualizzazione crescerà anche da parte delle aziende medio-piccole che stanno iniziando ora a comprendere che è lo strumento giusto per incrementare l’utilizzo e l’ottimizzazione di qualunque infrastruttura It”. La metodologia Storage Economics di Hds, per esempio, comprende best practice nella virtualizzazione per supportare la trasparenza, la disponibilità e l’utilizzo delle risorse infrastrutturali esistenti e ridurre i costi, sia operativi sia di capitale.
“Sicuramente il futuro dell’It sarà basato pesantemente sulle tecnologie di virtualizzazione, siano esse applicate ai sistemi, allo storage o al networking. I vantaggi sono evidenti: virtualizzare significa semplificare la gestione dell’infrastruttura ed ottimizzarne i costi”, dice Giuseppe Paternò, Solution Architect di Red Hat Italia. “Tutti i nostri prodotti e le nostre soluzioni stanno andando verso la direzione della virtualizzazione perché crediamo sia ormai una necessità comune a tutte le tipologie d’azienda. La nostra offerta, infatti, va nella direzione della virtualizzazione dei sistemi e dello spazio storage [Red Hat Enterprise Linux Advanced Platform, a cui si aggiungerà la prossima famiglia di prodotti Red Hat Enterprise Virtualization Manager, ndr], ma anche verso la virtualizzazione delle basi dati, siano essi database, file e/o applicativi [Enterprise Data Services Platform ndr]”.
“Il lungo lavoro di evangelizzazione svolto da noi vendor ha contributo ad incrementare la diffusione della cultura della virtualizzazione ma è necessario oggi far comprendere ancora meglio i benefici derivanti dall’adozione di queste nuove tecnologie”, interviene Vincenzo Costantino (nella foto), Italy Presales Country Manager di Symantec. “Tecnologie in grado di migliorare le performance, ottimizzare la gestione dei sistemi informativi e ridurre i costi globali”.
Parla di estrema flessibilità e supporto alla scalabilità Morero di Dell che sottolinea un altro aspetto importante, ossia quello del controllo dell’infrastruttura It: “Grazie ai progetti di virtualizzazione, l’It manager si trova a dover analizzare l’infrastruttura esistente proprio per andare ad individuare le possibili aree di miglioramento. In sostanza, dovendo in un certo senso “ridisegnare” l’infrastruttura per riuscire a farla evolvere verso un modello dinamico di distribuzione e allocazione delle risorse da destinare ai vari progetti It, il Cio riesce ad avere sull’infrastruttura stessa una maggior visibilità e, quindi, un miglior controllo”.
Attenzione a sicurezza e gestione
“Un argomento molto importante è quello della sicurezza dell’hypervisor”, interviene Richelli di Ibm. “Questo è un aspetto che oggi viene spesso trascurato ma diventerà sempre più critico con la diffusione della virtualizzazione. Un hypervisor, infatti, ha il controllo completo dell’hardware ed una sua eventuale compromissione potrebbe colpire tutte le immagini di sistema operativo installate al di sopra di esso. Il PowerVM (l’hypervisor Ibm disponibile sui System P) è già certificato a livello CAPP EAL4+ (certificazione internazionale per la sicurezza dei sistemi, ndr), ma su questo fronte vedremo ulteriori sviluppi come ad esempio firme digitali dei firmware e macchine virtuali, oppure partizioni destinate, come una sorta di appliance, a funzioni di controllo di sicurezza”.
La protezione dei dati all’interno dell’infrastruttura virtuale è un argomento che preoccupa molte aziende anche se va sottolineato che il freno che ne può derivare è soprattutto di tipo culturale. La tecnologia è già oggi infatti matura e disponibile anche per garantire la protezione dei dati dell’infrastruttura virtuale, come sottolinea Sortino di Emc: “Le nostre soluzioni proteggono le applicazioni e i dati dell’infrastruttura aziendale dai tempi di inattività e garantiscono la disponibilità elevata richiesta per la gestione di carichi di lavoro critici. Sono basate sulla tecnologia di backup e ripristino per la business continuity estesa e supportano la virtualizzazione dei server. I vantaggi sono tangibili e vanno dall’elevata disponibilità di applicazioni e dati virtuali, al ripristino più veloce in caso di emergenza e ad una riduzione significativa dei rischi, backup e ripristino più rapidi e una maggiore efficienza It”.
Naturalmente, anche Symantec mostra un occhio particolare alla sicurezza: “Sul fronte server virtualization la nostra offerta si esplica attraverso soluzioni che garantiscono le stesse performance di quelle per il mondo fisico in termini di resilienza e protezione del dato (Backup Exec e Net Backup, Veritas Custer Server, Veritas Storage Foundation)”, dice Costantino che aggiunge: Noi vediamo una sempre maggiore focalizzazione verso gli endpoint e lo storage. In questo ambito, proponiamo una suite (Endpoint Virtualization Suite) in grado di incrementare la produttività degli utenti e di ridurre il costo legato alla gestione degli endpoint, grazie anche a funzionalità portatili e on-demand che ottimizzano lo spazio di lavoro degli utenti”.
Fari puntati sulla gestione degli ambienti virtuali nelle parole di Vincenzo Messina, Manager Technical Sales di Ca che, citando un’indagine promossa dalla società lo scorso anno, sottolinea come, ancora oggi, ci sia un gap fra l’importanza della virtualizzazione e il grado di padronanza della gestione efficiente dell’It (su un campione di 300 Cio e Manager It di aziende con un fatturato superiore a 250 milioni di dollari negli Usa, in Emea e in Asia, il 54% ritiene che gestire un ambiente server virtuale è una priorità fondamentale per l’It; ma solo il 45% è convinto che la propria azienda stia ottenendo risultati efficaci in questa direzione). “L’incapacità di gestione degli ambienti virtualizzati rappresenta un forte freno all’adozione di questo tipo di tecnologia”, commenta Messina. “Questo è ancora più rilevante se si considera che nella maggior parte delle aziende gli ambienti virtualizzati sono eterogenei; sono poche le imprese che hanno adottato un’unica piattaforma standard, e per lo più si tratta di aziende piccole. La maggior parte usa piattaforme diversificate”.
“Riuscire ad ottimizzare la gestione di un ambiente virtuale – prosegue Messina – significa ottenere risultati in termini di performance/utilizzazione, sicurezza e automazione. I benefici principali che si riscontrano dopo aver realizzato iniziative di virtualizzazione sono la maggiore facilità di provisioning dell’hardware e di deployment del software, la flessibilità degli ambienti di sviluppo/testing e una performance ottimizzata dei sistemi. Tutto questo però va gestito (le soluzioni proposte da Ca sono Recovery Management, Virtualization Management, Security e Systems Management, ndr) onde evitare di perdere il controllo sulle infrastrutture”.
Criticità: efficienza energetica e interoperabilità
“Grazie alle tecnologie di virtualizzazione oggi è possibile ridurre drasticamente il numero dei server in un data center con notevoli risparmi di spesa energetica. L’effetto collaterale è che, a parità di capacità elaborativa, un data center ad alta virtualizzazione conterrà molti meno server, ma gli stessi, essendo sfruttati al massimo, consumeranno più energia unitaria, e sarà dunque necessario erogare più potenza a livello di singolo rack”, dice Fabio Bruschi (nella foto), Country General Manager per l’Italia, APC by Schneider Electric. “Ecco perché, una volta virtualizzato il data center, occorre adeguare l’infrastruttura fisica affinché sia in grado di sostenere il livello di prestazione che ci si aspetta dai sistemi”.
Parlando di punti critici, Bruschi cita “l’assorbimento di energia elettrica dei sistemi di elaborazione e soprattutto i sistemi di condizionamento che sono chiamati a dissipare quantità di calore per unità di volume fino a pochi anni fa impensabili. Questo significa avere Ups intrinsecamente ad alta efficienza, realizzati su topologia modulare in modo da sfruttarne al massimo la capacità di potenza e posizionati per ottimizzarne la resa termodinamica, ad esempio inserendoli nel rack o file di rack per avvicinarli alle fonti di calore; e significa anche gestire tutta l’infrastruttura dinamicamente con un software che permetta di adeguare in tempo reale le prestazioni delle varie zone del datacenter all’effettivo carico virtualizzato (tutte soluzioni che fanno parte dell’offerta APC, ndr)”.
“Fra i temi più importanti che si prospettano nel prossimo futuro – interviene Richelli di Ibm -, noi vediamo la possibilità di espandere la virtualizzazione ad insiemi di sistemi compatibili, creando i cosiddetti “Ensemble” cioè pool di sistemi simili che possono essere gestiti come un sistema singolo e che permettono la mobilità delle risorse virtuali all’interno dell’Ensemble oppure fra Ensamble fra loro compatibili”.
Si parla di integrazione anche in casa Novell: “A livello di sistema operativo abbiamo lavorato e lavoriamo per rendere Suse Linux e Xen interoperabili con HyperV e con Vmware; la chiamiamo la strategia del “perfect guest”. Assieme a Microsoft e Vmware abbiamo scritto codice per far sì che applicazioni Windows su Suse Linux o applicazioni Suse Linux su Vmware lavorino al massimo delle loro performance. A livello di strumenti di gestione, ci siamo concentrati sulla possibilità di effettuare spostamenti dei cosiddetti workload da ambiente fisico a virtuale, siano essi in ambiente Vmware, Xen o Hyper-V, ed anche virtuale-a-virtuale (per esempio da Vmware a Xen) o addirittura da virtuale a fisico, qualora ci si renda conto che una determinata applicazione funzioni meglio in tale ambiente”, dice Baffè.
Verso il cloud computing
“Il 2009 segnerà un momento importante per VMware, perché sarà l’anno del cloud computing e della sua applicazione in maniera estesa”, racconta Siviero. “La VMware Infrastructure verrà rinnovata, potenziata ed estesa dando la massima scelta alle aziende di distribuire le risorse all’interno e all’esterno della propria organizzazione e modulandone l’utilizzo sulla base delle effettive necessità di business. Non sarà più rilevante dove fisicamente risiederanno queste risorse, se nel proprio datacenter o presso un provider esterno: l’unica cosa rilevante sarà il fatto di averle sempre a disposizione quando ce n’è necessità, senza sovradimensionamenti o inutili immobilizzazioni. Sotto forma di servizio, le risorse saranno sempre a disposizione quando serviranno, per una vera e propria rivoluzione, filosofica ed economica ben più che tecnologica”.
Anche Morero di Dell individua nella virtualizzazione il “traghetto” verso il cloud computing: “È certamente ancora presto per parlare di cloud computing come fenomeno già recepito dal mercato. I passi da fare sono ancora molti e sono ancora connessi ai progetti legati alla virtualizzazione. A nostro avviso, però, l’estrema flessibilità e dinamicità che garantisce la virtualizzazione sono la base fondamentale di un percorso che permette di arrivare a “dimenticarsi” dell’infrastruttura sottostante e di vedere l’It come servizio e fonte di servizi al business”.
Virtualizzare: sentiamo chi l’ha fatto
Tre aziende utenti, una grande, una media e una piccola, parlano di quanto hanno realizzita in tema di server virtualization. Problemi diversi per diverse realtà che hanno trovato nelle tecnologie integrate di Microsoft una medesima soluzione
Come si sa, la strategia Microsoft per la virtualizzazione è quella dell’integrazione delle tecnologie correlate nelle sue principali piattaforme. Windows Server 2008 integra, con Hyper-V, il software che gestisce le macchine virtuali (Vm), eliminando l’acquisto di un hypervisor separato e integra anche le funzionalità di host clustering, che in caso di caduta di un nodo del server fisico spostano automaticamente le macchine virtuali ospitate sugli altri nodi del cluster. Ciò è ovviamente possibile anche con altre soluzioni, a partire da VMware, ma con Microsoft le tecnologie sono già integrate, gli strumenti di gestione sono familiari, l’It manager ha a che fare con un unico fornitore e, soprattutto, secondo il fornitore di Redmond, il tutto costa meno. Con l’acquisto delle licenze per le Cpu del server fisico si possono infatti usare quante Vm (virtual machine) si vogliono senza nessuna licenza extra e quindi senza tener traccia delle macchine virtuali e dei loro utenti.
Di questo, e altro, si è discusso in occasione di una tavola rotonda dove Microsoft, dopo una breve prolusione di Matteo Mille, direttore Server & Tools Business Group, ha lasciato la parola agli utenti, i veri protagonisti dell’incontro. Tre erano i nomi presenti: Edipower, uno dei maggiori produttori italiani di energia, con 6.800 MWatt in esercizio, 1.200 dipendenti e un fatturato di 1,2 miliardi di euro; Goglio un gruppo italiano presente in tutto il mondo con i suoi prodotti e macchinari per il packaging alimentare e asettico, 1.500 dipendenti e 260 milioni di fatturato, e Castello di Monte Vibiano, una piccola Srl umbra che produce olii e vini di qualità.
Non volendo fare tre mini-casi utente, diremo solo di quegli aspetti dei progetti che più sono stati oggetto di dibattito. Per Edipower, le parole-chiave sono flessibilità e availability, per cui ha consolidato i suoi 100 server in un cluster di quattro host che ospitano le Vm necessarie a gestire un business che comporta un’attività quasi real time (l’energia prodotta si vende e fattura a frazioni di 15 minuti). Poi ha virtualizzato i circa mille client geograficamente distribuiti e infine le applicazioni. In Goglio il progetto, nato dal consolidamento della server farm, è stato rivolto dapprima alla virtualizzazione dell’area test e quality dell’ambiente Sap, e poi esteso alle infrastrutture a supporto degli applicativi aziendali. L’azienda è partita adottando il software VMware ma poi, pur riconoscendo la qualità prestazionale di tale soluzione, ha optato per Microsoft soprattutto per il fatto di ritrovarsi in un ambiente noto, specie per chi lavora con Sql. Quanto a Castello di Monte Vibiano… è un caso speciale. Prima di tutto per i numeri: 4 server consolidati su 2, che ospitano le Vm al servizio di 30 client; il che dimostra che si può e conviene virtualizzare anche una piccola struttura. Poi per la motivazione, che è ridurre il consumo. Ma non per risparmiare sulla bolletta, quanto per poter dichiarare di essere un’azienda a zero (o quasi) impatto ambientale. Una questione d’immagine, è chiaro, ma in certi campi l’immagine fa business. (Giampiero Carli Ballola)
Bisogna promuovere l’innovazione
La via di Asp Italia passa per la virtualizzazione e il software as service
Quello che stiamo attraversando è un momento storico cruciale: le aziende si trovano a dover soddisfare una clientela sempre più esigente, con costi che aumentano vertiginosamente e una concorrenza aggressiva e imprevedibile. Inoltre, si pone sempre maggiore attenzione alle tematiche ambientali. Per perseguire obiettivi di crescita le aziende ricercano le soluzioni che consentono di ottimizzare la gestione dei flussi finanziari e di razionalizzare l’impiego del capitale. Specialmente nel settore delle strutture It, i manager sentono di dover aggiornare le infrastrutture e le applicazioni ma il contesto economico rende difficile l’impiego di risorse per acquistare nuove soluzioni, sia hardware che software. Si cerca così di indirizzare gli investimenti verso progetti di razionalizzazione che garantiscano un ritorno a breve e permettano di risparmiare sui costi di manutenzione/gestione ma nel contempo abilitino una riposta innovativa alle esigenze del business.
Per dare una risposta concreta a questa esigenza, ASP Italia (www.asp-italia.com) propone una soluzione che non richiede investimenti di capitale: utilizzare applicativi in modalità Asp, fruibili on-demand secondo il concetto di Software as a Service (SaaS). In particolare, la soluzione di ASP Italia si basa su un Vps (Virtual Private Server), ossia un server collegato alla rete Internet attraverso una Vpn, condiviso con altri utenti o interamente dedicato. Ogni utente ha la possibilità di utilizzarlo senza dover sostenere costi di acquisto e di mantenimento (il VPS risiede presso un data center i cui costi sono suddivisi tra più server), si libera dall’onere di gestione e decide quali capacità e caratteristiche debba avere a seconda delle esigenze aziendali, anche temporanee. L’utente installa le proprie applicazioni e accede al server virtuale, che appare come un server fisico, attraverso un “pannello” via Web. Dal punto di vista dell’affidabilità, l’utente lavora su un sistema altamente configurabile, sempre allo stato dell’arte e con la garanzia di backup giornalieri automatici, continuità elettrica e di connessione alla rete (come tutti i data center, inoltre, esistono presidi 24 ore su 24, accesso solo a personale autorizzato, collocazione in siti protetti, ecc.). (Nicoletta Boldrini)