Se è vero che mettere le risorse It in pool gestiti che ne consentano la condivisione per ottimizzarne l’utilizzo è un’idea non certo nuova, è altrettanto vero che è un’idea tuttora estremamente attuale e ci viene da dire “contagiosa”, capace di propagarsi e di riprodursi in forme disparate su tutto lo scacchiere dell’infrastruttura It che, ai fini della virtualizzazione, possiamo semplificatoriamente articolare nelle quattro combinazioni: server e client, hardware e software. È attualissima per i server la cui virtualizzazione “diventa mainstream”. È sempre attuale, anche se in forte evoluzione, nei client, col desktop virtualizzato “che è il futuro del Pc in azienda” (entrambi i virgolettati sono titoli di recenti ricerche Forrester).
Tutti gli elementi base dell’hardware possono essere risorse messe in pool, dalla Cpu, alla memoria, all’I/o, allo storage; e la virtualizzazione si applica con decrescente granularità, salendo di livello dai chip che diventano pool di thread e di core (duali o multipli), ai rack di blade, alle farm di server, fino allo stesso data centre, inteso come pool di risorse da ottimizzare; il punto di arrivo della virtualizzazione hardware è in ogni caso commoditizzare la fornitura di potenza elaborativa all’utenza. Nel software, per contro, le risorse messe in pool sono tipicamente soggetti come sottosistemi virtuali di dati, applicativi o gli stessi sistemi operativi, che uno strato di virtualizzazione isola dal sottostante sistema operativo reale. L’obiettivo della virtualizzazione software appare più sofisticato, ma non per questo meno attraente: l’isolamento promette, per esempio, maggiori gestibilità e sicurezza, con un vero e proprio salto di livello.
Ma ai benefici ottenuti o attesi si contrappone uno scotto da pagare in termini di impatti e di conseguenti cambiamenti da gestire per le pratiche It, sia proprie che di servizio all’utenza business. Impatti che possono essere talora “latenti”, nel senso che non sono sufficientemente percepite le loro ricadute in termini di problemi o di evoluzioni necessarie per organizzare il servizio al business: la consapevolezza è allora un vantaggio per non perdere una capacità di intervento proattivo.
Gli effetti si manifestano diversi in funzione della tipologia di infrastruttura che un’azienda si è scelta (inhouse, o ricorrendo a servizi data centre o combinando le due opzioni in funzioni di scelte aziendali). Ciò che sta comunque emergendo è “uno shift fondamentale nel computing d’impresa” per effetto “dei rapidi progressi nelle tecnologie di virtualizzazione e di scale out (capacità di scala esteriorizzata) da un lato, e delle iniziative di consolidamento dell’It dall’altro, che inducono le operazioni di business a un ripensamento delle proprie strategie di utilizzo dell’infrastruttura”, così Idc vede il Data Centre, nel presentare il suo Virtualization Forum (New York febbraio 2007). Un ripensamento che aumenta la “pressione su Cio e Cto ad allineare e a provare il valore dell’It al business” e sui loro manager di infrastruttura, a rispondere alla martellante “domanda di qualità e performance nei livelli di servizio e di compressione di time to market, da indirizzare”, nel contempo “contenendo e riducendo consumi energetici e necessità di raffreddamento, oltre che dello stesso spazio fisico”.
Ecco dunque l’attualità della virtualizzazione, su cui proviamo a dare uno sguardo in generale, a livello server e client (in un’ottica non limitativa ma centrata sui vari desktop e laptop aziendali), con l’obbiettivo limitato, ma crediamo sufficientemente significativo, di stimolare in chi ci legge l’esigenza di approfondire i punti ove individuasse un segnale d’attenzione.
La virtualizzazione nei server
La virtualizzazione infrastrutturale hardware ha altrettanti capitoli a se stanti nello storage e nelle reti (concettualmente pool di I/o per la risorsa elaborativa). C’è ormai, per esempio, la tecnologia per virtualizzare le stesse connessioni del server con una Lan o una San (vedi riquadro). Ma non c’è dubbio che dove la maturazione (mainstream) è arrivata davvero è negli stessi server. Dobbiamo ripartire dall’utilizzo drammaticamente insoddisfacente della loro capacità, scesa a medie fra il 35 e il 45% per server di tipo Unix, addirittura tra il 10 e il 15% per i “Wintel”, e ricordarci che la radice del problema derivava dalla difficoltà di far co-risiedere sistemi operativi e applicazioni diverse nello stesso server, il che, in un contesto di caduta dei prezzi dell’hardware, ha portato alla proliferazione dei server (per effetto della priorità data all’ottimizzazione delle performance applicative talora a costo di “toccare” gli stessi sistemi operativi). Ciò che spinge il dilagare della virtualizzazione dei server è la domanda finora insoddisfatta di utilizzo delle capacità da un lato e di consolidamento del loro numero dall’altro, con relativi risparmi. Domanda finalmente soddisfatta dalla tecnologia dell’ipervisore, che ammette la coresidenza di più sistemi operativi e relative applicazioni in pochi server di grande potenza, semplicemente rendendoli virtuali. La sensazione è anzi che il “momento” di questo mainstream tolga il centro della scena a forme architettate di utility computing come lo stesso grid, non solo versione Open Grid Services Architecture (OGSA, vedi www.globus.org), ma anche a quello dichiaratamente meno faraonico e mirato all’impresa dell’Enterprise Grid Alliance (l’Ega di Oracle, Hp, Sun, Novell, Intel et. al, vedi www.gridalliance.org). Se la sensazione è corretta, se ne può dedurre che anche nelle aziende sensibili all’obiettivo dell’utility computing faccia premio sfruttare, prima, tutti i ritorni (e i risparmi) attesi dalla tecnologia di virtualizzazione dei server, magari vista come primo passo, rinviando investimenti strategici in applicazioni abilitate grid al dopo.
Una dimensione del fenomeno ce la dà un’inchiesta Forrester condotta a livello mondiale a dicembre 2005, con domande poste a 1221 aziende di oltre 1000 dipendenti sulla virtualizzazione dei server, in particolare su consapevolezza (il 75%), piani di dispiegamento (un 40% l’avrebbe adottata in qualche contesto entro giugno 2006) e preferenza dei fornitori. Su questo punto la concorrenza si sfida nei server a base x86 sulla tecnologia dell’ipervisore: Vmware di Emc domina in Usa, Microsoft Virtual Server 2005 è leader da noi in Europa, e XenSource, la tecnologia open source all’orizzonte, è certamente ancora poco percepita dal mercato, ma altrettanto certamente è spinta da partner chiave della stessa Vmware, come Ibm, Hp, Sun, Red Hat, Intel e Amd. È naturale poi scoprire che la consapevolezza decresce con la dimensione dell’azienda (da un 80% per le aziende Global 2000, a un 70% Usa e 60% europee sopra i 1000 dipendenti, giù fino a un 44% per le europee sotto i 1000). La sorpresa viene invece dallo scoprire che lo sfruttamento della capacità inutilizzata è solo la seconda aspettativa di chi virtualizza i server (al 78%): coesistono un’aspettativa di maggior flessibilità e velocità nel riconfigurare (gettonata al 92%) e al terzo posto (70%), l’inerente maggior resilienza e minor complessità in caso di disaster recovery. Evidentemente la prima e terza aspettativa sono legate tra l’altro al minor numero di server da configurare e controllare.
C’è dunque una platea ormai vasta di aziende migrate o che cominceranno a migrare verso una configurazione consolidata di server potenti e capaci di ospitare sistemi operativi e relative applicazioni coresidenti. Ma transizione partita e anche irreversibile non vuol dire esattamente indolore: in estrema sintesi, ci si devono attendere sforzi It per acquisire e governare la tecnologia, fortunatamente di tipo una tantum; resistenze sulle licenze dai fornitori software, anch’esse prevedibilmente limitate a un transitorio; riforme nell’organizzare il servizio e l’addebito alle unità di business che sarà necessario far passare in azienda.
Gli sforzi It una tantum? Per esempio acquisire e governare gli strumenti di migrazione “da fisico a virtuale” del vendor scelto; pianificare dispiegamenti incrementali partendo da un progetto pilota e da applicazioni non critiche; mettere in conto un “overhead da virtualizzazione” sulle performance – che verrà però sostanzialmente alleviato con l’arrivo dei chip con Cpu “virtualization aware” di Amd o Intel; incorporare gli impatti a pratiche di system management come backup e recovery. Sulle licenze di software co-residente in istanze multiple nello stesso server, Gartner avverte dell’inadeguatezza dell’attuale modello, e del paradossale aumento di costi software dovuto alla resistenza dei vendor a concedere condizioni a loro volta, “virtualization aware”, resistenze prevedibili quantomeno fino al rinnovo delle licenze in essere – ma comunque destinate ad affievolirsi (già Microsoft con Windows Server 2003 R2 ha stabilito il precedente di concedere un numero illimitato di licenze Windows VM). Il vero problema “latente” potrebbe essere proprio quello del servizio e dell’addebito alle unità di business fruitici, il giorno in cui gli stessi servizi fossero erogati da un’infrastruttura migrata a server che ospitano una molteplicità di applicazioni. Da questo punto di vista serve aver pensato almeno a due adattamenti del servizio al business (e a negoziare come migrarvi con le controparti business): una procedura di addebito all’unità di business anch’essa virtualization aware, che funzioni cioè anche quando l’unità non possiede più alcun hardware; e a suo supporto, una tecnologia di misura dell’utilizzo di un servizio applicativo in ambiente condiviso.
La virtualizzazione del client in azienda
Dato che la virtualizzazione sul versante software consente l’isolamento del sottosistema virtualizzato (e visto che funziona così bene con il server), perché non puntare a mettere ordine nel System Management della molteplice e variegata popolazione dei desktop e laptop aziendali? Con la virtualizzazione si può ricentralizzare sul server l’elaborazione di una, di alcune o di tutte le applicazioni di un client aziendale. Per le applicazioni riaccentrate sul server, enorme la semplificazione per la manutenzione a fronte di problemi, evoluzioni funzionali o anche solo adeguamenti di conformità a normative, rispetto anche al più sofisticato e ben gestito sistema di change management distribuito, che a manutenzione effettuata deve riapprovvigionare dell’applicazione tutti i client che la ospitano, e deve perciò supportare tutte le configurazioni di client possibili: un approccio inesorabilmente perdente al crescere delle tipologie di configurazioni hardware e di sistemi operativi esistenti in azienda. E, in secondo luogo, perché non puntare a benefici di sicurezza, arginando la vulnerabilità indotta in desktop e laptop dalla consumerizzazione dell’It (l’importazione di software, per esempio, scaricato da Internet, fuori dal controllo dei sistemi informativi aziendali)? Il modello di elaborazione ricentralizzato sul server con la virtualizzazione può consentire di segregare le applicazioni dai dati sensibili nonché una facile disabilitazione dell’accesso alle applicazioni, per esempio, per i laptop rubati.
Dicevamo che nei client la virtualizzazione è sempre attuale, anche se in forte evoluzione. La ricentralizzazione dell’elaborazione sul server (Server based computing) è una vecchia conoscenza, non è altri che il thin-client, che in sostanza al paradigma degli aggiornamenti dall’unico server alle applicazioni dei molti fat client (client particolarmente potenti che eseguono il grosso delle operazioni) sostituisce quello degli accessi dai molti thin client alle molte istanze di applicazione sul server. La remotizzazione nel server dell’applicazione client è la più datata forma di virtualizzazione del client, offerta, per esempio, da Citrix Acces Presentation Server o da Microsoft Presentation Server. Una sua evoluzione estrema è il blade PC o desktop virtuale, un possibile “futuro” del desktop aziendale, appunto, che remotizza oltre all’applicazione l’intera istanza del desktop, compreso sistema operativo e hardware, in un blade del data centre fornendone all’utente del desktop l’accesso tramite internet o intranet (naturalmente riconfigurandosi dalla San associata ad ogni utente che si registra). Ma abbiamo già incontrato altre forme di virtualizzazione interne al client: la Virtual Machine che crea un’istanza virtuale per un intero sistema operativo o un suo sottoinsieme, sicché il software non si esegue sull’hardware locale ma sullo strato di virtualizzazione. Oppure il sandbox applicativo, ambiente isolato per una o più applicazioni che vengono eseguite e comunicano attraverso il layer di virtualizzazione con il sistema operativo ospitante. Per ognuna di queste tipologie di virtualizzazione client esistono mercato e attiva concorrenza. Non c’è però, per la virtualizzazione dei desktop, una direzione univoca di marcia come quella emersa nella virtualizzazione del server. Si vedono in generale chiari meriti e valore (riduzione dei costi di manutenzione e supporto, gestibilità ed affidabilità, miglior sicurezza applicativa), ma restano alcuni problemi di complessità tecnica (i prodotti di virtualizzazione riproducono l’esperienza utente dei sistemi operativi cui si agganciano, a volte provocando qualche malfunzionamento e complicazioni nelle diagnosi relative); problemi di configurazione per certi tipi di applicazioni meno adatte all’ambiente virtuale; e di nuovo problemi di licenze software, nei casi di virtual machine o di blade Pc (per questi ultimi c’è anche un costo ancora un po’ alto della soluzione per utente).
LA VIRTUALIZZAZIONE DELLE CONNESSIONI DEI SERVER
L’operazione di aggiungere, spostare o rimpiazzare un server richiede un coordinamento a tre fra l’amministratore del server e gli amministratori di Lan e/o di San, coinvolti sia per collegarsi che per scollegarsi e per le conseguenti riconfigurazioni. Ma, per esempio, Hp, nell’annuncio di giugno 2006 dei suoi server Blade System di classe c, introduce una Virtual connect architecture, con cui viene virtualizzato il contatto col server dalle reti Ethernet e in fibra ottica.
Blade System di classe c, con la loro infrastruttura intrinsecamente adattativa, rappresentano un nuovo mattone per i data centre di nuova generazione. E’ “fin da oggi candidata come la migliore infrastruttura”, parola di Rick Becker, Vp e General Manager di Hp BladeSystem, per indirizzare le principali sofferenze dei data centre, grazie alle tecnologie abilitatici di cambiamento in tre aree:
• nel Management, l’Hp Insight Control, rende possibile un rapporto 200 dispositivi a 1 amministratore, grazie all’integrazione di strumenti di system management nel c-Class Blade System (unificazione su console unica della gestione fisica e virtuale di serventi, storage, networking, energia e raffreddamento); una Data Centre Edition di Insight Control permette la gestione centralizzata di tutta l’infrastruttura blade unificata, grazie a un’architettura estensibile standard, con sottoviste sullo stato di dispiegamento, migrazione, sicurezza, virtualizzazione e energia/raffreddamento;
• per ciò che riguarda l’area Energia e raffreddamento, l’Hp Thermal Logic (Tl), è un insieme di tecnologie e controlli per garantire disponibilità e performance elaborativa minimizzando l’energia necessaria, con controlli dalla componente al rack: cruscotto Tl, ventilatore attivo ultra efficiente con 30% in meno di flusso d’aria e 50% in meno di consumi, salva-energia incorporato (40% in meno di energia rispetto a server su rack), citano i dati forniti dalla stessa Hp;
• nella Virtualizzazione c’è infine l’ Hp Virtual Connect Architecture, col nuovo paradigma “cabla una volta e cambia le connessioni al volo”, che consente all’amministratore del server di gestire al volo le risorse attraverso connessioni virtualizzate Ethernet o fibra ottica, con abbattimento del tempo amministrativo. Hp annuncia anche il “midplane più veloce dell’industria” (5 terabyte/sec di throughput aggregato) e la riduzione del 40% dei costi della connettività San ai Blade System Hp, grazie a nuovi switch in fibra ottica da 4 Gb/sec esterni o incorporati (Host Bus Adapter).
A PROPOSITO DI INFRASTRUTTURA
Parlando di ottimizzazione infrastrutturale, guardiamo ai criteri oggi adottati per quanto riguarda la progettazione di un data center è un’attività che richiede la presa in considerazione di un complesso insieme di elementi che vanno dall’ambito architettonico vero e proprio, al cablaggio, ai sistemi di condizionamento nonché ai sistemi che garantiscono la continuità dell’approvvigionamento energetico.
“L’infrastruttura fisica del data center deve garantire l’alta disponibilità dei sistemi informativi e questo è possibile se il data center viene progettato tenendo in considerazione tutti gli aspetti che lo costituiscono”, spiega Fabio Bruschi, country manager di Apc, azienda “nata” nel mondo dei gruppi statici di continuità ma che si è radicalmente evoluta nel tempo proponendosi oggi, oltre che come fornitore di soluzioni, anche come “main contractor” nella progettazione di data center. L’azienda ha lanciato qualche anno fa InfraStruXture, un’architettura modulare per l’infrastruttura fisica dei data center che, nel tempo, si è arricchita di nuovi moduli che vanno a intervenire sui diversi aspetti (dal cablaggio, al cooling, dal monitoraggio ambientale all’utilizzo di una delle tecnologie del futuro in ambito energetico come le celle a combustibile idrogeno ecc.). L’ultima novità di questa architettura sono i sistemi di alimentazione e raffreddamento per data center ad alta densità; InfraStruXture High Density raffredda potenze fino a 60kW per rack e se si tiene conto che oggi, anche nei centri di elaborazione ad altissima potenza, difficilmente si superano i 25kW per rack è evidente che il sistema è predisposto per le future evoluzioni dei server blade (la cui potenza di calcolo, e quindi il consumo energetico, continuerà ad aumentare). Il sistema integra le nuove soluzioni di raffreddamento InRow della stessa Apc che prelevano il calore direttamente alla fonte: l’unità ad acqua raffreddata viene installata vicino ai server e dispone di ventole sostituibili a caldo e con velocità regolabile. (P.F.)