Client Virtualization, le cinque mosse da fare (e non fare) secondo Gartner

Ecco i suggerimenti Gartner per chi sta valutando un progetto in questo campo: come evitare errori fuorvianti e costosi nell’attuale scenario di tecnologie e offerta.

Pubblicato il 05 Apr 2011

La client virtualization è attualmente tra le priorità dei responsabili IT aziendali, attirati dai potenziali benefici in termini di costi, sicurezza e flessibilità e dai buoni risultati ottenuti con la virtualizzazione dei server (anche se questi due tipi di progetto sono tra loro profondamente diversi). L'ambito della client virtualization è però piuttosto complesso e ancora tutt'altro che consolidato in termini di tecnologie e offerta, per cui è facile fare errori fuorvianti e costosi. Un aiuto in questa situazione viene dall'intervento all'ultimo Gartner Symposium 2010 di Cannes dell'analista Brian Gammage, che ha illustrato una sorta di 'guida' in cinque punti per chi sta valutando un intervento di client virtualization.

1) Capite quale client virtualization è più adatta a voi
Esistono – spiega Gammage – quattro tipi di client virtualization : application virtualization, virtual workspace, pc virtualization e hosted virtual desktop, che in parte si sovrappongono l'un l'altro. Molte organizzazioni hanno già intrapreso qualche progetto di client virtualization e molte faranno altrettanto nei prossimi 5 anni. Ma sulle differenze tra questi quattro approcci non c'è molta chiarezza, soprattutto da parte dei vendor. “Si tratta di quattro mercati con livelli di maturità dell'offerta molto diversi: nessun vendor li copre tutti – sottolinea Gammage -. In generale, il mercato client virtualization è in grande fermento; nei prossimi due anni assisteremo all'affacciarsi di nuovi vendor, a diverse acquisizioni e alla fusione di tecnologie oggi separate”.

2) Cominciate dalla virtualizzazione delle applicazioni
Nell'application virtualization, spiega Gartner, applicazioni singole o gruppi vengono 'incapsulate' con le copie delle risorse di sistema operativo che utilizzano. Questo svincola le applicazioni tra loro e dal sistema operativo, e semplifica gestione, distribuzione dei carichi di lavoro, manutenzione, migrazioni e aggiornamenti.
Non tutte le applicazioni sono virtualizzabili. “L'app virtualization non è basata su standard e non è adatta ad applicazioni molto complesse e interdipendenti. Le applicazioni che funzionano in modo interdipendente (con una che chiama l'altra mentre gira) devono essere raggruppate nella virtualizzazione, o connesse manualmente: un accurato testing è fondamentale”.
I benefici dell'app virtualization sono perfezionati dall'uso concomitante dell'application streaming, un meccanismo che segmenta le applicazioni in componenti più piccoli che possono alimentare (“scorrere verso”) il pc man mano che l'applicazione li richiede. Questo riduce i carichi e aumenta la velocità di fruizione della applicazione. Application virtualization e application streaming stanno diventando sinonimi e fanno spesso parte di un'unica soluzione.

3) Valutate l'hosting dei virtual desktop (HVD), ma solo per alcuni tipi di utenti.
Secondo Gartner, entro quest'anno tutti i principali prodotti di HVD abiliteranno la personalizzazione permanente (persistent) di immagini utente 'pooled'. In quest'ambito la tecnologia è in rapida evoluzione: sono già stati risolti punti critici come grafica, video, gestione immagini-utente e licensing Windows e presto saranno gestibili i profili utente e le applicazioni installate dall'utente. Restano da risolvere punti come i costi infrastrutturali e l'utilizzo offline.
“Un ambiente hosted virtual desktop è un ambiente completo di software per pc (“immagine”) che gira come una virtual machine su server (VM) ed è accessibile da remoto, in particolare da dispositivi thin client”, spiega Gammage. I primi progetti di HVD utilizzavano un'immagine residente in modo permanente su pc (“dedicata”) per supportare l'accesso remoto dall'esterno dell'azienda. Le immagini dedicate sono gestite singolarmente, quindi sono configurabili in modo personalizzato come pc tradizionali. Negli ultimi tre anni invece si sono sempre più diffuse le implementazioni 'pooled', dove la stessa struttura di immagine è utilizzata per tutti gli utenti. Gli ultimi sviluppi hanno molto semplificato la gestione delle immagini pooled e ridotto le esigenze di storage, ma si basano sul ritorno delle immagini alla condizione 'originaria' ogni volta che l'utente fa il log-on: quando l'utente esce, le personalizzazioni si perdono. Il problema quindi è rendere la personalizzazione permanente (persistent).
La strada che si sta cercando di percorrere è separare in due componenti (applicazioni e personalizzazioni) la 'rimanenza' dell'immagine, cioè ciò che resta una volta rimosso il sistema operativo. Il primo componente, che è la fonte di gran parte delle potenziali complessità di gestione, può essere gestita in modo standardizzato per tutte le immagini pooled e ritornare alla condizione originaria al log-on. Il secondo raccoglie tutti gli elementi di personalizzazione (dati, stato, setting, applicazioni installate dall'utente) in un oggetto che può essere gestito a parte senza interferire con il corretto funzionamento dell'applicazione.

4) Trascurate (per ora) la corsa agli hypervisor
Durante il 2011, prevede Gartner, meno del 15% dei pc aziendali verranno implementati con un hypervisor client. Il settore pc e le aziende utenti hanno bisogno dei benefici di un hypervisor pc standard: immagini desktop indipendenti dal produttore e più portabili, sicurezza intrinseca ed erogazione di funzioni di piattaforma indipendenti da OS e software. Tuttavia il cammino va a rilento per due ragioni. La prima è il potenziale dirompente di un hypervisor standard sulle attuali proposizioni di valore e modelli di business. Per Microsoft un hypervisor può essere una minaccia al suo modello di commercializzazione di Windows Client, con il quale raccoglie le entrate delle licenze dai costruttori – e non dai compratori finali – prima della vendita effettiva del pc. Per Intel un hypervisor può oscurare alcune delle funzioni dei suoi prodotti, rendendoli meno distinguibili da quelli dei concorrenti. I costruttori di pc inoltre temono un'ulteriore 'commoditizzazione' dei loro prodotti per aziende. La seconda ragione è l'opportunità di vendere l'hypervisor come nuova funzione o prodotto da cui ricavare un premio di prezzo.

5) Segmentate i vostri utenti
Focalizzatevi su ogni utente o gruppo di utenti e chiedetevi: di che applicazioni ha bisogno? L'obiettivo finale del client computing è dare loro accesso a queste; hardware e OS sono solo degli strumenti, anche se molta complessità di gestione nasce proprio da loro.
Per analizzare correttamente le opzioni di client computing a disposizione, occorre prima di tutto definire i profili dei principali tipi di key user, e poi per ogni profilo definire le esigenze: come deve lavorare, con quali dispositivi, con quali applicazioni. Queste applicazioni possono essere virtualizzate? Avranno buone performance se fatte girare da un HVD? Una volta che avrete risposto a queste domande potrete definire le necessità di hardware e OS.
Per cominciare, conclude Gammage, definite l'insieme minimo di profili utente che rappresentano tutte le esigenze dei ruoli e del personale coinvolto: “Nella gran parte dei casi i profili utente su cui lavorare sono da 3 a 5: un numero minore è poco rappresentativo, un numero maggiore è dispersivo”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2