La virtualizzazione desktop e lo storage: l’importanza di tenere sotto controllo i costi

I benefici di tecnologie come la VDI (Virtual desktop interface) sono noti, ma uno degli errori più ricorrenti è sottovalutare le esigenze di storage. Prima di iniziare il progetto è cruciale un’accurata analisi degli utilizzi delle risorse Ict da parte dei desktop

Pubblicato il 19 Lug 2011

La proposizione vincente della desktop virtualization (Dv), si sa, è il controllo centralizzato e completo sull'ambiente desktop aziendale, in termini di software installabile, sicurezza, upgrade e patch. In teoria, un solo amministratore di sistema può gestire centinaia o anche migliaia di postazioni dalla sua scrivania.
Oltre alle opportunità, però, ci sono anche le criticità, e quella forse più sottovalutata riguarda lo storage. Nell'Hosted VDI, il modello di Dv più diffuso, 100 pc fisici diventano 100 virtual machine nel data center, per cui se si hanno 1.000 utenti, ciascuno con un desktop di 50 GB, nel data center in teoria bisognerà avere 50 TB di storage dedicato alla Dv. Storage che oltretutto dovrà essere enterprise-class (tipicamente San, storage area network), con un costo per GB sensibilmente più alto di quello delle tecnologie storage usate nei desktop fisici.

Il problema dell'imprevedibilità degli accessi
Nella realtà, le tecnologie di provisioning permettono di ridurre l'esigenza di storage rispetto ai teorici 50 TB dell'esempio, ma nel contempo altri fattori concorrono ad aumentarla. Quello forse più rilevante è l'andamento imprevedibile degli accessi allo storage degli utenti che fanno capo a uno stesso server.
In ogni momento avremo utenti che compiono transazioni sul sistema gestionale, elaborano fogli elettronici, fanno query sui database e così via, sollecitando in lettura e scrittura lo storage in modi totalmente diversi. Inoltre si avranno picchi di accessi, prevedibili (la mattina, pochi minuti dopo l'apertura dell'azienda) o no: per esempio è difficile che il Ceo avverta l'It quando decide di mandare per e-mail a tutti una presentazione video da vedere subito.
Al di là dello storage, la domanda combinata di decine o centinaia di virtual desktop può mettere a dura prova qualsiasi infrastruttura storage, server e di rete. Questo effetto combinato spesso sfugge nei progetti pilota e nei test, limitati a poche utenze: la sottovalutazione delle esigenze di scalabilità è forse la più frequente causa di difficoltà nei progetti Dv.

Studiare la domanda di tutti i pc
Se le sfide non sono trascurabili, esistono però diverse best practice per affrontarle, specialmente in ambito storage. La più importante è un'accurata analisi preliminare. Non è solo un problema di dimensionare correttamente lo storage di ogni istanza desktop virtuale: occorre misurare l'uso cumulato delle risorse Ict di tutti i pc, e tracciarne gli andamenti nei vari momenti della giornata, della settimana, e anche dell'anno nei settori stagionali.
È sulla base di questi dati che il team del progetto Dv può definire in fase di pianificazione un quadro preciso delle esigenze di elaborazione, storage e connettività, e quindi dell'infrastruttura necessaria. Una cosa che tipicamente emerge in questa fase è che spesso non è opportuno estendere la desktop virtualization a tutti gli utenti, e che anche a quelli interessati si possono applicare modelli diversi di Dv.
Per esempio un'istanza virtuale standard, uguale per tutti, è perfetta per gruppi di addetti che inseriscono ordini o dati con attività routinarie, usando pochissime applicazioni. All'altro estremo ci sono i 'creativi' in senso lato, dai progettisti al marketing, che hanno bisogno di molte applicazioni, e molto varie: per loro può essere indicato virtualizzare solo il sistema operativo (Os) e poche applicazioni generalistiche.

Qualche best practice
La pianificazione dell'architettura può quindi concentrarsi sulle esigenze di risorse Ict degli utenti effettivamente interessati dal progetto di Dv. Lo storage va dimensionato in modo da poter gestire andamenti 'random' degli accessi e picchi di domanda, ma alcuni accorgimenti possono aiutare a ridurre questo dimensionamento. Per esempio l'uso di Ssd, drive a stato solido (che hanno tempi di accesso molto minori), e/o di un gran numero di dischi 'piccoli' invece di pochi dischi grandi, in modo da aumentare il numero di testine che leggono e scrivono i dati, riducendo la probabilità di 'code' delle richieste.
Un'altra tipica best practice è conservare l'Os, le applicazioni e le personalizzazioni separatamente. Questo tra l'altro permette di usare una sola immagine di Os (master Os image) per tutti gli utenti, riducendone l'impatto sulle prestazioni di storage. La master Os image dovrà quindi risiedere su storage di tipo 'tier 1', preferibilmente Ssd, per gestire al meglio i picchi di domanda: un ragionamento valido anche per le applicazioni di uso più vasto e intensivo. Quanto ai rimanenti 'strati' del desktop da virtualizzare – altre applicazioni, personalizzazioni, dati dell'utente -, non ci sono indicazioni assolute sul tipo di storage: conta molto la tipologia di utente e i sistemi che l'azienda ha già in casa. Per manager e knowledge worker, per esempio, è più indicato storage tier 1, magari via Fibre-Channel, mentre gli addetti al call center, che non hanno bisogno di alte performance del sistema, potranno usare storage tier 2 tramite iScsi.
Tutte queste, comunque, sono considerazioni del tutto introduttive: la diffusione dei progetti Dv sta continuamente consolidando un bagaglio di best practice di dimensionamento dello storage che ormai conta su una buona massa critica di competenze presso fornitori e system integrator.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2