Le applicazioni Tier 1 sono state virtualizzate ormai massicciamente, tuttavia i responsabili dei datacenter aziendali sono ancora piuttosto restii a virtualizzare applicazioni mission-critical.
Arun Taneja, analista e fondatore della società di consulenza Taneja Group, spiega a TechTarget perché le tecnologie di storage come i dischi allo stato solido (SSD) stanno aiutando i CIO superare gli ostacoli legati alle prestazioni delle applicazioni virtualizzate.
L’esperto ci spiega anche perché un approccio graduale è necessario per creare il datacenter aziendale del futuro, un DAAS (Datacenter-as-a-Service) che imita il modello cloud multi-tenancy.
SearchCIO: Quali tecnologie storage consentono le migliori prestazioni applicative in un ambiente virtuale?
Taneja: La nostra definizione storica di storage condiviso (shared storage – ndr) era di cinque sistemi di storage fisici, ciascuno completo, connessi in una Storage Area Network. Oggi questo modello non è più universalmente valido. Per farlo evolvere, occorre iniziare con la virtualizzazione dei server. Questo vi costringerà a dotarvi del giusto tipo di storage. In questo ambiente, i sistemi di memorizzazione sono collegati in un ambiente storage condiviso e il responsabile effettua il fine-tuning in modo che le prestazioni siano ottimizzate per ciascuna particolare applicazione che risiede su ciascun particolare server fisico. Alcune applicazioni hanno bisogno di più input /output al secondo, così dovrete impostare per queste le migliori capacità di IOPS. Altre applicazioni non sono sensibili alla latenza, quindi avranno assegnato un minor spazio storage. Quando si passa a una configurazione nella quale un server fisico agisce come 10 macchine virtuali sulle quali sono in esecuzione 10 applicazioni diverse, allora tutti i modelli di I/O che avete abilmente gestiti e mappato per rendere le applicazioni più performanti non saranno più validi su questa, unica, macchina fisica. Mentre le regole di I/O sequenziale andavano bene con vecchio modello di storage, sul nuovo occorre randomizzare tutti gli I/O e le prestazioni subiranno pesanti contraccolpi da questa nuova situazione. Così, in un ambiente virtuale, avrete bisogno di un tipo diverso di storage, che funzioni in modo efficace in ambienti randomizzati. Ecco perché da più parti sentiamo parlare sempre più spesso di IOPS SSD (sui dischi allo stato solido – ndr), dispositivi di archiviazione dei dati considerati la panacea per questo tipo di ambienti.
SearchCIO: Parliamo, dunque, di SSD. Come indirizzano le prestazioni delle applicazioni in un ambiente virtuale?
Taneja: Essendo dispositivi meccanici, gli hard disk possono produrre solo 100-200 IOPS per drive. Gli IOPS sono transazioni estremamente piccole, con i che rimbalzano continuamente. L’unico modo per rendere questo lavoro efficace è dotare lo storage della capacità di fornire alti IOPS. Software come HP 3PAR contribuiscono a migliorare sensibilmente le prestazioni negli ambienti di virtualizzazione server proprio in questo modo, attraverso la randomizzazione degli I/O unita al provisioning intelligente delle risorse. Queste nuove tecnologie contribuiranno senza dubbio a favorire la progressiva migrazione delle applicazioni mission-critical verso le macchine virtuali.
SearchCIO: Come si cala tutto questo nelle attività di ricostruzione o, come sentiamo dire, “decostruzione” del datacenter?
Taneja: Il responsabile del CED ha bisogno di una nuova architettura di storage e ha a disposizione queste nuove tecnologie che affrontano il problema IOPS. La tecnologia SSD sta per avere un impatto enorme all’interno di tutti i datacenter perché le aziende vogliono affrancarsi dalle costrizioni degli hard disk. Grazie alla tecnologia SSD a livello di flash, server cache o scheda PCI, tutti questi limiti potranno essere superati.
SearchCIO: Allora che aspetto avranno, in futuro, i datacenter una volta che questa decostruzione sarà completata?
Taneja: L’intero centro dati sarà virtualizzato. Avrò la virtualizzazione a livello di applicazioni, server, networking e storage. Siamo già a buon punto sulla virtualizzazione dei server, tranne che per le applicazioni mission-critical. C’è molto più da fare nello spazio della virtualizzazione delle applicazioni. L’astrazione a livello di rete, al momento, è inesistente mentre quella dello storage è ancora nella sua fase infantile, stimabile in un risicato 10% del totale degli ambienti di memorizzazione attuali. Ma in futuro, sono convinto che i CED saranno ambienti completamente astratti, dotati di una “mentalità cloud”. Cosa significa questo? Vuol dire che se io sono l’utente responsabile di tutto l’IT relativamente al settore finanziario di un’azienda, allora potrò permettermi di chiedere al responsabile dei sistemi informativi di fatturarmi e farmi pagare solo per le risorse effettivamente consumate dalla mia divisione.
SearchCIO: Quali tecnologie di storage sono disponibili per aiutare i CIO a determinare come fare a fatturare e far pagare per l’utilizzo effettivo delle capacità storage?
Taneja: Ogni vendor, in questo momento sta creando i propri sistemi di archiviazione in modo che tutti i nuovi prodotti includano funzionalità di gestione dei domini virtuali e siano orientati al supporto multi-tenancy. Questo significa che sono in grado di servire un certo numero di sistemi e applicazioni senza che i relativi dati si confondano e questo è già un mattone fondamentale per costruire i datacenter del futuro.
SearchCIO: Che consiglio darebbe ai CIO che iniziano a creare questi centri dati di nuova generazione?
Taneja: Consiglierei loro di iniziare con la virtualizzazione dei server. Questo li costringerà ad acquistare il giusto tipo di storage, che supporti i domini virtuali e gli ambienti multi-tenant. Allo stesso tempo, sarà necessario disporre di un cloud privato, per i dati che si desiderano conservare in-house, che si possa connettere al cloud pubblico, utilizzato per tutti i dati che si vogliono gestire in modalità offload. Ovviamente, questo impone di prestare molta attenzione all’aspetto dell’integrazione tra i due cloud, privato e pubblico. I nostri responsabili avranno, quindi, bisogno di strumenti per la gestione e dovranno stabilire policy che assicurino che nessun dato critico possa, per loro volontà o per un incidente, essere spostato sul cloud pubblico. Questi sono tutti gli elementi di questo processo dirompente che i responsabili del CED devono saper maneggiare con cura se vogliono garantire che il loro datacenter, tra qualche anno, sia un ambiente completamente self-service e abbia quell’agilità intrinseca che gli permette di adattarsi subito alle mutate esigenze dei reparti aziendali. Questo è la rivoluzione del Datacenter-as-a-Service.