Il grande sviluppo delle attività di business basate su interazioni on-line e delle analisi in tempo quasi reale sui big data hanno drasticamente ridotto il tempo di latenza accettabile per l’accesso ai dati da parte delle applicazioni aziendali. Di conseguenza si estende il ricorso ai sistemi storage a stato solido (o ‘flash’, dal tipo di memory-chip usato), la cui offerta esce dagli ambiti particolari cui era inizialmente rivolta per entrare a pieno titolo nell’area dello storage mainstream. Quest’evoluzione del mercato è spinta da tre fattori principali: il primo è la riduzione del costo dei componenti, da tre anni in qua in continuo calo; il secondo è lo sviluppo del software di virtualizzazione e gestione delle risorse, che permette d’integrare Ssd e disk array in ambienti storage gerarchici e di orchestrarne l’uso in funzione delle esigenze applicative; il terzo è l’affermarsi di un nuovo concetto di misura del costo dello storage di prima linea, che passa da $ per Gb a $ per Iops (operazioni I/O per secondo), parametro dove gli Ssd sono di gran lunga vincenti. A tutto ciò possiamo aggiungere i vantaggi di consumo energetico e d’ingombro dei sistemi flash, forse secondari ma non trascurabili per i responsabili delle infrastrutture e operazioni.
Su queste premesse, che abbiamo sintetizzato da un incontro avuto con Bob Madaio, Senior Director Product Marketing di Hitachi Data Systems, l’offerta Hds VSP (Virtual Storage Platfom) è stata recentemente ampliata e rinnovata in chiave Ssd con l’introduzione della nuova linea di sistemi all-flash VSP F, dei nuovi moduli flash con data compression in-line FMD DC2, e del potenziamento sia dei sistemi ibridi VSP G sia dei tool software Automation Director e Data Center Analytics.
Parliamo prima dei moduli flash perché stanno alla base sia della serie F, tre nuovi sistemi, F400, F600 e F800, con velocità da 375 mila a 1,4 milioni di Iops e capacità di lettura sequenziale da 11 a 24 Gb/sec, sia delle numerose innovazioni sui sistemi G. La novità degli FMD DC2 sta in un’architettura parallellizzata dei componenti grazie alla quale le operazioni di lettura e soprattutto di scrittura (le più lente) vengono accelerate sino a 3 e 5 volte rispettivamente. Un’altrettanto nuova tecnologia di multi-queuing dà priorità alle operazioni di I/O e mette in background le altre, riducendo ulteriormente la latenza anche sotto carico. Quanto alla compressione in-line si tratta, spiega Madaio, “…di una funzione che opera via silicon-software (algoritmi circuitizzati) intercettando i dati in transito e comprimendoli prima d’inviarli alle celle”. Il minor numero di celle occupate per pacchetto-dati permette di mantenere la latenza inferiore a 1 ms. Molto importante per l’efficienza globale dei sistemi è infine il nuovo Data Center Analytics. “La possibilità di monitorare e analizzare in continuo le prestazioni dello storage, sia nostro sia di terze parti – ha detto Madaio – permette di allocare strategicamente l’investimento in sistemi all-flash in un ambiente multi-vendor in modo da accelerare il deployment e l’erogazione dei servizi”.