E’ da qualche tempo ormai che come ZeroUno analizziamo le tecnologie flash osservandone l’evoluzione da differenti prospettive, comprese quelle di business, con l’obiettivo di delineare nella maniera più dettagliata possibile le frontiere di quello che potremmo senz’altro identificare come il ‘new generation storage’. Proseguendo lungo la nostra analisi, in questo servizio cerchiamo di capire dove e quando diventa necessario ‘fare un salto quantico’ e passare all’all-flash storage.
Innanzitutto va ricordato che l’all-flash non rappresenta solo una versione super veloce dei dischi storage ma, di fatto, è un supporto tecnologico completamente differente dai precedenti sistemi di memoria.
Non vogliamo certo dire che dischi storage tradizionali e Ssd – Solid State Drive non possano eseguire gli stessi task, ma stiamo parlando di tecnologie che funzionano in modo diverso tra loro e “se il vostro array firmware e le vostre applicazioni continueranno ad indirizzare la tecnologia flash come se fosse un disco storage tradizionale, allora potreste perdere il vantaggio che questo tipo di tecnologie in realtà offrono”, si spinge a scrivere il giornalista Bryan Betts sulle pagine del portale TechTarget. Cerchiamo di capire perché.
All-flash storage verso la piena maturità
Inizialmente i sistemi storage basti su all-flash, esattamente come i precursori Dram [Dynamic Random Access Memory, tipo di Ram che immagazzina ogni bit in un diverso condensatore che, a seconda del numero di elettroni presenti determina se il bit è 1 o 0; per questo motivo è stata identificata come memoria dinamica – ndr], sono stati impiegati a supporto di applicazioni che richiedono elevate performance e bassa latenza oppure per processi ‘sensibili’ e critici al punto da far passare in secondo piano il ‘peso’ del costo della tecnologia all-flash. In realtà, oggi le aziende ci confermano che il prezzo di ingresso dei sistemi all-flash storage si è di molto abbassato per cui non dovrebbe più rappresentare un freno per un suo più diffuso impiego.
A consentire all’all-flash di raggiungere la piena maturità sono state anche le tecnologie Mlc – Multi level cell e Tlc – Triple level cell che consentono di aumentare i livelli di densità dello storage archiviando 2 o 3 bits per cella accelerando la scalabilità dei sistemi. “In realtà più i chip sono densi più potrebbero risultare meno affidabili in termini di performance – osserva Betts – anche se le funzionalità software-defined hanno ben dimostrato come siano in grado di ‘compensare’ questo rapporto riportando le caratteristiche prestazionali dei sistemi all’ottimale efficienza”.
Infine, un altro fattore che ha contribuito a rendere l’all-flash storage più facile da adottare riguarda lo sviluppo delle funzionalità di gestione, oggi di gran lunga semplificate come interfaccia d’uso ma sofisticate nelle capacità che si spingono fino alla Cdp – Continuous Data Protection, Quality of Service e creazione di ‘istantanee’ (snapshot) senza incidere sulla capacità storage complessiva delle infrastrutture.
Per certi workload l’all-flash è ‘obbligatorio’
La piena maturità tecnologica dell’all-flash storage ci porta ad ipotizzare scenari di ‘adozione di massa’ nel medio-breve periodo, corsa che potrebbe essere accelerata dalla disponibilità di sistemi sofisticati a prezzi decisamente più ‘abbordabili’ rispetto a 12-18 mesi fa; tuttavia, così come sta avvenendo per i sistemi basati sui modelli cloud, anche per lo storage si sta sempre più configurando uno scenario ibrido di convivenza tra dischi tradizionali e tecnologie Ssd. Nulla di errato in sé, se non che per determinati workload la scelta potrebbe risultare controproducente. Abbiamo più volte avuto modo di evidenziare come la gestione delle macchine virtuali e la loro crescita in termini numerici rappresenti uno dei driver primari di adozione dello storage di tipo all-flash, così come il fatto che una infrastruttura storage all-flash si una scelta quasi obbligata per un supporto prestazionale adeguato alle Vdi – Virtual desktop infrastructure, ma questi non sono certo gli unici ambiti entro i quali l’all-flash possa esprimere il suo potenziale.
Le transazioni online ‘customer facing’ (abbinate cioè ad applicazioni e servizi utilizzati dai clienti/utenti via web o via mobile), così come i processi di analisi dei dati (sempre più sofisticati), richiedono nel substrato tecnologico di base un sistema infrastrutturale in grado di garantire massime performance, alta affidabilità e sicurezza dei dati perché un errore, anche temporaneo, in questi workload genera immediatamente una serie di conseguenze di business che possono arrivare fino alla perdita di un incasso o di produttività interna. I workload sequenziali (quelli cioè che leggono i dati in sequenza come avviene per esempio nei processi di backup oppure nella lettura/scrittura di file video) rappresentano un altro ambito dove le caratteristiche prestazionali dell’all-flash garantiscono una risposta efficace, così come quelli che prevedono la gestione di grandi proporzioni di dati statici (come quelli contenuti per esempio nelle cartelle cliniche).
L’abbassamento dei costi della tecnologia consentirà man mano di abbandonare i modelli ibridi per passare all’all-flash storage anche in funzione di altri workload meno ‘critici’, a maggior ragione se si pensa che, da un punto di vista più generale, i sistemi di questo tipo sono molto compatti ed oggi consumano in media molta meno energia rispetto alle infrastrutture storage tradizionali o ibride.