Tech InDepth

All-Flash storage: cosa misurare e come calcolare il valore che può generare

Operazioni di input/output per secondo, quantità di dati trasferibili e tempi di risposta. Ecco come misurare le prestazioni dei sistemi storage basati su tecnologia All-Flash. Ma questo basta a identificarne il valore?

Pubblicato il 21 Giu 2019

Il mercato dello storage legato agli All-Flash Array (Afa) è in continua espansione tanto da far registrare ogni anno crescite a due cifre.

Secondo il Global Quarterly Enterprise Storage Systems Tracker di IDC, i ricavi dei venditori nel mercato mondiale dei sistemi di storage di livello enterprise sono aumentati del 7,4% anno su anno portando a 14,5 miliardi di dollari il valore del mercato solo nel quarto trimestre del 2018 (4Q18). Ciò che sorprende maggiormenete è però la crescita continua dell’All-Flash storage che, come accennato, continua a crescere a due cifre. Il mercato legato alle tecnologie degli All-Flash Array (AFA) ha generato poco più di 2,73 miliardi di dollari di entrate durante il trimestre, in crescita del 37,6% su base annua. Il mercato Hybrid Flash Array (HFA) vale poco più di 3,06 miliardi di dollari di ricavi, in crescita del 13,4% rispetto al quarto trimestre dell’anno prima.

Va precisato che, fino al 2015 la prevalenza d’offerta si era concentrata sui sistemi ibridi (HFA) perché in grado, fino ad allora, di garantire per la maggior parte del tempo necessario le performance delle memorie flash a supporto di determinati workload ad un costo per gigabyte inferiore rispetto ai sistemi All-Flash.

Il grande “giro di boa” si è verificato nel 2016, anno in cui le memorie per l’All-Flash storage hanno iniziato ad arrivare sul mercato a prezzi inferiori diventano mainstream come scelta primaria per lo storage e non più come ‘opzione’ per specifici progetti e carichi di lavoro che richiedevano elevate performance.

Ultimo aggiornamento: 21 giugno 2019

All-flash storage, un mercato destinato a crescere ancora (grazie ad AI e machine learning)

A testimoniare la prosperità di questo comparto del mercato tecnologico è l’ultimo Global Forecast di MarketsandMarket specifico per il settore degli All-Flash Array secondo il quale il mercato All-Flash Array è stato valutato in 5,9 miliardi di dollari nel 2018 e si presta a raggiungere i 17,8 miliardi di dollari entro il 2023, con un CAGR (crescita media annua) del 24,53% dal 2018 al 2023.

I principali driver di crescita riguardano, principalmente, i tassi di adozione da parte delle aziende; come accennato, dal 2016 in poi questi sistemi sono sempre più utilizzati nei data center, complice la tecnologia sempre più performante a costi accessibili.

Inoltre, concorrono al successo del mercato anche fattori quali flessibilità, facile installazione, manutenzione semplificata e dimensioni ridotte dell’hardware. Tuttavia, a dare la forte accelerata, secondo gli analisti, è (e sarà nei prossimi anni) la crescente necessità di elaborazione dei dati in tempo reale che, di fatto, abilita a livello di processi aziendali (It e di Business) nuovi wordload data-intensive per i quali saranno sempre più necessarie infrastrutture abilitanti altamente performanti.

Secondo i piani previsionali della società di analisi americana, Intelligenza Artificiale e Machine Learning dovrebbero alimentare ulteriormente la crescita del mercato dell’All-Flash storage nei prossimi anni. I problemi legati alle prestazioni e ai guasti delle unità storage “old style”, inoltre, stanno agendo da ulteriore leva per la crescita del mercato degli All-Flash Array: per “reggere” avanzate analisi di dati o processi che richiedono l’elaborazione di grandi moli di dati in tempi molto molto rapidi stanno evidenziando i limiti delle infrastrutture storage tradizionali.

Che cos’è la tecnologia flash

Per cercare di capire il perché le tecnologie storage tradizionali sembrano “perdere di efficacia” davanti a nuove esigenze di trasferimento e analisi dei dati, è bene capire innanzitutto cos’è la tecnologia flash.

Quando si parla di flash storage, solitamente ci si riferisce alla tecnologia Nand Flash ossia una memoria solida (Ssd, solid state disk) composta da milioni di gate di memoria posti su un circuito di silicio. La tecnologia flash ha già più di 30 anni di vita ma solo nell’ultimo decennio ha avuto una forte accelerazione; la ricerca sul fronte delle nanotecnologie si è spinta sempre oltre, aumentando la densità di memoria in un singolo chip e quindi la capacità di memorizzare i dati; questi vengono archiviati in ‘celle di memoria’ dalle quali derivano poi i nomi utilizzati per identificare le tipologie di soluzioni:

  • Slc – single-level cell nelle quali ogni cella di memoria è in grado di archiviare un singolo valore (on-off, 0-1);
  • Mlc – multi-level cell, sistemi in grado di memorizzare due bit di dati e quindi fino a ‘4 stati’ (00, 01, 10, 11);
  • Tlc – triple-level cell, memorie nelle quali si possono archiviare fino a tre bit in ogni singola cella (nelle combinazioni da 000 a 111).

Queste distinzioni assumono rilevante importanza perché è dalla tipologia di soluzione e capacità di memorizzazione dei dati che dipendono poi le performance dello storage e, di conseguenza, delle applicazioni e dei workload che ad esso attingono. Contrariamente a quanto si possa pensare da una prima rapida considerazione, i sistemi Mlc e Tlc sembrerebbero quelli più performanti ma soffrono di una più elevata usura e hanno prestazioni di velocità di scrittura inferiori se comparati ai sistemi Slc che, al contrario, risultano più affidabili e quindi più adatti per workload di tipo enterprise [ma va detto che lo sviluppo continuo delle nuove celle multilevel di classe enterprise (eMLC) sta andando proprio nella direzione dell’aumento di densità di memoria in singoli chip senza tuttavia avere compromissioni sul fronte delle prestazioni, che è ciò che serve a livello di enterprise data center – ndr].

Vantaggi degli All-Flash array, quali parametri prendere in considerazione

Partendo dalle analisi riportate in alcuni studi da Henry Baltazar e Richard Fichera, due analisti di Forrester, appare evidente che i criteri per decidere se la tecnologia All-Flash rappresenti il corretto investimento per il proprio data center aziendale tutto sommato non sono differenti da quelli di un qualsiasi altro acquisto di infrastruttura storage, dato che i tre elementi principali da prendere in considerazione sono: costi, performance e capacità.
Inizialmente i sistemi storage basati su dischi solidi All-Flash erano costosi per cui adottati solo in ‘casi eccezionali’ quale tecnologia aggiuntiva a supporto di architetture o applicazioni che richiedevano disponibilità del dato senza problemi di latenza (come per esempio in realtà dove il numero di Vdi – Virtual Desktop Infrastructure era in crescita), osservano i due analisti. Come accennato all’inizio di questo articolo, nel 2016 le barriere di ingresso per l’acquisto di questa tecnologia si sono notevolmente abbassate tanto che è stato ribattezzato come l’anno dell’All-Flash mainstream (anche dal punto di vista della capacità dei dischi non vi sono più particolari criticità dato che in soli tre anni si è passati da dischi con capacità di qualche Gigabyte a sistemi in grado di ospitare decine di Terabyte di dati con configurazioni aziendali in array che arrivano a gestire anche decine di Petabyte di dati).

Data center all flash, cosa misurare per verificarne le prestazioni

Per quanto riguarda le prestazioni, invece, tre sono i parametri che su suggerimento sia di Forrester sia di Gartner, si dovrebbero monitorare con attenzione:

  1. IOps (input/output operation per second), ossia le operazioni di I/O (input/output o scrittura/lettura) eseguibili in un secondo; come metro di paragone può essere utile ricordare che un disco magnetico da 15mila giri permette circa 200 IOps mentre su un disco a stato solido se ne possono eseguire migliaia;
  2. throughput (spesso anche identificato come MBs – Megabytes per second), misura la quantità di dati trasferibili (lettura/scrittura) in un periodo di tempo specificato, in genere espressa appunto in Megabyte al secondo. Il throughput è indicativo delle prestazioni di un dispositivo in un’applicazione che genera operazioni sequenziali di lettura o scrittura e diventa un parametro particolarmente importante quando la tecnologia flash viene presa in considerazione quale infrastruttura di supporto ad architetture di enterprise data warehouse ed in progetti di analytics (Big data e IoT in particolare);
  3. latenza (ossia il tempo di risposta), misura il tempo impiegato dal dispositivo storage per rispondere ad una richiesta I/O; in sistemi tradizionali i tempi di risposta si attestano nell’ordine di qualche millisecondo che generano spesso ‘tempi morti’ di attesa per la Cpu che deve processare i dati e renderli disponibili alle applicazioni (con evidenti ripercussioni sui workload: si pensi ad un Erp in un momento di picco durante la fatturazione); con la tecnologia flash i tempi di risposta si riducono sotto il millisecondo (tant’è che si parla di latenza di microsecondi).

Come ponderare il valore dei sistemi All-Flash Array

Se gli indicatori per poter capire, lato It, quali sono le prestazioni reali di un sistema All-Flash sono abbastanza semplici da identificare e monitorare (si parla di IOps, throughput e latenza, argomenti noti e di dominio dell’It da sempre), questi sistemi “soffrono di una inadeguata misura del valore”, sostiene Randy Kerns, analista di Evaluator Group (società di analisi specializzata in Information Management e storage). “Molti utilizzano il cosiddetto ‘data at rest’ come misura che rappresenta il costo dell’archiviazione dei dati ma che non tiene conto di due importanti caratteristiche di un sistema storage, il tempo di accesso e la longevità. Il ‘data at rest’, solitamente misurato in dollaro per Gb, non è in grado di calcolare il reale valore della tecnologia All-Flash che si esprime in realtà guardando agli effetti che lo storage produce sui workload di business”.

Stando quindi alle valutazioni di Kerns, per poter calcolare correttamente il valore reale che una tecnologia All-Flash può generare all’interno del proprio data center ed azienda, i punti di attenzione dovrebbero essere i seguenti:

  1. consolidamento: i sistemi All-Flash sono in grado di supportare differenti workload e in un unico sistema storage è possibile configurare e consolidare molteplici dischi che lavorano su task differenti con ripercussioni non solo sulla riduzione dei costi (tra i quali anche quelli per lo spazio fisico, l’alimentazione e il raffreddamento, ecc.) ma anche sulle operazioni di gestione dello storage;
  2. accelerazione: i sistemi flash consentono alle applicazioni di ‘girare’ più velocemente (database, virtual machine, ambienti destktop virtuali, business application, sistemi di analytics, ecc.) con evidenti benefici sul fronte della produttività aziendale;
  3. longevità: “probabilmente il parametro meno compreso”, riporta in modo provocatorio l’analista. Si tratta della ‘vita media’ dei dispositivi flash ed è importante comprendere l’impatto economico che il loro ciclo di vita provoca. Le caratteristiche di affidabilità e di usura dei sistemi flash sono diverse dai dispositivi elettro-meccanici e hanno raggiunto livelli di ‘longevità’ che i vendor si spingono a dichiarare tra i 7 ed i 10 anni. Questo cambia drasticamente l’economia dal punto di vista del Tco, elemento che diventa critico in qualsiasi nuovo investimento It.

POINT OF VIEW - AD CONSULTING All-Flash storage: cosa misurare e come calcolare il valore che può generare SCOPRI DI PIU'

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Nicoletta Boldrini
Nicoletta Boldrini

Segue da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie esponenziali sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società. Il suo motto: sempre in marcia a caccia di innovazione #Hunting4Innovation

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2