NetApp: d’ora in poi, tutto sul Flash

Con una serie di annunci e anticipazioni di nuovi sistemi interamente basati su flash array, la casa californiana estende, o piuttosto sposta, la propria offerta sulla tecnologia a stato solido, nell’intento di farne il mainstream per lo storage enterprise rivolto alla fascia più esigente e più ricca del mercato

Pubblicato il 27 Feb 2013

Tom Georgens, President e Ceo di NetApp

SUNNYVALE (CA) – “Possiamo sicuramente affermare che già dal prossimo anno quella dello storage su memorie flash si potrà considerare una tecnologia mainstream, con un mercato che dai 5 miliardi di dollari del 2011 stimiamo possa raggiungere, nel 2014, i 10 miliardi”. Lo ha detto Jeff Janukowicz, Research Director di Idc per l’area Solid State Storage in occasione di un evento che lo scorso 19 febbraio ha raccolto presso il quartier generale di NetApp un gruppo di giornalisti e blogger di tutto il mondo (con una nutrita presenza di Cina, Giappone e Sud Corea) per l’annuncio di una sua nuova linea d’offerta nell’area appunto dello storage su sistemi a stato solido. Al di là dell’indubbio contenuto ‘di notizia’ dato dal lancio dei nuovi prodotti, dei quali diremo poi, il valore aggiunto dell’evento sta nel fatto di esserci potuti confrontare su tecnologie che stanno cambiando il quadro dello storage e sulle quali tutti i vendor di soluzioni infrastrutturali (server-storage-networking) sono impegnati. Questa analisi è stata possibile grazie all’incontro con ben otto top manager NetApp, una società che sta spostando sui sistemi all-flash la propria strategia d’offerta, con il già citato analista Idc, che segue da tempo il fenomeno, e con i Cio di due aziende utenti che ne hanno fatto esperienza: il Children’s Hospital della California (3.800 posti letto e 3.000 dipendenti) e Gracenote, applicazioni e servizi per l’entertainement (500 milioni di query al giorno).

Flash array per lo storage enterprise

Sviluppate nei laboratori Toshiba negli anni ’80 e introdotte sul mercato da Intel nel 1988, le memorie flash sono al cuore dell’elettronica di consumo, dai telefoni cellulari ai tablet Pc, e, come scheda o chiavetta Usb, sono da anni il più comune mezzo di scambio dati. Nello storage enterprise, però, la loro presenza è relativamente recente e limitata a usi particolari. Due sono le ragioni di questo fatto: una, nota, è il costo per capacità, superiore rispetto al disco magnetico; l’altra, di cui si parla meno, è che una memoria flash non si può riscrivere più di un certo numero di volte, per cui se all’utente consumer dura più di dieci anni, all’utente enterprise non viene garantita per più di tre. Troppo poco per ammortizzarne l’investimento. Per questo gli Ssd (solid-state drive), che utilizzano appunto memorie flash, si trovano nelle memorie cache a supporto dei disk array tradizionali (Hdd accelerator) ma il loro impiego come storage primario, al servizio delle applicazioni, è ancora limitato.

Questa situazione è destinata a cambiare sulla spinta di almeno tre fattori. Il primo è il diminuito costo dei chip, dato dalla concorrenza tra i produttori e dalle economie di scala dovute al massiccio impiego nell’elettronica di consumo, con chiavette da 64 e tablet da 128 Gb. Il secondo fattore sta nel fatto che rispetto a quelli magnetici gli Ssd consumano poca energia per l’alimentazione e pochissima per il raffreddamento, cosa non trascurabile in un’ottica di impiego Data center. Ma il terzo e principale fattore di spinta sta nelle nuove esigenze dei servizi It al business e nell’evoluzione che ne deriva per l’infrastruttura It. “Oggi il data center – ha detto Tom Georgens, President e Ceo di NetApp – è un misto di modelli architetturali diversi: silos applicativi tradizionali, pool di risorse virtualizzate, cloud ibridi e privati. Tutto però va a poggiare sullo storage”. Uno storage che dev’essere quanto più possibile flessibile, dato che “…se alcune applicazioni hanno bisogno d’infrastrutture dedicate, la maggioranza lavora su infrastrutture condivise”, e performante nell’accesso e nella scrittura dei dati.

Manish Goel, Executive VP Product Operations di NetApp

“Il problema – ha osservato Manish Goel, Executive VP Product Operations della società – è che il solo incremento che si è avuto nella tecnologia magnetica è stato nella capacità dei dischi, che ha fatto precipitare a pochi centesimi il costo per Gbyte, mentre le prestazioni in tempo di accesso e di latenza sono rimaste negli ultimi dieci anni praticamente le stesse”. Il risultato è che la distanza fra le prestazioni delle Cpu e quelle dello storage è cresciuta, rendendo quest’ultimo un freno alla necessità di migliorare l’efficienza generale del data center. Un bisogno che emerge soprattutto verso le nuove istanze di flessibilità richieste dai servizi cloud e dalla variabilità dei carichi di lavoro imposta dal business, e di prestazioni richieste dall’analisi dei big data. È questa l’opportunità che si apre alla tecnologia Ssd, che non va certamente, nota ancora l’analista Idc, ad erodere il mercato dei dischi tradizionali, dominio delle alte capacità, ma ad occupare spazio nella fascia delle alte prestazioni. Che è, come ovvio, il mercato, più ricco anche dal punto di vista del margine e dei profitti, cui punta la strategia NetApp, con un’offerta della quale gli annunci di cui ora parliamo sono solo, ci è stato fatto capire, l’avanguardia.

Gli annunci NetApp

Il primo annuncio, e più eclatante, è quello del sistema EF540. Si tratta di un Ssd array interamente in tecnologia flash che si indirizza alla fascia alta del mercato, cioè a quelle imprese le cui applicazioni ‘core’ richiedono allo storage sia un’availability elevata sia elevate prestazioni. L’affidabilità è assicurata da un’architettura fault-tolerant e da un hardware ridondante che in pratica azzerano i rischi di downtime, mentre le performance sono davvero eccezionali: l’accesso ai dati viene garantito in meno di un millisecondo e la frequenza degli accessi può superare le 300 mila operazioni I/O al secondo. Con questo supporto, un’applicazione data-intensive (tipicamente servizi Web, ma anche applicazioni in campo medico, per team R&D e, in generale, operanti su basi dati distribuite) può funzionare fino al 500% più velocemente che non sfruttando disk array tradizionali e con lo stesso livello di affidabilità. La disponibilità, in configurazioni da 12 e 24 drive per capacità sino a 19,2 Terabyte è immediata. Quanto all’investimento richiesto, non se n’è parlato se non in relazione alle prestazioni. Secondo Tim Russel, Vp Data Lifecycle Group NetApp, “…per sostituire un EF540 bisognerebbe poter sfruttare contemporaneamente 1.500 ‘spinning disk’, cosa teoricamente fattibile, ma a costi d’investimento, energia e gestione ben superiori”..

Il secondo annuncio, che riguarda invece prodotti che saranno messi in commercio nei primi mesi del 2014 dopo un periodo di beta test presso un limitato numero di utenti, è quello della famiglia Flash Ray. Si tratta, anche in questo caso, di sistemi interamente Ssd caratterizzati da una nuova architettura interna che a quanto si è saputo (trattandosi di anticipazioni su prodotti in via di definizione non si sono avute che informazioni necessariamente limitate) permette di ottimizzarne il rendimento in funzione di specifici carichi di lavoro. Si rivolgono quindi a quelle applicazioni che necessitano di infrastrutture dedicate, cui offrono il vantaggio di un facile scale-out, ossia la scalabilità orizzontale che si ottiene moltiplicando il numero dei dispositivi in rete. Quest’ultima può essere una San fiber-channel (soluzione ideale) o anche iScsi.

Infine, sono state presentate tre nuove piattaforme della famiglia Fas6200. Si tratta dei sistemi Fas6220, 6250 e 6290, che estendono verso l’alto per prestazioni e capacità scalabile il mercato indirizzato dalla famiglia. Come gli altri apparati 6200, anche i nuovi prodotti usufruiscono del software Virtual Storage Tier, che ottimizza la gestione degli I/O assegnando automaticamente le priorità in base al carico di lavoro, e Data Ontap, che prevede i rischi riducendo la necessità di downtime programmati.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3