Lo storage come punto critico di attenzione all’interno delle infrastrutture It ridisegnate dalla digital transformation. Il ruolo chiave dei sistemi San nei nuovi ambienti orientati al cloud, capaci di supportare workload diversi per intensità e Sla. Sono questi i temi chiave del webcast organizzato da ZeroUno in partnership con NetApp e Icos, distributore a valore aggiunto di soluzioni It e con la partecipazione di Quantum, vendor di soluzioni di archiviazione e data protection.
“La tematica che affrontiamo oggi, quella dello storage intelligente, è sfidante – esordisce Patrizia Fabbri, caporedattore di ZeroUno e chiarman dell’incontro – perché significa parlare di un nuovo paradigma per una parte dell’infrastruttura tecnologica che, per lungo tempo, è rimasta un po’ ai margini del grande processo di trasformazione che ha investito le aziende. Invece, soprattutto negli ultimi anni, il tema di una archiviazione dei dati flessibile e agile, che consenta alle applicazioni di disporre dei dati quando e dove è necessario e che nel contempo ottimizzi l’utilizzo delle risorse di storage, è emerso in tutta la sua importanza”. E le tecnologie per rispondere a queste esigenze ci sono: dall’object storage per la gestione dei dati non strutturati alle tecnologie flash per la disponibilità in real time, al software defined data center alle nuove funzionalità delle San. “Il punto importante – sottolinea Fabbri – è capire quale tecnologia risponde meglio alle proprie esigenze e quali caratteristiche deve avere il partner che ci supporta nel percorso di adozione”.
Big data e analytics guidano la rivoluzione storage
L’intervento di Stefano Mainetti, Codirettore Scientifico dell’Osservatorio Cloud & Ict as a Service della School of Management del Politecnico di Milano, pone l’accento sulla rivoluzione digitale in atto, anche in Italia (45 milioni di smartphone e 12 milioni di tablet in circolazione, mercato IoT verso il miliardo di euro). Se aumentano i dispositivi connessi e la mole di informazioni, anche i sistemi It dovranno evolvere: “La crescita dei dati gestiti all’interno delle soluzioni di big data analytics e business intelligence è significativa, soprattutto per quanto riguarda le informazioni destrutturate (+31% 2014 su 2013 secondo l’Osservatorio) rispetto a quelle strutturate (+21%). Contemporaneamente, si richiede una velocità di analisi maggiore. Occorre un cambio di passo”. Come? Attraverso un datacenter flessibile che può essere gestito via software, nelle componenti di server, networking e storage, ma anche a livello di facility. I sistemi di archiviazione sembrano però soffrire di un certo ritardo sulla tabella di marcia: “Oggi – afferma Mainetti – molti vendor sono in grado di offrire sistemi virtualizzati che vanno ad affiancarsi ai sistemi Nas e San. Ma si fatica a fare il salto successivo verso il software-defined storage e la nuvola pubblica”. In Italia, gli ambienti ibridi non sono ancora maturi, ma le aziende stanno investendo nella cloud enabling infrastructure: la spesa (860 milioni di euro) è cresciuta del 28% rispetto all’anno precedente e rappresenta il 73% degli acquisti cloud. Solo il 6% delle aziende (su un campione di 89 grandi imprese) dichiara budget in contrazione per il 2015, mentre il 29% investirà nella storage virtualization interna (quarta voce della spesa in infrastrutture). Tuttavia, permangono i colli di bottiglia come mancanza di skill interni, visione infrastrutturale e standardizzazione dei processi, oltre ai costi dell’intervento.
Sistemi San al cuore del datacenter agile
In questo scenario complesso, i sistemi San rappresentano una valida soluzione per il ridisegno delle infrastrutture, come illustra Davide Schiavon, E-Series Business Development Executive Semea and Middle East di NetApp. “Il mondo It è attraversato da tre dinamiche importanti: l’evoluzione dei sistemi operativi (dismissione Windows Server 2003), il potenziamento dell’hardware sottostante (disponibili i nuovi server Intel), introduzione di applicazioni e database che richiedono soluzioni di storage sempre più performanti. I sistemi San rispondono a questo contesto offrendo prestazioni prevedibili e affidabili, alta disponibilità e integrazione applicativa”. L’offerta di NetApp in quest’area si chiama E-Series, un portfolio di sistemi San per la gestione dei carichi di lavoro specifici, gestiti attraverso il sistema operativo Santricity, che permette un interfacciamento semplice con le tecnologie Microsoft, Oracle e VMware.
Oltre a puntare su consolidamento e virtualizzazione, le soluzioni NetApp, come evidenzia Schiavon, vanno a soddisfare le nuove esigenze di backup (“vantiamo una compatibilità storica con le tecnologie Symantec, Veeam, CommVault”), nonché di supporto ai database, alle collaboration suite e alle applicazioni di high-performance computing.
Sul tema del backup interviene Massimiliano Capoccetti, Manager Presales, Expansion Markets di Quantum: “Le richieste di availability da parte degli utenti sono sempre più pressanti e le aziende, nel definire le strategie di backup, devono innanzitutto stabilire gli obiettivi di Rto (Recovery Time Objective) e Rpo (Recovery Point Objective), che possono essere perseguiti attraverso le tecnologie di snapshot in abbinamento alle appliance di deduplica”. Da queste considerazioni nasce la collaborazione NetApp-Quantum per lo sviluppo del sistema Dxi 6900 di backup e deduplica, capace di integrarsi, secondo Capoccetti, all’interno di qualsiasi infrastruttura It.
Software-defined storage: le domande delle aziende
Numerose sono state le domande degli utenti. Tra le principali preoccupazioni, la mancanza di skill interni rispetto ai temi del software-defined e il ricorso al know-how dei partner, con il rischio di perdere il controllo. Il pericolo, come suggerisce Mainetti, può essere scongiurato costruendo una relazione win-win e una roadmap condivisa, secondo logiche di training on-the-job e rinnovamento non solo del parco infrastrutturale, ma anche del mix di competenze. Sotto un profilo più tecnologico, lo spauracchio dell’overprovisioning preventivo richiede ancora una risposta efficace, che secondo Schiavon può arrivare dall’hybrid storage (mix di tecnologie specifiche per workload con provisioning automatizzato) abbinato ai moderni array all-flash (come l’EF560 di NetApp) per supportare i carichi di lavoro più intensi.
A proposito della varietà di storage, Mainetti distingue tra San, che continuano a rappresentare, per le caratteristiche di solidità e performance, il cuore dell’infrastruttura storage, e sistemi iperconvergenti, ancora agli albori, che possono fare da scorciatoia per le nuove aziende/filiali non vincolate dal legacy e alternativa per gestire carichi di lavoro non predicibili, in virtù dell’alta scalabilità.
Ma in ambienti di crescente complessità, che tendono al multistorage e all’apertura verso il cloud, come si mantiene il controllo? Come riporta Schiavon, NetApp permette la governance centralizzata delle risorse proprietarie e di terze parti attraverso il software OnCommand Insight (Oci). Sotto il profilo della sicurezza, Capoccetti mette in luce l’efficacia degli algoritmi di deduplica sviluppati da Quantum che semplificano e accelerano le attività di backup, nonché dei sistemi di encryption.
“Lo storage visto a silos – conclude Mainetti – non è percorribile, mentre andrebbero applicate logiche di journey infrastrutturale con il supporto dei partner. Il Cio deve promuovere la roadmap presso il management mettendo in luce i kpi di business piuttosto che parametri puramente tecnici”.
NetApp, lo storage per datacenter “elastici” Con quartier generale a Sunnyvale (California) e un fatturato di 6,3 miliardi di dollari, Netapp fornisce soluzioni integrate per lo storage e la gestione dei dati. A supporto della datacenter transformation, propone la gamma E-Series di sistemi San (le vendite mondiali hanno raggiunto il milione) per la gestione dei carichi di lavoro specifici, costruiti sulla base di oltre 200 brevetti e gestiti attraverso il sistema operativo Santricity. Tra le caratteristiche di punta del portfolio: la tecnologia Dynamic Disk Pools (DDP) che permette l’aggiunta o la sostituzione di dischi (rebuild di sistema) a velocità elevate e senza perdita di performance; caching automatico ai dischi a stato solido (Ssd) e possibilità di integrare Ssd e Hdd (Hybrid Storage); funzionalità di snapshot e un sistema di disaster recovery efficiente, che permette la replica sincrona o asincrona dei dati via fiber channel o Ip; thin provisioning e supporto a funzionalità di sicurezza e data encryption aggiuntive. In abbinamento ai sistemi E-Series, l’array all-flash EF560, sempre basato su Santricity, offre una risposta alle sfide di accelerazione delle applicazioni e IO efficiency (assicura l’elaborazione di 650mila transazioni al secondo, con un tasso di consolidamento significativo), permettendo di liberare il core storage dai workload intensivi. Insieme a Quantum, NetApp ha sviluppato il sistema Dxi 6900 di backup e deduplica, caratterizzato da una velocità di backup superiore ai 16 Tb all’ora ed elevata scalabilità (da 17 a 510 Tb all’interno dello stesso rack). “Scegliere E-Series – ha dichiarato Davide Schiavon, E-Series Business Development Executive Semea and Middle East di NetApp – significa offrire servizi a più clienti e in modo più veloce, ottenere risultati certi e misurabili, aumentare l’affidabilità e la velocità dei sistemi attraverso un miglior supporto alle decisioni. Il tutto a vantaggio della customer experience, con una significativa riduzione dei costi grazie alla possibilità di consolidare l’infrastruttura fisica e le licenze software, scegliendo per ogni carico di lavoro il sistema ottimale”. |