Parte integrante del DNA informatico aziendale, lo storage non riguarda soltanto la memorizzazione dei dati ma anche e soprattutto le logiche di archiviazione e di accesso sottese. A ben guardare, infatti, sono queste ultime a caratterizzare le varie epoche dello storage e il relativo impatto sui data center. Così se ieri il tormentone dei CIO erano le attività di BackUp, oggi le LOB (line of business) si ritrovano in vario modo a parlare di Big Data Management. Ma più ancora che la quantità di dati da dover gestire, la sfida è orientarsi nel mare magnum delle opzioni tecnologiche oggi a disposizione delle aziende.
Dai sistemi a nastro a quelli su disco, magnetici e ottici, dall’Object Storage Device all’approccio Solid State Drive basato su un uso intelligente della memoria Flash fino ad arrivare allo Storage Software Defined, le tecnologie di memorizzazione diversificano gli orizzonti dello sviluppo. Cosa cambia dall’una all’altra? In primis i tempi di latenza nell’accesso ai dati memorizzati. L’indisponibilità di un’informazione, nell’era del time to market, non è mai un buon indicatore di servizio per un data center. In pratica, non serve avere un ottimo sistema di archiviazione in termini di capacità e di sicurezza se poi i tempi di accesso alle informazioni sono lunghi.
Il mantra dello storage? Un’informazione veloce
La responsabilità cruciale degli IT manager aziendali è diventata saper gestire e distribuire con efficienza applicazioni e dati. Come? Là dove serve, garantendo anche performance di fruizione accettabili a seconda delle diverse tipologie di utenti, che sono in numero maggiore (addetti interni, mobile worker, utenti finali) rispetto a prima e che, grazie a una mobilità pervasiva e a una maggior disponibilità di banda, si connettono praticamente sempre e ovunque.
Risolvere lo storage e velocizzare i processi di archiviazione e di recupero dei dati, significa analizzare le infrastrutture esistenti e decidere il tipo di tecnologia da utilizzare, stabilendo il criterio con cui è possibile gestire ambienti fisici e ambienti virtuali in maniera assolutamente dinamica, a seconda delle esigenze. Capire quali sono i dati più richiesti in modo da impostare una prioritizzazione intelligente non è mai banale e gli strumenti automatici aiutano non poco a stabilire i criteri più adeguati.
Come e perché oggi virtualizzare la SAN è meglio
Premesso che le configurazioni della Storage Area Network sono sempre più diversificate, costruire un sistema di rete, generalmente ad alta velocità e costituito esclusivamente da dispositivi di memorizzazione anche di vario tipo, rende più efficiente la gestione. È così che l’IT può ottimizzare le risorse, rendendole disponibili per gli application server e i DBMS server, così come a tutti gli altri sistemi di elaborazione in modo più efficiente.
A cambiare le cose è stato l’arrivo della virtualizzazione. Anche per la SAN, infatti, si è aperto il capitolo della softwarizzazione dello storage. Virtualizzare lo storage è un approccio che le aziende scelgono volentieri: c’è una letteratura diffusa in merito ai vantaggi e all’affidabilità di una tecnologia consolidata, che sostituisce la complessità gestionale legata alle macchine fisiche con i più pratici snapshot. Secondo i dati dell’Osservatorio Cloud&ICT as a Service del Politecnico di Milano, oltre il 51% delle aziende italiane ha progetti di investimento nella virtualizzazione di server e storage. Il che riporta sul tavolo il tema della governance: la virtualizzazione, infatti, comporta anche l’implementazione di soluzioni di provisioning che supportino i manager nel bilanciamento delle risorse, in modo da renderle disponibili quando servono, nel momento in cui servono.
Datemi un hypervisor e vi solleverò il data center!
Il problema delle SAN, infatti, è che sono nate prima della virtualizzazione. Questo, tradotto, significa che non sono sempre presentano caratteristiche capaci di fornire le prestazioni in input e in output (I/O) necessarie a supportare le performance degli ambienti virtualizzati. I carichi di lavoro, infatti, negli ambienti deduplicati sono estremamente variabili e dinamici, per questo gestire le prestazioni non è sempre facile.
Ad ovviare al problema è arrivata l’era dell’iperconvergenza, che rappresenta l’ultima frontiera della governance. Alla base dell’iperconvergenza c’è una nuova intelligenza del software. Grazie a questa chiave di sviluppo server, storage e software di virtualizzazione convergono in un unico oggetto, detto appliance, governato da un unico programma che funge da controller di gestione. Nello specifico, l’intera infrastruttura, costituita da server, memoria, collegamenti e sistemi di storage viene integrata in un’appliance che, grazie a una centralizzazione di nuova generazione, semplifica installazione, amministrazione e controllo di qualsiasi tipo di risorsa, memoria Flash inclusa.
La strategia del Software-Defined Storage (SDS) rappresenta l’evoluzione delle architetture di storage. Al centro dello sviluppo la diffusione dell’hypervisor, un middleware che garantisce allo storage le stesse caratteristiche di semplicità, efficienza e riduzione dei costi, svincolando i processi di archiviazione dai limiti dell’hardware. Il Software-Defined Storage, infatti, astrae lo storage tramite un data plane logico, invece che fisico, che trasforma la macchina virtuale, e di conseguenza l’applicazione, nell’unità fondamentale utile alla gestione e al provisioning dei processi di archiviazione anche con sistemi eterogenei. L’hypervisor, consente di separare e bilanciare in maniera flessibile tutte le risorse IT richieste da un’applicazione: elaborazione, memoria, storage e rete.
Un’architettura di storage basata su un hypervisor convergente, infatti, esegue tanto lo storage quanto l’elaborazione dallo stesso host virtuale e rappresenta un decisivo vantaggio per il business: in questo modo la virtualizzazione è utilizzata per separare, raggruppare in pool e automatizzare le risorse lato server e offrire un livello di storage semplice e a prestazione elevate, con costi totali di gestione ridotti. I vantaggi?
- aumento dell’efficienza grazie a un modello dinamico e senza interruzioni operative mediante il quale gli amministratori IT possono soddisfare con precisione le richieste di un’applicazione e fornire le risorse esattamente quando sono necessarie. I servizi di storage diventano fluidi e un’applicazione può riceverne quantità diverse in momenti diversi
- massima personalizzazione dei servizi di storage in base a specifici requisiti applicativi e di modificarli in base alle esigenze di una data applicazione, senza incidere sulle applicazioni vicine, con velocità di provisioning e risposta immediata all’utente
- semplificazione della gestione: i server standard, che costituiscono la dorsale dell’infrastruttura iperconvergente, consentono alle organizzazioni IT di progettare ambienti di storage scalabili e a basso costo, facilmente adattabili a specifiche esigenze di storage che variano di continuo
C’è una memoria per ogni cosa. Il paradigma è servito
Nel caso specifico dello storage, è importante sottolineare che il modello Software defined permette di integrare nell’infrastruttura non solo gli storage array dedicati e ad alte prestazioni, per workload mission-critical, ma anche hardware commodity e DAS (direct attached storage), ossia gli hard disk interni di macchine server, PC desktop e laptop.
Proprio perché oggi la virtualizzazione delle risorse IT sta diventando pervasiva, dando luogo a una proliferazione di macchine virtuali, nel paradigma Software-Defined va sottolineata la valenza che acquistano gli strumenti di gestione, ovvero monitoraggio, creazione, rimozione, eliminazione, configurazione, allocazione, spostamento degli oggetti virtuali. Il riferimento è ai tool software già predisposti in maniera nativa che offrendo modalità di provisioning, di reporting e di automazione, permettono di governare con la massima efficienza infrastrutture ibride, costituite da componenti fisici e virtuali.