Come i responsabili delle infrastrutture e delle operazioni It sanno, il ruolo dello storage nell’architettura e nelle funzionalità di un data center è profondamente cambiato negli anni. L’evoluzione della tecnologia da un lato e quella delle funzioni stesse dell’It nei confronti del business dall’altro, hanno fatto sì che una componente concepita come “periferica” al sistema sia diventata in un tempo relativamente breve (spesso più breve del ciclo di vita dei sistemi fisici dedicati) un elemento fondamentale dell’efficienza dell’intero data center. È di fatto la “terza gamba” sulla quale, con i componenti server e networking, si regge la capacità dell’infrastruttura It di rispondere ai compiti cui è chiamata. Si impone quindi un generale ripensamento e per aiutare a individuare gli aspetti del “problema storage” sui quali focalizzare l’attenzione, Forrester Research ha svolto nel 2013 un’indagine presso It Executive in diversi ruoli e responsabilità in modo da capire quali siano i problemi più sentiti in quest’area e come si possano affrontare. Sul report che da tale indagine è stato tratto si basano le seguenti considerazioni.
Le priorità che guidano il ripensamento della funzione e delle infrastrutture storage emerse dall’indagine citata sono cinque:
- il miglioramento dell’efficienza;
- l’adeguamento dei sistemi e delle strategie di archiviazione alla realtà dei dati non strutturati;
- la capacità di gestire la “consumerizzazione” dello storage (cioè l’offerta di servizi sfruttabili direttamente dagli utenti);
- il miglioramento delle prestazioni;
- la scelta dei sistemi storage di primo livello, quello più critico per la funzionalità del data center.
Prima di trattare questi punti va però detto che nessuno si può considerare più o meno importante rispetto agli altri. Come mostra la tabella di figura 1, le priorità sono dettate dal ruolo delle figure in gioco. Se infatti per i responsabili I&O (infrastruttura e operazioni) l’efficienza è al primo posto, per il risk manager lo è lo storage “consumer”, mentre per il Cio conta la scelta delle soluzioni.
1-Efficienza: come fare di più con minori risorse
La pratica di ovviare alla crescita delle esigenze storage semplicemente comprando nuovo hardware è durata troppi anni perché, coi tempi che corrono, vi si possa ancora far ricorso: mentre la crescita dei dati sfiora il 50% anno su anno, i Cio che possono contare su una crescita, anche piccola, del budget sono pochi. Ma c’è un'altra cosa da considerare: esiste uno scollamento tra la crescita dell’investimento, dovuta a costosi sistemi di primo livello e midrange di fascia alta, e la crescita dei dati, dovuta per lo più al volume di contenuti e a dati non strutturati. Ciò significa che si usano sistemi le cui prestazioni sono inutilmente elevate per trattare dati che solo in poche realtà aziendali sono davvero critici per il business.
Occorre quindi sviluppare un’infrastruttura che abbia un approccio workload-centrico, ossia che assegni le risorse storage secondo le caratteristiche dei carichi di lavoro delle applicazioni servite (che sono intuibilmente diversi, per esempio, tra un’applicazione transazionale e una di business intelligence). Per far ciò è necessario che i responsabili I&O lavorino in stretta collaborazione sia con il business sia con lo sviluppo software, in modo da allineare le richieste storage sulle diverse esigenze delle applicazioni (e quindi del business) con un processo di right-sizing che, per dire, destini il costoso storage ‘five-nine’ (availability del 99,999%) solo dove occorre davvero. La semplificazione del provisioning data da un ambiente storage software-defined, che riduce l'intervento umano sino a giungere all’assegnazione automatica delle risorse secondo regole predefinite, permette di fornire i livelli di servizio richiesti con ridotti costi di gestione.
2-Archivi e dati non strutturati: adeguarsi alle nuove realtà
Circa la metà dei problemi che impegnano oggi i responsabili storage riguarda l’organizzazione degli ambienti di gestione dei dati non strutturati e l’aggiornamento degli archivi, due cose da affrontare in una stessa visione strategica in quanto l’una influisce sull’altra e viceversa. Questi compiti sono svolti oggi da sistemi storage di secondo livello, spesso come Nas scalabili orizzontalmente, ma sta emergendo la più efficiente ed economica alternativa dello storage a oggetti. Si tratta di un’architettura che, a differenza della gestione per file system o blocchi fisici, tratta “oggetti” complessi che comprendono dati, metadati e un identificatore univoco.
Oggi una metà dei comparti It sta considerando lo storage object-based e il 27% lo ha già implementato, ma la sua scelta va al di là dei fattori economici, in quanto richiede delle Api di tipo Rest (REpresentational State Transfer) in grado di definire e indirizzare le risorse fisiche del tutto diverse da quelle adottate per la gestione a blocchi o via Nfs. Occorre quindi che il responsabile I&O si consulti con i team di sviluppo prima di prendere una decisione. In realtà, esistono dei gateway fruibili via cloud per accedere a risorse storage a oggetti tramite interfacce a blocchi o a file, ma si tratta di una spesa aggiuntiva.
3-Fermare i rischi della “storage consumerization”
L’ingresso in azienda di soluzioni It mutuate dal mondo consumer non si limita agli smartphone, ma investe l’area storage sotto la veste dei servizi di condivisione e file synchronization basati su cloud (come Dropbox, per dirne uno). La facilità con cui un qualsiasi dipendente estraneo all’It, ma utente dei servizi It aziendali, può ricorrervi e gli oggettivi vantaggi che un “knowledge worker” ne può trarre sul piano della collaborazione ne hanno moltiplicato l’uso. Ma ciò rappresenta un grande problema per la sicurezza.
La frammentazione dell’offerta (Forrester conta più di 50 fornitori) e la possibilità che un utente cambi fornitore rende difficile applicare pratiche di protezione e crittografia dei dati. Bisogna quindi scegliere la piattaforma che dà le maggiori garanzie (ricorrendo ai criteri adottati dall’indagine Forrester Wave) e scartare quelle che non supportano i dispositivi degli utenti, non rispondono ai loro bisogni e, soprattutto, non sono d’uso intuitivo (il dipendente cambierà servizio se quello proposto dall’azienda non è comodo da usare). A tal fine conviene identificare utenti-pilota, valutandone il feedback. Ovviamente, esiste anche la possibilità di creare un servizio interno, su cloud privato, una scelta che dipende solo dal grado di sicurezza e conformità normativa richiesto dalla specifica attività dell’impresa.
4-Dischi a stato solido alla sfida delle prestazioni
Le esigenze del business portano sempre più l’It a eseguire compiti operativi in base a dati elaborati quasi in tempo reale, con database transaction-sensitive (cioè aggiornati istantaneamente), ambienti server virtualizzati e soluzioni di desktop virtualization. Ciò spinge le prestazioni richieste allo storage in termini di velocità di accesso al dato, e l’unica vera risposta richiede nei dischi a stato solido (Ssd) basati su memorie flash, che permettono di eseguire migliaia di operazioni di input/output per secondo (Iops) contro le 200 di un disco magnetico. Per questo, tra chi li ha già adottati e chi lo farà nei prossimi mesi, gli array a stato solido sono già diffusi nel 55% delle imprese (vedi figura 2).
Nonostante i vantaggi prestazionali (e non solo: i flash array occupano molto meno spazio e consumano molta meno energia dei dischi magnetici) parecchi responsabili I/O fanno fatica a proporne un maggior uso a causa del costo elevato in termini di capacità. Ma poiché i prezzi delle memorie flash continuano a scendere e la deduplicazione on-line dei dati (che riduce le esigenze di capacità) si va diffondendo, per Forrester è il momento giusto per introdurre gli Ssd su larga scala a tutto vantaggio della virtualizzazione delle risorse e del rendimento dei database. Il confronto dei costi in base alla capacità è frutto della vecchia visione dello storage come “periferica” di cui si è detto. La nuova metrica per valutare lo storage come elemento chiave del data center è invece proprio l’Iops e sul costo per operazione lo Ssd risulta di gran lunga vincente (vedi figura 3).
Storage mission-critical: aggiornarlo conviene?
A differenza dei sistemi midrange o di secondo livello, il cui ciclo di obsolescenza è di quattro o cinque anni, lo storage di primo livello ha una vita molto lunga, anche oltre i dieci anni. La ragione è semplice: non solo si tratta di sistemi costosi, progettati per la massima affidabilità, ma di solito servono ambienti mainframe e applicazioni legacy che altri sistemi non supportano. Si cerca quindi di prolungarne il servizio con continui aggiornamenti per non affrontare i rischi di una completa sostituzione. Si tratta però di una strategia che nel lungo termine può diventare onerosa per il costo del lavoro e rischiosa per l’eventualità che certi componenti non vengano più fabbricati, costringendo a soluzioni di ripiego la cui affidabilità non è più garantita dal fornitore. Non è detto, sottolinea Forrester, che sostituire un vecchio sistema sia sempre la scelta migliore, ma ci sono dei vantaggi che non vanno ignorati. Per cominciare, ogni nuova generazione offre dischi, Ssd e processori dal migliore rapporto prezzo/prestazioni. Poi i sistemi più recenti sono meno ingombranti e consumano meno energia, due fattori che entrano nel costo totale della soluzione e che vanno considerati se si entra nell’ordine d’idee del rinnovo.