Tino Prato, country manager Brocade Italia |
Maurizio Paci, senior marketing product manager Emea di Emc |
Stefano Vismara, product manager della linea Storage in Fujitsu Technology Solutions |
Giuseppe Fortunato, business consulting principal Hitachi Data Systems Italia |
Marco Spoldi, business development manager, StorageWorks Division di Hp Italia |
Sergio Resch, system storage platform advocate di Ibm |
Antonio Lupo, direttore marketing di NetApp Italia |
Vincenzo Costantino, Italy presales country manager di Symantec |
Mauro Antico, delivery manager Centro Sud di Terasystem |
David Junca, general manager Southern Europe di Acronis |
Mauro Papini, country manager di Acronis Italia |
L’incontro con alcuni vendor di soluzioni storage ci permette di avere un riscontro “dal campo” delle considerazioni sul mercato e l’evoluzione di questo strategico settore effettuate dagli analisti e illustrate nell’articolo di apertura di questa storia di copertina. Per realizzare questo confronto, ZeroUno ha incontrato: Tino Prato, country manager Brocade Italia, Maurizio Paci, senior marketing product manager Emea di Emc, Stefano Vismara, product manager della linea Storage in Fujitsu Technology Solutions, Giuseppe Fortunato, business consulting principal Hitachi Data Systems Italia, Marco Spoldi, business development manager, StorageWorks Division di Hp Italia, Sergio Resch, system storage platform advocate di Ibm, Antonio Lupo, direttore marketing di NetApp Italia, Vincenzo Costantino, Italy presales country manager di Symantec e Mauro Antico, delivery manager Centro Sud di Terasystem. Pur con gradi differenti nell’attribuzione della loro importanza alle considerazioni che seguono, tutti gli operatori concordano nell’identificazione delle principali problematiche con le quali le aziende clienti si devono misurare e degli obiettivi che si prefiggono di raggiungere, evidenziando quelle che, al momento, sono le possibili soluzioni.
In primo luogo riassumiamo i problemi evidenziati. Come abbiamo visto anche nell’articolo di apertura, la crescita dei dati utilizzati, gestiti e archiviati dalle aziende è una problematica che si sviluppa lungo due direttrici. Da un lato bisogna far fronte alla crescita in termini quantitativi a livelli più che esponenziali. Dall’altro sta progressivamente cambiando la natura dei dati trattati con una sempre maggiore incidenza dei dati non strutturati rispetto a quelli operazionali; la criticità maggiore per l’archiviazione e il recupero (ma anche per l’utilizzo stesso) di questa tipologia di dati riguarda i criteri di catalogazione da applicare e, di conseguenza, l’utilizzo di funzioni di ricerca adeguate; inoltre questi dati, ancor più di quelli operazionali, risiedono in numerosi contenitori differenti distribuiti nelle diverse aree aziendali dei quali è molto complesso avere una gestione integrata. Alla crescita quantitativa e qualitativa dei dati si affianca un’altra problematica che, negli ultimi anni in particolare, sta assumendo una rilevanza significativa: l’adeguamento alle normative nazionali e internazionali; la compliance rappresenta infatti uno dei fattori principali della maggiore complessità della gestione dei sistemi informativi e ha un particolare e sensibile impatto in tutta l’area dello storage e del restore.
Tra gli obiettivi che le aziende si pongono, quelli sui quali una strategia di storage efficace può avere un impatto notevole vi sono: riduzione dei costi IT, miglioramento del servizio, aumento dell’efficienza, gestione del rischio operativo, garanzia di sicurezza dei sistemi.
Quali sono oggi allora le principali risposte dell’offerta per consentire alle aziende di raggiungere questi obiettivi, tenendo conto delle problematiche più sopra evidenziate? Anche se ciascuna delle tipologie di soluzioni sotto riportate contribuisce al raggiungimento di più obiettivi, nella schematizzazione che segue le abbiamo attribuite a quelli sui quali hanno un maggiore impatto positivo.
Riduzione dei costi – L’impostazione di base per raggiungere questo obiettivo consiste nell’adozione di una strategia di Ilm (Information Lifecycle management) adeguata alle necessità aziendali, in modo da poter attribuire le risorse storage sulla base del valore del dato, utilizzando risorse meno costose al decrescere di questo valore. L’utilizzo di infrastrutture storage multi-livello a costi differenziati, con sistemi storage in grado di gestire contemporaneamente diversi protocolli, rappresenta una pre condizione fondamentale per poter adottare una qualsiasi strategia Ilm, condizione la cui efficienza ed efficacia viene esaltata dall’adozione di tecnologie di virtualizzazione delle risorse storage che, grazie alla funzionalità di thin provisioning, consentono un’allocazione virtuale della capacità storage erogata permettendo di pianificare la capacità delle risorse in base ai diversi utenti e di distribuire i costi di upgrade nel corso del tempo. Un altro aspetto sul quale si stanno concentrando numerosi vendor è quello relativo allo sviluppo di tecnologie sempre più efficienti di deduplicazione dei dati per risparmiare spazio su disco e sfruttare al meglio quello esistente. Quando si parla di costi, infine, non si può dimenticare l’aspetto energetico: come abbiamo più volte scritto su ZeroUno, l’efficienza energetica è una delle principali sfide che i Cio devono affrontare nella gestione dei data center; l’utilizzo di risorse storage meno performanti per le informazioni a minor valore apre ampi margini di risparmio in questo ambito grazie al minor consumo di energia sia per l’alimentazione sia per il ‘raffreddamento di queste risorse (dove, peraltro, risiede spesso la quantità maggiore di dati).
Miglioramento del servizio e aumento dell’efficienza – Si tratta di due obiettivi che viaggiano di pari passo e che, in molti ambiti, sono fortemente interlacciati al primo. Lo storage tende a stratificare livelli informativi sempre meno attuali, sovrapponendo le informazioni più recenti a quelle passate con i dati recenti che poggiano su uno strato di dati del recente passato e dati ormai inutili che giacciono dimenticati occupando inutilmente spazio prezioso. Occorre quindi eliminare i dati inutili, classificare le informazioni in base al loro valore aziendale e alla frequenza di accesso, il tutto andando a “scovare” le informazioni in tutti i contenitori dove esse sono presenti con soluzioni che, per esempio, consentono di scoprire e classificare le informazioni su file system distribuiti individuando file vecchi e duplicati ovunque essi siano presenti. Le informazioni importanti, inoltre, oltre ad essere conservate nei sistemi più performanti, devono essere opportunamente integrate fra loro, in modo da rendere più veloce e informata la capacità di prendere decisioni. Tutto ciò è possibile grazie all’adozione di infrastrutture che supportino il provisioning e la possibilità di allocare automaticamente le risorse sulla base di policy attrezzate con strumenti di reportistica e gestione sofisticati al fine ridurne la complessità e monitorarne l’andamento. Dal punto di vista strettamente tecnologico questo significa anche utilizzare sistemi che adottino processori e dischi di ultima generazione sempre più efficaci ed efficienti.
Gestione del rischio operativo e sicurezza – La gestione del rischio implica la disponibilità di opportune funzionalità per l’accesso continuo alle informazioni e l’aderenza alle varie normative interne e/o esterne in materia di conservazione di lungo periodo. Dato inoltre che molto spesso il ciclo di vita delle informazioni da conservare per rispondere alle esigenze di compliance è superiore al ciclo di vita economico dei sistemi storage, diventa importante l’indipendenza dai supporti di memoria e l’automazione del processo di migrazione per poter sfruttare i vantaggi delle nuove tecnologie di archiviazione appena disponibili; le soluzioni di virtualizzazione e di deduplica si sposano perfettamente con queste necessità. Per quanto riguarda la sicurezza, uno dei fattori di maggiore criticità è rappresentato dai dati non strutturati che possono celare più facilmente di quelli operazionali insidie per i sistemi informativi; pertanto sono state sviluppate funzionalità che, oltre a classificare questi dati, consentono di conoscere esattamente la loro natura, come vengono utilizzati e chi sono i relativi proprietari.
Le ambizioni di Acronis si chiamano backup & recovery 10
Cosa richiedono le aziende a una soluzione di backup e disaster recovery? Oltre a efficienza e scalabilità, il denominatore comune delle richieste di aziende e organizzazioni prevede altre caratteristiche sostanziali che non dipendono ormai più dalle dimensioni dell’utenza. La prima è di ridurre l’impatto che ogni introduzione di nuova tecnologia comporta per l’infrastruttura It già esistente; la seconda è la presenza di funzionalità che sono ormai un must come la gestione di ambienti fisici e virtuali, la possibilità di deduplicare i dati ridondanti, la cui crescita affligge ogni organizzazione, e la capacità di gestire ogni processo di salvataggio e reintegro delle informazioni da un’unica console.
Queste considerazioni di base, unite alla particolarità del mercato italiano, con la presenza di imprese di piccola dimensione, che richiedono una strategia particolare di approccio commerciale, hanno portato Acronis a quello che David Junca, general manager Southern Europe della società, ha definito come “un annuncio di rottura e un cambiamento vitale”. Value proposition e strategia si fondono in Backup & Recovery 10, una famiglia di prodotti per il disaster recovery ed il backup, in grado di abbinare deduplicazione dei dati, supporto agli ambienti virtuali e funzionalità centralizzate di gestione.
Backup & Recovery 10 rappresenta l‘evoluzione della soluzione True Image. Il software propone al suo interno un algoritmo di deduplicazione che Mauro Papini, country manager di Acronis per l’Italia descrive come “ la più conveniente soluzione software di deduplicazione disponibile sul mercato, proprio perché non richiede l’acquisto di hardware aggiuntivo”.
Gli analisti di Idc dichiarano l’attività di disaster recovery come la seconda priorità per le aziende europee, subito dopo la gestione dei dati, mentre il 36% delle aziende inserisce la deduplicazione delle informazioni e dei dati tra le sue priorità IT a 12 mesi. Questa analisi viene accompagnata da due affermazioni dei dirigenti di Acronis. Prima di tutto “ non importa quanto si è bravi a gestire l’infrastruttura It; se non si è in grado di gestire il data recovery i dati sono irrimediabilmente persi” . E poi : “Un ripristino in tempi rapidi e con il giusto rispetto dei livelli di servizio è importante per la protezione dei dati”.
Il software è in grado di eseguire il backup ed il ripristino di qualsiasi server o workstation dotato di sistemi operativi Microsoft o Linux, e di riportare le macchine allo stato operativo antecedente il guasto. Ciò vale per l’intero disco, compreso il sistema operativo, le singole applicazioni, gli aggiornamenti, le impostazioni e tutti i dati. Inoltre Backup & Recovery supporta gli ambienti virtuali Vmware, Hyper-V, Xensource e Parallels. Il prodotto include un nuovo agente di backup per macchine virtuali host-based, che consente il backup e il ripristino dinamico di macchine virtuali mediante le API di ESX e Hyper-V, senza necessità di installare un client in ogni macchina virtuale.
Con l’opzione Universal Restore, è possibile ripristinare i sistemi su hardware differente, eliminando così la necessità di acquistare un hardware identico da mantenere in standby. Conclude Junca, “ Backup e Recovery 10 è una soluzione di disaster recovery che propone anche strumenti di migrazione tra ambienti diversi, sia fisici sia virtuali. Testata fino a 3 mila macchine gestite, è per Acronis una ragione in più per entrare anche nel mercato di fascia enterprise”. (G.F.)
Gli Eternus di Fujitsu
Nell’ambito della propria strategia Dynamic Infrastructures di Fujitsu (vedi intervista a Pierfilippo Roggero a pagina 10), lo storage rappresenta una componente importante. L’azienda ha recentemente annunciato l’ampliamento dell propria offerta in quest’ambito con il lancio della gamma Eternus, che comprende storage array e soluzioni per la protezione dei dati pensate per soddisfare le esigenze di aziende di diverse dimensioni. I sistemi storage Raid entry-level Eternus DX60 e DX80, basati sulla precedente generazione di sistemi FibreCAT SX60 e SX80 ed Eternus 2000, puntano su consumi di corrente contenuti, gestione semplificata e maggiore ridondanza. I due modelli, scalabili da 292 Gb a 120 Tb (DX80), dispongono di componenti ridondanti e tecnologia Fibre Channel da 4-8 Gigabit per secondo e introducono funzioni per garantire maggiore disponibilità e superiore velocità di recovery, tra cui 8 snapshot (estensibili a 1.024) per assicurare un backup più rapido.
Fujitsu ha introdotto anche la versione 4.1 di Eternus CS, virtual tape per grandi data center, pensata per garantire maggiore scalabilità e miglioramenti nelle prestazioni. (L.P.)