Negli anni passati l’ammodernamento delle infrastrutture It delle aziende ha assegnato la priorità al “pilastro” dei server, i sistemi che raccolgono ed elaborano le informazioni; giunta a un buon grado di maturità questa parte dell’It transformation, oggi per tutte le aziende risulta ineludibile affrontare in modo strategico anche il pillar dello storage. Così come per gli altri ambiti dei sistemi informativi, anche l’evoluzione delle infrastrutture storage non può più prescindere da ragionamenti su come attuarla in modo da rispondere al meglio alle esigenze di competitività, da elevare il livello di protezione dei dati e da ottenere una gestione più oculata possibile dei budget disponibili.
L'articolo continua nella pagina seguente
*BRPAGE*
(segue dalla pagina precedente)
Di queste criticità e complessità si è parlato agli inizi di dicembre a Milano nel corso di un “Breakfast con l’Analista” di ZeroUno, organizzato in collaborazione con Fujitsu e Intel. Il titolo e il sottotitolo la dicevano già lunga sul taglio dell’incontro: “Business Centric Storage: in viaggio verso la digitalizzazione dei processi aziendali. Accelerare, consolidare, scalare e proteggere secondo le logiche del business”. Nella sua introduzione, Stefano Uberti Foppa, direttore di ZeroUno, ha voluto ribadire in quale scenario si voleva sollecitare la discussione: “Il ruolo dello storage – ha spiegato – nell’evoluzione più generale dei data center in direzione di una sempre maggiore agilità”. Un obiettivo, ha continuato, che non può però prescindere dall’approccio “bimodale” proposto da Gartner: un concetto che prevede che l’It persegua simultaneamente un “passo lungo”, consistente nel predisporre gradualmente le infrastrutture a cavalcare le novità future della tecnologia e del business, e un “passo tattico”, rappresentato da “un essere sempre di più presenti laddove il business si genera in questo momento e dove si vedono immediate esigenze di trasformazione, soprattutto a livello di software”. Nel corso di tutto il dibattito ha aleggiato, anche se non sempre esplicitato con questo termine, la “software economy” in cui siamo entrati, come mai prima, in quest’epoca. Un trend che conduce all’esigenza di rivedere in profondità gli approcci di sviluppo applicativo, l’architettura delle infrastrutture, i modelli organizzativi e i processi It, anche nelle relazioni con gli end user, i partner e i vendor.
Nuove esigenze di business e gestione dell’informazione
Agilità, disponibilità e sicurezza sono fra le parole d’ordine della storage transformation anche per Nicola Restifo, Ricercatore Senior dell’Osservatorio Cloud & Ict as a Service della School of Management del Politecnico di Milano. “Sono necessarie – ha spiegato – per poter abbracciare paradigmi quali la mobility, il digital commerce, l’Internet of Things (IoT), che premono per una maggiore rapidità di provisioning, ma allo stesso tempo di protezione dei dati, considerato che i sistemi informativi diventano sempre più aperti verso il mondo esterno. A spingere ulteriormente verso il potenziamento dell’agilità, dell’availability e della security dei sistemi storage sono anche la crescita del volume dei dati e la variabilità delle fonti dalle quali provengono, che oggi includono anche i social media e i sistemi di controllo delle macchine e dei processi”. Si calcola che ogni anno raddoppino i dati da gestire e muti il rapporto fra dati strutturati e destrutturati, a favore di questi ultimi. “Anche allo storage – ha aggiunto Restifo – viene quindi richiesto oggi un percorso di evoluzione che è già iniziato in altri ambiti dei sistemi informativi. L’obiettivo non può che essere l’efficientamento della gestione delle informazioni attraverso processi di automazione che rispondano a obiettivi di business come scalabilità, elasticità, tempestività e sicurezza più evoluta. Grazie all’automazione – ha concluso questa parte del suo intervento il ricercatore – si è visto che sia possibile abbreviare fino a trenta volte i tempi di provisioning dei servizi It, grazie anche a un’industrializzazione di questi processi. Inoltre, l’automazione abilita il ricorso dinamico a risorse di Infrastructure as a service (IaaS) disponibili sui cloud pubblici”.
Ripensare le architetture evitando i silos
Il tema dell’automation è tornato più volte nel corso del dibattito come fattore di efficientamento ma anche di complessità. In particolare è emerso come – in mancanza di un corretto ripensamento delle architetture tecnologiche, dell’organizzazione, delle competenze e dei processi di gestione dello storage – l’automazione rischi di generare nuove rigidità invece di favorire la realizzazione di quel modello di “impresa liquida” cui tutti aspirano per essere competitivi nel business digitale globalizzato. Un intervento dal pubblico, per esempio, ha paventato questo rischio in aziende multinazionali in cui determinate procedure automatizzate vengono imposte dalla casa madre e non possono essere modificate – anche quando in una country sarebbero auspicabili regole diverse – sia per una questione di policy sia di impossibilità di intervenire localmente da un punto di vista tecnologico e organizzativo. Uno scenario in deciso conflitto con quello che dovrebbe vedere gli strumenti di automation permettere ai responsabili delle infrastrutture di configurare, con semplici drag and drop, i servizi storage richiesti dai responsabili di business. Come fare a coniugare automazione e flessibilità?
“Da un punto di vista architetturale – ha sostenuto Restifo – lo storage va ripensato evitando la visione a silos che lo ha caratterizzato in passato. Occorre stare attenti a non ricreare isole di archiviazione collegate a specifici servizi applicativi. Questo richiede l’uso di strumenti software in grado di disaccoppiare il mondo delle applicazioni che ‘consumano’ servizi storage dalle risorse fisiche che forniscono questi ultimi. L’obiettivo, oggi, dovrebbe invece essere declinare, anche a livello storage, la filosofia del Software Defined Data Center (Sddc), ossia puntare al Software Defined Storage (Sds). Dalle nostre ricerche sul mercato italiano emerge una crescita degli investimenti in questo segmento”. La virtualizzazione dello storage, che permette di astrarre le risorse fisiche sottostanti, è il primo passo lungo questa strada. Un passo che, per esempio, è già stato effettuato, “via hardware” (cioè grazie a un sistema fisico dotato di diversi tipi di dischi e controller e di un apposito software di storage virtualization) da un’azienda in cui lavora uno degli intervenuti al “Breakfast con l’Analista”. Grazie a questa innovazione, la sua organizzazione oggi può fornire rapidamente risorse storage di diverso tipo – da quello ad alte performance, cioè flash, a quello più ‘capacitativo’ e a basso costo, come i dischi Sata – attraverso un front end software.
Rivedere l’organizzazione e i rapporti con i vendor
Il passaggio al Software Defined Storage (Sds) e all’automazione spinta richiede un’architettura storage ancora più virtualizzata, flessibile, aperta e in grado di ospitare tutte le funzionalità di intelligence e automation che i responsabili delle infrastrutture possono utilizzare per fornire servizi It avanzati al business. Ma la tecnologia non basta. Occorrono nuovi modelli organizzativi It e skill adeguati al nuovo scenario. Un esempio di come sia possibile ripensare l’organizzazione per sfruttare le risorse storage più performanti e scalabili oggi disponibili sul mercato l’ha portato Marco Barbierato, Data Center Administrator di Pirelli Sistemi Informativi. “Abbiamo deciso di declinare il concetto di Big Data anche nei confronti dei dati che si producono all’interno dell’azienda. Abbiamo così creato una serie di processi che indicizzano i dati, comprendono in che modo questi si trasformano in informazioni, quali applicazioni le usano nei processi aziendali, quali sono i modi più sensati di proteggere i dati on premise o in cloud”.
Un approccio di questo tipo richiede la capacità delle risorse It di parlare un linguaggio allineato alle esigenze del business e di progettare insieme agli utenti i processi di storage “end-to-end”. Secondo Davide Benelli, Business Program Manager di Fujitsu, “a guidare il ridisegno strategico dello storage saranno sempre di più i Service level agreement (Sla) legati alle specifiche esigenze del business. Fujitsu ha identificato quattro scenari in cui possono essere ricondotte queste esigenze: accelerazione del movimento dei dati, consolidamento delle infrastrutture storage, scalabilità o iperscalabilità, e protezione dei dati. La nostra offerta soddisfa tutti questi scenari”. Quanto alla questione delle competenze necessarie per trarre valore per il business dalle nuove e più performanti soluzioni storage, Benelli ha concordato sulla necessità “di sviluppare la capacità dei responsabili It aziendali di interagire con le Line of business e identificare con loro le reali esigenze e le soluzioni più adatte. Altre risposte, poi, arriveranno anche dal confronto con i vendor e i loro ecosistemi di partner”. Un’altra parola chiave, quindi, per vincere anche le sfide storage, è concertazione.
Tutto per il ciclo di vita dei datiDalla produzione delle informazioni, alla loro analisi, al backup e all’archiviazione a lungo termine. Fujitsu si propone come un fornitore completo per la gestione di tutto il ciclo di vita dei dati. L’ambito dello storage è la specializzazione del portfolio di prodotti Eternus. Ne fanno parte un sistema All Flash e numerosi array in grado di ospitare configurazioni di dischi di diversa natura (Hybrid Disk), soluzioni Hyperscale e di Software Defined Storage, appliance di backup e librerie a nastro. Il sistema Eternus DX 200F è oggi la soluzione flash-only di Fujitsu dedicata al supporto di soluzioni che richiedono alte performance e disponibilità, come database, piattaforme di analytics, applicazioni online e di virtualizzazione server e desktop. Eternus DX 200F si basa sull’architettura Fujitsu DX, che utilizza processori Intel Xeon. Una tecnologia impiegata anche nei sistemi Eternus DX basati su dischi: una serie articolata, in grado di soddisfare le esigenze di storage primario e non delle Pmi a dei large account. Gli Hyperscale Eternus CD10000 e CD10000 S2, invece, indirizzano le maggiori esigenze di scalabilità, abbinata ad alta affidabilità e ritorno dell’investimento. Per i processi scale-out, questi prodotti impiegano la tecnologia open source Ceph. Per il backup Fujitsu propone invece le appliance dedicate delle famiglie Eternus CS 800 e CS 8000, con avanzate funzionalità di deduplica, mentre per il long term archiving sono disponibili – oltre ai già citati sistemi – anche le librerie a nastri Lto della linea Eternus Lt. |