MILANO – Riuscire ad unificare le grandi moli di dati, indipendentemente dalla loro ‘natura’ (strutturati o non strutturati) e dalla loro provenienza, sta alla base del concetto di Data Lake, ossia il ‘lago’ aziendale, inteso come unico grande repository storage (con relativo processing engine), dove far confluire tutti i dati utili all’azienda. Gestire il tutto in modo dinamico e flessibile è alla base della strategia Emc che ha recentemente presentato davanti a clienti e partner italiani la roadmap evolutiva 2016-2018 dei prodotti Isilon [la piattaforma scale out network-attached storage – ndr].
Gestire il Data Lake in modo sempre più efficace ed ‘intelligente’, puntare su Hadoop, accelerare l’innovazione con focalizzazione su performance, archiviazione e storage di classe enterprise, guidare la Software Defined Revolution, abilitare la trasformazione di business attraverso il cloud, re-immaginare le verticalità… questo il percorso illustrato da David Noy, vice president of product management for the ScaleIO and Isilon products di Emc, “sviluppata proprio in stretta collaborazione con clienti e partner – ammette Noy -. I clienti di Isilon ci chiedono real-time insights rispetto ai dati e agli utenti (migliorare governance e gestione del ciclo di vita dei dati in funzione di come vengono utilizzati dagli utenti), nuove abilità nel risolvere con più rapidità i problemi di performance dello storage (dalle singole directory degli utenti fino ai cluster wide), nonché migliorare gli insights dei dati per rispondere alle esigenze di business”.
Come attuare, da un punto di vista di go-to-market, questa vision strategica lo spiega Thore Rabe, vice president Emea di Emc Isilon che abbiamo incontrato in occasione della sua recente visita in Italia a clienti e partner: “La strategia di business è semplice, opereremo segmentando il mercato in due macro categorie: 1) quello tradizionale (dalla prospettiva tecnologica) che ha bisogno di archiviazione a livello di data center centralizzato, dove quindi le logiche di investimento e scalabilità rispetto alle nostre tecnologie Isilon si snodano in funzione dei workload ‘serviti’ dal data center e dallo storage; 2) quello dei mercati verticali ‘dedicati’. In questo secondo caso, la prospettiva strategica non è di natura tecnologica quanto, piuttosto, di business: andremo sempre più a servire i mercati verticali in funzione delle loro esigenze di business, non tecnologiche”.
Il che significa spostare l’attenzione dai workload al dato e al suo ciclo di vita. “L’uno non esclude l’altro – ci tiene a precisare Rabe -; è evidente che a livello di data center e system of record come le business application tradizionali i dati sono ancora oggi strutturati e ben organizzati in database ed il problema prevalente riguarda l’efficienza dello storage. In realtà dove la mole di dati in crescita è rappresentata da dati non strutturati che hanno necessità di essere contenuti e distribuiti in file server, nei dispositivi NAS – Network Attached Storage, negli application server, in ambienti cloud o nei portali aziendali, nonché analizzati in real-time e distribuiti e resi disponibili in varie modalità (applicazioni, servizi, ecc.), l’esigenza primaria è quella dell’efficacia dello storage rispetto alle esigenze del business”.
La continua crescita dei dati non strutturati e il loro utilizzo in modo ‘disorganizzato’ crea di fatto un ‘effetto silos’: si vengono a creare in azienda molteplici cluster di dati/informazioni non correlate spesso di difficile gestione. “La nuova versione di Isilon risponde esattamente a questo tipo di problematiche perché consente di consolidare in un unico File System (scalabile fino a 50 Petabyte) tutti i dati, anche quelli delle sedi periferiche, e di spostarli in modo agile in ambienti cloud, privati o pubblici”, descrive Thore. “La strategicità sta nello strato software del sistema che ne consente la scalabilità e non solo: attraverso il Software Defined Storage è possibile gestire i dati a livello applicativo (rendendoli disponibili dove serve) consolidando l’archiviazione in modo centralizzato nei data center”.
È sempre lo strato software, poi, a consentire lo spostamento dinamico dei dati, per esempio esportando su ambienti cloud o in sistemi meno ‘pregiati’ quelli non più necessari o poco utilizzati, rendendoli tuttavia sempre ‘in linea’ per poter essere analizzati ed utilizzati all’occorrenza.
“Il dato è ormai l’elemento chiave di ogni business, dal quale dipende lo sviluppo competitivo – osserva Thore in chiusura – per questo motivo la sua gestione è diventata un obiettivo di business. Ed è per questo che abbiamo deciso di focalizzare l’attenzione su quei mercati verticali dove la gestione del Data Lake diventa discriminante: Financial service, Automotive, Oil&Gas, LifeScience… In Italia abbiamo alcune importanti iniziative in corso su mercati verticali, in particolare nel settore dell’Healthcare”.