MILANO – Lo scorso novembre si è tenuto a Milano l’Emc Forum 2013, annuale incontro dedicato alla comunità degli utenti e soprattutto dei partner Emc. L’evento è stato aperto da Jacques Boschung, Vp Europe West, che dopo aver salutato i circa 1.700 delegati presenti (davvero molti, se si pensa alla realtà italiana e alla specificità del settore) ha fatto una breve introduzione sull’evoluzione dei servizi It, che grazie al cloud sono passati, “come è successo cent’anni fa per l’energia elettrica”, ha detto, dalla produzione in proprio alla fruizione al bisogno. Il top manager ha quindi osservato come sia necessario (e ovviamente come Emc stia lavorando in tal senso) che le istanze avanzate da mobilità, cloud, big data e social networking possano convergere nelle dinamiche operative del data center in modo coordinato e tale da trasformare l’incertezza che ogni nuova sfida tecnologica porta con sé nella fiducia (“trust” è la parola usata) sui risultati che se ne possono trarre.
A questo punto Boschung ha presentato il principale annuncio tecnologico della giornata: la disponibilità del nuovo flash array Emc XtremIO. Senza soffermarsi sulla sua tecnologia, che è peraltro notevole (vedi box in basso) Boschung ha sottolineato il ruolo dei flash array, oggi la tecnologia di punta dell’offerta Emc e dello storage di nuova generazione, veloce, flessibile e modulare (vedi correlata a fianco dal titolo "Lo storage più performante, flessibile e aperto al cloud"), quel software-defined storage che si inserisce nel più ampio concetto di software-defined data center del quale Emc, grazie alla sussidiaria Vmware, è uno dei protagonisti. La parola è quindi passata a Marco Fanizzi, Amministratore Delegato e Direttore Generale di Emc Italia, che, dopo aver esposto i numeri della società (che oggi conta 510 dipendenti e, soprattutto, può vantare una crescita a due cifre realizzata in un momento non certo ideale del nostro mercato), ha presentato i risultati di un’analisi che Emc ha svolto su circa 450 aziende italiane per saggiarne il grado di maturità nei confronti della tematica big data.
I big data nelle nostre imprese
Sull’interesse e l’apprezzamento del valore di conoscenza, niente da dire: per il 91% degli intervistati l’analisi dei big data può migliorare di molto i processi decisionali delle aziende e il 58% è convinto che chi saprà usare bene i relativi strumenti sarà in grado di meglio competere e distinguersi in futuro. Notevole anche il fatto che il 62% ritenga che l’analisi dei big data sia importante per prevenire e proteggere l’azienda da attacchi informatici. Di contro, vi sono segnali contrastanti riguardo il tasso di adozione di tecnologie così largamente apprezzate.
Sono essenzialmente (68% dei casi) i limiti di budget a frenare le iniziative dell’It, e questo spesso dipende dal fatto che il Roi dei progetti è poco chiaro e difficile da dimostrare. Chi però, ed è quasi il 40% dei casi, è riuscito a superare gli ostacoli economici e di tipo culturale (per il 79% degli intervistati il nodo maggiore) dichiara di aver ottenuto grazie ai big data significativi vantaggi competitivi sulla concorrenza. Conforta inoltre che in un difficile scenario economico, il 72% delle imprese ritenga che investire in una riorganizzazione e trasformazione della funzione It sia la leva di crescita principale per raggiungere gli obiettivi di business, identificati nell’efficienza dei processi e delle operazioni (56%) e nello sviluppo di nuovi approcci al mercato (49%). Come ha osservato Fanizzi: “Questo dimostra come in Italia le aziende percepiscano sempre più nitidamente i benefici di trasformazione insiti nei big data. Molte sono perfettamente consapevoli dell’enorme valore aggiunto in termini di competitività e sicurezza portato dalla tecnologia. Questo è il cuore dell’It-Transformation, un processo nel quale le aziende italiane sono ben posizionate”. In effetti, gli sviluppi maggiori in questo percorso di trasformazione riguardano la virtualizzazione delle applicazioni critiche, in atto nel 58% dei casi e l’adozione di risorse cloud (per il 47% private e per il 33% ibride). E vi è un buon numero di imprese, addirittura il 29% delle realtà intervistate, che ritiene di aver già realizzato il ridisegno del data center in una logica di automazione dei servizi e di definizione via software dell’infrastruttura.
Lasciando il pomeriggio alla quarantina di sessioni dedicate alle tecnologie e alle ‘case history’ degli utenti, la mattinata è proseguita con due tavole rotonde, rispettivamente dedicate alle iniziative d’innovazione nelle start-up e nelle aziende già di una certa dimensione, e con gli interventi di Dario Regazzoni, Pre Sales Manager di Emc Italia e di Chad Sakac, Senior VP Emc Global Sistem Engineering. Senza entrare nel dettaglio delle presentazioni, è significativo della strategia che ormai da qualche anno persegue la società il fatto che entrambi abbiano parlato, sia pure da angolazioni diverse (tecnologica e operativa quella di Regazzoni, con dimostrazioni sul self-provisioning dei servizi storage, e strategico-culturale quella di Sakac), dell’approccio da attuare avendo per obiettivo la trasformazione del data center nel motore d’innovazione dell’impresa.
XtremIO, flash array innovativo Concepito per offrire prestazioni elevate, prevedibili e costanti a fronte di qualsiasi carico di lavoro e in modo indipendente dalle risorse Ssd impegnate, il flash array Emc XtremIO è un cluster di blocchi modulari X-Brick, ciascuno dei quali con capacità di 10 Tb (che sarà portata a 20 Tb ai primi mesi del 2014). Un cluster XtremIO può scalare da due a otto controller e fino a 128 core, potendo gestire qualsiasi database Oltp e server virtuale con tutti i servizi dati attivi. La gestione degli array XtremIO è integrata in VMware vSphere ed è compatibile con le Api storage VMware Vaai. Inoltre è supportato da altre tecnologie Emc come Vplex, PowerPath e Secure Remote Support (Esrs), di fatto integrandosi con l’intero ‘sistema’ Emc. Dal punto di vista prettamente tecnologico, XtremIO si basa su quattro soluzioni che concorrono a massimizzarne le prestazioni. 1) Content-Based Data Placement: sfruttando le tecniche di deduplicazione on-line dei dati bilancia e ottimizza la distribuzione dei dati sugli Ssd presenti; 2) Dual Stage Metadata Engine: sfrutta l’accesso casuale alla memoria per posizionare in modo ottimale i dati senza attivare processi di riorganizzazione (il cosiddetto ‘garbage collection’); ciò si traduce in un’organizzazione dello spazio che può far guadagnare fino al 50% in termini di I/Ops, fino a 10 volte in termini di latenza e fino a 10 volte in termini di durata utile delle memorie flash; 3) XtremIO Data Protection (XDP): è un algoritmo specifico che controlla eventuali errori degli Ssd e moltiplica fino a sei volte la capacità utile rispetto agli algoritmi Raid. Questo evita il tipico calo di prestazioni che si ha quando si occupa il 60-80% della capacità dell’array e allunga la vita media delle memorie flash. 4) Shared In-Memory Metadata: consente all’array di clonare i dati in tempi brevissimi, accelerando il deployment delle macchine virtuali e con un impatto ridotto sulle macchine virtuali di produzione. |