La crescita dei dati è un fatto ormai conclamato. Anche rimanendo nel perimetro dei dati più tradizionali, le problematiche stanno aumentando; per esempio, per il backup, il quale sta diventando un problema che con le infrastrutture tradizionali, poco performanti rispetto al crescere delle necessità, non trova più soluzione.

“Al crescere del volume dei dati, il backup non è più efficiente: non si riescono a completare i workload nei tempi e secondo gli Sla stabiliti”, commenta Dario Regazzoni, direttore tecnico di NetApp Italia. “Le aziende si stanno già ora scontrando con queste problematiche e molte si sono già trovate se non proprio a un punto di rottura, a un bivio: proseguire gestendo l’intero ciclo di vita del dato in modo tradizionale (acquistando sempre più capacità computazionale, spazio storage, velocità di banda), con il rischio però di non riuscire a utilizzare in modo efficace tutti i dati; oppure, iniziare a dotarsi di soluzioni innovative, skill nuovi, procedure diverse, per riuscire a sfruttare meglio la ricchezza del patrimonio di informazioni disponibili”.
Quello che cambia seguendo questa seconda via, è proprio l’utilizzo dei dati. Con strumenti più efficaci che ne consentono la disponibilità immediata diventa più facile e più rapida la loro ‘manipolazione’ e il loro utilizzo. Ed è su questa via che NetApp accende i riflettori: “Il problema da risolvere non è tanto quello dello storage (dove virtualizzazione e cloud stanno già dando risultati efficaci) quanto quello di riuscire, appunto, a ‘manipolare’ i dati prima che finiscano nello storage per poterli utilizzare e sfruttare concretamente ai fini del business”, osserva Regazzoni, “riuscendo, per esempio, a indicizzare correttamente un dato, rendere immediatamente visibile e comprensibile il suo contenuto, quali sono i metadati a esso associati, ecc”.
Sotto il profilo tecnologico significa inserire uno strato software di ‘intelligence’ intermedio, tra server e storage. “Si tratta di soluzioni che analizzano il dato come ‘oggetto’ per cui diventa, per esempio, molto più facile e veloce accedere a tutti i dati/oggetti (audio, video, file word, e-mail, ecc.) che contengono uno specifico argomento”, esemplifica Regazzoni.
Di fatto, quello di cui le aziende necessitano è un contenitore di dati sufficientemente ampio e scalabile, che non abbia un costo per terabyte elevato, che abbia quella intelligenza sufficiente per potersi interfacciare con le applicazioni aziendali, spiega il manager di NetApp… e che consenta di utilizzare le soluzioni già presenti in azienda, cioè che si basi su tecnologie standard e quindi interoperabili, senza dover per forza sviluppare dei connettori, “concetto che per NetApp è una filosofia aziendale”, puntualizza Regazzoni.
Ancora un po’ a rilento, invece, la parte di analytics dei big data. “Sono abbastanza chiare le potenzialità, ma siamo ancora nell’ambito dei progetti pilota per cui è difficile avere dati concreti sui risultati”, osserva Regazzoni. “Negli Stati Uniti è un po’ più sviluppato il settore del cloud storage che sta evolvendo con l’inserimento di ‘servizi di intelligence’ per lo sfruttamento più efficace dei dati; nel settore healthcare, per esempio, si stanno delineando nuove figure di provider che forniscono servizi di immagazzinamento e accesso a grandi moli di dati come per esempio i referti medici, le immagini diagnostiche, ecc. a tutti gli operatori quali ospedali, medici, cliniche. Un esempio è IronMountain (cliente NetApp) che propone servizi di information management per gestire e rendere accessibili dati fisici e digitali: document & imaging management, health information management, records management and storage, data backup and recovery. È un settore in espansione e, a mio avviso, anche in Italia potrebbero delinearsi nuovi player di questo tipo”, conlude il manager NetApp.