Fornire agli utenti le prestazioni, le capacità e le economie richieste dalla business digital transformation anche da parte dello storage è diventata una sfida quotidiana per i Cio e i Cto delle aziende. Lo aveva sintetizzato molto bene un report di Aberdeen Group, pubblicato nel 2016 a firma dell’analista e blogger Jim Rapoza. Le evidenze raccolte allora dalla società di ricerca presso un centinaio di IT decision marker di importanti aziende internazionali mantengono oggi più che mai la loro validità. Al primo posto fra le richieste degli utenti – che noi identifichiamo sia come end user (impiegati e partner delle aziende e clienti finali), sia come dipartimenti aziendali (line of business e IT stessa) – figurano sempre maggiori prestazioni nell’accesso ai dati. E questo vale sia quando a voler recuperare le informazioni sono gli esseri umani (e qui vediamo come le prestazioni storage siano funzionali a quella che chiamiamo user experience) sia quando a dover farlo sono le applicazioni: da quelle tradizionali o legacy – come ancora lo sono buona parte delle piattaforme transazionali che utilizzano grandi database relazionali centralizzati (Erp, Crm, supply chain management ecc.) – a quelle più legate all’innovazione digitale o alla digital business transformation. Solo per fare alcuni esempi, pensiamo alle applicazioni di e-commerce, di collaborazione, intranet e social network, per il supporto di progetti di Internet of Things (IoT) e per l’intelligenza artificiale.
Un patrimonio di dati eterogeneo e scalabile
Accanto al tema delle prestazioni dello storage (il 40% degli intervistati da Aberdeen Group lo ha indicato come prima sfida difficile da affrontare), troviamo subito dopo quello della capacità, o in altre parole dei volumi di storage da fornire gli utenti (30% delle risposte). Del resto, il problema delle performance sorge per la necessità di ottenere un accesso più rapido possibile ai dati – che vediamo sempre di più essere di tipo eterogeneo (strutturati, semi-strutturati o binari; questi ultimi sono, per esempio, foto, audio, video, documenti contenuti in file) – ma questi dati da qualche parte devono essere memorizzati e gestiti. Se nel caso delle piattaforme Erp o di altri grandi sistemi transazionali verticali i dati vengono raccolti in database installati su grandi array di dischi, con gestione dello storage di tipo block-based, e con connessioni fra i diversi sistemi in tecnologia San (Storage area network)/Fiber Channel, in quello delle nuove soluzioni nell’era digitale le informazioni utili sono memorizzate in diversi tipi di repository (soprattutto di tipo Nas, Network attached storage, con gestione storage a file), spesso situati fuori dall’azienda.
Un’impresa che decide di abbracciare la digital business transformation, insomma, deve iniziare a vedere il proprio patrimonio di dati come un asset variegato e sicuramente in crescita. Ma questo non significa che sia sempre possibile prevederne l’evoluzione, e quindi occorre prepararsi a gestirlo con elasticità, effettuando in maniera oculata la scelta fra investimenti in Capex (Capital Expenditure) e fruizione in modalità pay-per-use.
Le strade scelte dalle aziende
Nel suo report, Aberdeen Group distingue fra le aziende che hanno un atteggiamento conservativo, e quelle definite “best-in-class”, che vedono la IT modernization come un elemento strategico ai fini di competere nell’era della business digitization. Queste aziende sono propense a innovare, sperimentare e adottare nuove strategie.
A quali innovazioni tecnologiche storage si rivolgono le organizzazioni best-in-class? Al primo posto a pari merito (31%) troviamo il ricorso a sistemi di unified storage e i data lake, e la modernizzazione delle reti di connettività storage. Lo storage unificato è nato per il consolidamento dello storage basato su diversi protocolli (in particolare San e Nas) ed è presente nei listini di diversi hardware vendor già da diversi anni. Fra le innovazioni introdotte più di recente in questi prodotti si segnalano la flash technology, le funzionalità predittive circa richieste di capacità e necessità di manutenzione, e l’integrazione con il cloud. I data lake sono un paradigma più recente, reso possibile anche dallo sviluppo di tecnologie di elaborazione distribuita come Apache Hadoop. I data lake sono architetture storage in cui possono essere memorizzati dati provenienti da diverse fonti e con diverse strutture. Un requisito di un data lake è di poter essere gestito in modo centralizzato, efficiente e sicuro. L’utilità dei data lake cresce man mano che aumentano i Big Data e le soluzioni che li utilizzano, sia di livello enterprise (ad esempio Sap Hana o Oracle Analytics Cloud) sia di team o addirittura individuali (self-service analytics). Per quanto riguarda la modernizzazione delle reti di connettività, l’obiettivo è quello di ottenere la minore latenza possibile nelle comunicazioni fra le diverse risorse storage. Oggi le migliori soluzioni storage garantiscono latency inferiori al millisecondo (ms). Una terza direzione di innovazione abbracciata dalle organizzazioni best in class è la virtualizzazione dello storage, che ottimizza lo sfruttamento delle risorse e la loro gestione non a silos. Non è un caso che arricchimenti delle funzionalità di storage virtualization continuino a segnalarsi fra le innovazioni più importanti introdotte dagli storage vendor, insieme ad altre funzionalità come le analytics e il machine learning per permettere la gestione granulare dei livelli di servizio ai workload e la manutenzione preventiva.