I sistemi IT saranno sempre più popolati dai dati e il costo per la gestione delle informazioni è destinato a salire esponenzialmente. La capacità di effettuare analisi in tempo reale, in modo flessibile ed efficace, è la conditio sine qua non per monetizzare il patrimonio informativo aziendale e trarre effettivi vantaggi di business. Serve una modern data platform che permetta l’integrazione e l’elaborazione delle diverse tipologie di dati, velocemente e in sicurezza, senza compromettere la normale operatività. È questo lo scenario tecnologico disegnato da Oracle e descritto da Stefano Penati, Technology Senior Sales Director della società, durante i Digital360 Awards 2019.
La crescita esponenziale dei dati e relativi costi
Il direttore vendite porta subito l’attenzione sulla crescita dei Big Data trainata principalmente dall’Internet Of Things, riportando le previsioni degli analisti con orizzonte temporale 2025: il volume globale della datasfera lieviterà dagli attuali 40 a 175 zettabytes; conseguentemente, la spesa per l’information management crescerà da 50 a 90 miliardi di dollari. L’IoT genererà il 50% del mare magnum informativo mentre si delineerà la necessità sempre maggiore di processare i dati in tempo reale.
“Le aziende – prosegue Penati – devono diventare data-driven e possono raggiungere l’obiettivo solo a patto di seguire una serie di attività basilari. Innanzitutto, devono essere in grado di utilizzare i dati e applicare gli analytics a centinaia di casi d’uso predittivi, attraverso tutta l’organizzazione. L’impatto dei dati e delle rilevanze analitiche sui processi aziendali va continuamente monitorato e misurato con key performance indicator predefiniti”. Bisogna quindi garantire la disponibilità di una gamma estesa di strumenti analitici, modelli e fonti dati; infine occorre facilitare l’accesso a tutte le informazioni rilevanti, con un approccio che permette di coordinare e centralizzare le sorgenti, in maniera semplice e sicura.
Proliferazione dei silos e progetti di data lake
“La sfida maggiore – afferma Penati – riguarda la proliferazione dei silos e delle fonti delle informazioni, spesso non connesse tra loro. Il business richiede all’IT maggiore integrazione e quindi sono stati avviati numerosi progetti per la realizzazione dei data lake, con lo scopo di estrarre valore dai dati storici e grezzi”.
L’approccio ha tuttavia mostrato i suoi limiti. La criticità principale riguarda l’impossibilità di applicare con efficacia le risultanze della Big Data Analysis ai sistemi di produzione, in ottica di miglioramento. Come spiega Penati, si tratta infatti di analisi effettuate su dati storici che dovrebbero agire invece in ambienti che lavorano in real-time. La difettosità del metodo ha creato un’ondata di pessimismo e sfiducia tra le organizzazioni: “Molte che si reputavano data-driven hanno iniziato a dubitare della propria capacità di attuare il nuovo modello e sfruttare adeguatamente il valore delle informazioni. Secondo New Vantage Partners, oggi solo il 31% delle aziende si dichiara data-driven, mentre la percentuale era 37 nel 2017 e 32 nel 2018”. Un altro indicatore significativo del mancato obiettivo riguarda il ruolo del data scientist che, troppo spesso relegato ad attività a basso valore e più operative (ad esempio, la pulizia dei dati), “viene a perdere la capacità di spinta dell’azienda” verso l’innovazione.
Nuovi approcci per supportare le analisi in real-time
Il tentativo di uscire dall’impasse e supportare le nuove esigenze real-time sta determinando nuovi approcci tecnologici e metodologici. Secondo Oracle, sarebbero quattro le mosse fondamentali da seguire.
“Innanzitutto – precisa Penati – andrebbe ampliato lo sviluppo e l’utilizzo delle applicazioni digitali, che grazie alla loro flessibilità, possono essere implementate in brevissimo tempo e permettono di sfruttare i dati di produzione real-time scaricati senza alcun impatto sui sistemi legacy. Bisognerebbe inoltre spingere verso la creazione di una singola vista olistica su tutti i dati attraverso l’azienda, superando quindi la problematica legata alla proliferazione di silos informativi e semantici”.
Il nodo cruciale diventa la capacità di applicare al business il valore che i Data Scientist estraggono dai progetti Big Data, sfruttando anche le funzionalità di machine learning e quindi applicando gli algoritmi sui dati di produzione real-time senza compromettere l’operatività dei sistemi mission critical. Infine le aziende devono essere in grado di evolvere l’attuale concetto di data warehouse (così come le logiche correnti di lakes, pools, labs e così via) introducendo funzionalità real-time nonché nuovi modelli di dati e semantiche.
“Si tratta insomma – suggerisce Penati – di creare copie real-time dei dati operazionali su cui effettuare le analisi, così da potere comunque lavorare su informazioni ‘calde’ ma all’interno di un ambiente protetto, senza quindi interferire con i sistemi di produzione rallentando l’operatività. L’accesso ai dati multi-model deve essere consistente, in modo che le query sulle informazioni in continuo cambiamento possano sempre restituire risposte attendibili”.
Si rende dunque necessario il supporto alle diverse semantiche che caratterizzano i silos così da lavorare e processare i dati a livello globale, attraverso l’azienda tutta. I sistemi devono essere caratterizzati infine dalla scalabilità illimitata tipica delle soluzioni cloud native, senza colli di bottiglia che limitino la capacità di storage.
La data platform per analisi in tempo reale senza compromessi
“In risposta allo scenario descritto – spiega Penati – Oracle risponde introducendo un nuovo concetto di piattaforma dati moderna, che non sostituisce ma completa i progetti Big Data. Gli ambienti Big Data infatti diventano una palestra da cui estrarre sulla base dei dati storici alcuni pattern, che possono essere quindi applicati alle informazioni real-time senza impattare le diverse applicazioni sottostanti (dalle soluzioni legacy ai software as-a-service e microservizi)”.
Riassumendo, la data platform è lo strumento, il layer aggregatore, che permette di connettere i dati reali provenienti dalle applicazioni critiche (moderne o tradizionali), offrendo risorse scalabili per le analisi attraverso diversi modelli e semantiche. Il tutto quindi in maniera assolutamente trasparente, senza inficiare i sistemi di produzione.
Penati cita un paio di esempi tra i clienti Oracle che hanno adottato il nuovo approccio. Una compagnia di assicurazioni ha spostato le informazioni dai sistemi tradizionali alla modern data platform per avere una vista sempre aggiornata in real-time sulla posizione olistica del singolo cliente, a partire dai contratti in essere. Una grande banca spagnola ha integrato i dati storici della clientela con le informazioni provenienti dall’utilizzo delle carte di credito: così è possibile verificare l’attendibilità del cliente ed eventuali rischi per la concessione dei prestiti, ma anche studiare nuovi servizi che potrebbero risultare interessanti per l’utenza.
Tra le caratteristiche di rilievo, la modern data platform, come spiega Penati in chiusura di discorso, sfrutta in modo crescente le funzionalità autonome di self-driving, self-securing e self-repairing. Così è possibile applicare patch contro gli attacchi malevoli, effettuare attività di monitoraggio e manutenzione ordinaria, ottimizzare la disponibilità e l’accesso ai dati in modo automatizzato senza necessità di intervento umano. “Così – conclude il direttore vendite – si ottengono tempi di risposta rapidi e maggiore sicurezza delle informazioni, risolvendo i compiti più operativi e ripetitivi”.