Un nuovo paradigma sta acquisendo una crescente popolarità tra le possibili scelte a disposizione delle aziende che intraprendono un percorso di digitalizzazione dei processi interni: si chiama Data fabric e si pone l’obiettivo ultimo di costruire Data platform efficienti che consentono alle realtà imprenditoriali di rispondere con successo a diverse necessità, quali garantire un’adeguata diffusione, qualità e fruibilità del patrimonio informativo aziendale. Vi è dunque un’esplicita volontà di ridurre le attività manuali previste nelle fasi di integrazione, gestione, manutenzione e orchestrazione dei dati all’interno delle piattaforme dati.
Data platform e Data fabric
Le Data Platform, infatti, oggi costituiscono un punto focale di attenzione per quelle organizzazioni che vogliono indirizzarsi verso la digital transformation. Tuttavia, nel corso degli anni, molte società si sono avvalse del supporto di svariate strutture dati, quali data warehouse e data lake, per fronteggiare i rilevanti e sempre maggiori use case di business analytics e Data science. Tali soluzioni, però, presentano alcuni limiti, non sempre imputabili alla tecnologia.
L’elevata stratificazione, l’eterogeneità delle tecniche di data integration impiegate, la superflua complessità delle varie stratificazioni sono spesso la causa della scarsa fiducia che le figure – quali business analyst e data scientist – ripongono nel dato interno a disposizione. Altri limiti possono insorgere come ad esempio la difficoltà nel reperire il dato, la dilatazione dei tempi nella realizzazione dei progetti data driven, problemi di ownership del dato o indisponibilità dello stesso.
Il Data fabric si propone di superare queste barriere, realizzando e ideando piattaforme basate su automazione e tecniche all’avanguardia di AI. Alleati vincenti di questa strategia sono i cosiddetti “metadati”: il Data fabric prevede infatti una costante analisi delle relazioni esistenti tra gli stessi al fine di accelerare il time to market nello sviluppo di iniziative orientate al dato. Altro beneficio che consente di ottenere il focus sui metadati è l’automatizzazione del data management – anche coadiuvata da applicazioni di intelligenza artificiale o machine learning.
Data fabric, cos’è, cosa permette di fare
Il Data fabric si propone di costruire una rete di conoscenza nella quale confluiscono metadati e automatizzazioni. Lo scopo che vuole raggiungere è integrare ogni tipologia di dato e applicazione in una Data platfom in grado di utilizzare le molteplici metodologie di delivery utili alla gestione del ciclo di vita del dato.
Di per sé è dunque errato concepire il paradigma come un tool, una tecnologia o un’architettura. Questa scorretta percezione potrebbe indurre le aziende a pensare che, per l’adozione di successo di questo approccio, sia esclusivamente necessario acquistare un prodotto e abilitarlo all’interno dell’organizzazione.
Per non percepire erroneamente il Data fabric, bisogna intenderlo come un un’evoluzione del design delle Enterprise logical data platform. Concentrandosi sull’attivazione dei metadati e sull’applicazione di logiche automatizzate, viene abilitata la gestione di use case analitici e operazionali ottimizzando la qualità del dato, facilitando la semplicità d’uso del sistema e agevolando l’autonomia delle figure IT e Business coinvolte nel ciclo di vita del dato.
I quattro layers fondanti del Data fabric
Al fine di abilitare il Data fabric vanno considerati e definiti quattro layers che costituiscono le fondamenta per l’implementazione e le future evoluzioni del paradigma, ovvero collezionare e analizzare ogni tipo di metadato, convertire i metadati da «passivi» ad «attivi», Creare e mantenere il «Knowledge Graph» e avere una robusta e completa struttura di data integration
- Collezionare e analizzare ogni tipo di metadato: alla base del dynamic Data fabric design si pongono la raccolta e l’esame di ogni tipologia di metadato – sia esso tecnico, operazionale, sociale o di business. È dunque necessario ideare meccanismi atti a identificare, razionalizzare, connettere e analizzare queste informazioni collezionate dai diversi processi della Data platform.
- Convertire i metadati da «passivi» ad «attivi»: è di fondamentale importanza “attivare” – tramite una serie di processi tecnici e non – i metadati per intercettare quelle informazioni e quegli insight nascosti in essi. Inoltre, trovare una correlazione tra essi è di fondamentale importanza per determinare l’Information Knowledge Graph. Per ottenerlo, è necessario: estrarre metriche e statistiche atte a definire il “graph model”; rappresentare la collection di metadati esplicitandone le relazioni; sfruttare le metriche per alimentare gli algoritmi in grado di fornire previsioni.
- Creare e mantenere il ”Knowledge graph”: tale strumento vuole essere un punto di riferimento centrale e creare valore per il business. Questo tool facilita ad esempio l’interpretazione dei dati; la realizzazione di nuove analisi; la definizione di processi automatizzati per l’ideazione di pipeline di data ingration e la gestione agile dei flussi dei dati.
- Avere una robusta e completa struttura di data integration: attraverso la definizione del Knowledge Graph, il Data fabric arricchisce il livello informativo aziendale grazie a processi automatici, integrando altresì la conoscenza pregressa dei domini aziendali. Scopo ultimo di tale azione è facilitare e accelerare alcuni aspetti del life-cycle del dato. Da non dimenticare la compatibilità che il Data fabric deve possedere per essere utile alle diverse figure professionali che quotidianamente operano con i dati, da quelle specialistiche passando per le aree IT e arrivando agli utenti business. In sintesi, l’approccio deve supportare stili quali ETL/ELT, streaming, replication, messaging, data virtualization o ancora data microservices.
Data fabric e Data mesh a confronto
Il Data fabric, dunque, si aggiunge al panorama degli approcci esistenti nel mondo data management – si pensi ad esempio al data mesh – che un’azienda può accogliere. Ma, quindi, come orientarsi in questo scenario?
Innanzitutto, è necessario avere un quadro chiaro, completo ed esaustivo dei due approcci che, seppur accomunati dagli similari obiettivi finali, presentano due modalità di svolgimento diverso. Da una parte, infatti, il Data fabric, poggia le sue fondamenta su metadati attivi e dati di cui si conoscono le relazioni esistenti. Da qui, attraverso l’automatizzazione e la semplificazione di alcuni processi relativi alla gestione di una data platform, favorisce la diffusione di knowledge, sharing, quality, integration dei dati e molto altro ancora.
Dall’altra, invece, il Data mesh ha un raggio d’azione molto più ampio che abbraccia aspetti aziendali come ad esempio quelli organizzativi e sociali e, quindi, la tecnologia è solo uno dei focus che vengono affrontati. Tale strategia è da essere intesa come una modifica nella cultura, nel mindset e nell’organizzazione aziendale.
Si evince dunque che le due strategie non si escludono a vicenda ma possono coesistere e lavorare in sinergia. È fondamentale, tuttavia, che ogni contesto organizzativo sia consapevole dell’evoluzione che andrà ad affrontare: non tutte le società sono pronte o adatte ad un cambiamento come questo. Porsi domande e dubbi prima di procedere in tal senso, dunque, è “naturale” e persino consigliato.
Conclusioni: occorre dotarsi di una solida data strategy
Infine, è necessario dotarsi in anticipo di una solida data strategy e procedere gradualmente con l’implementazione di qualsivoglia approccio scelto. La trasformazione deve avvenire con tecnologie e architetture già adottare procedendo con i giusti passi a seconda dei bisogni delle esigenze e della maturità dell’organizzazione.
In conclusione, è ormai diventato imprescindibile per le realtà imprenditoriali di oggi iniziare a ragionare sui dati e su una corretta gestione degli stessi da cui derivano migliori performance aziendali e decisioni manageriali più ponderate. L’approccio migliore deve essere accuratamente valutato considerando obiettivi e contesto aziendale per assicurare così successo e durata alla trasformazione data driven intrapresa.