Il debito tecnologico che molte aziende hanno accumulato nella gestione del dato rischia di diventare una criticità irreversibile con l’arrivo dello tsunami dell’intelligenza artificiale. Ed è partendo da questa premessa che si è sviluppato il convegno sulla definizione di una strategia di data management dal titolo The data journey: from chaos to strategy, organizzato nei giorni scorsi da Quantyca nel quale, insieme a Nexi, Cerved Group, Lastminute.com ed Elastic, l’azienda ha affrontato quelli che ritiene siano i 4 pillar fondamentali intorno ai quali costruire una data strategy: governance, competenze, processi e tecnologie.
L’importanza della definizione di una data strategy
“In questi ultimi 10 anni, il mondo dei dati è cambiato profondamente con l’IoT, i big data, il cloud, e adesso con l’intelligenza artificiale che sta dando un’enorme accelerata: c’è stata una crescita importante delle sorgenti di dati, delle interfacce, dei formati; sono cambiate le destinazioni, dai data warehouse si è arrivati ai data lake ecc.; è cresciuta la necessità di trasformare i dati non solo in modalità batch, ma anche in real time o near real time”, ha ricordato Andrea Gioia, Partner Quantyca & Blindata, che ha aggiunto: “Ma se l’offerta dal punto di vista tecnologico ha avuto una importante evoluzione, l’organizzazione non è cambiata molto. C’è una forte attenzione alle applicazioni perché servono al business, ma si pone meno attenzione al tema dell’integrazione. L’integrazione – ha specificato Gioia – viene dopo e ci troviamo in molti casi che le applicazioni hanno espanso il loro campo d’azione perché spostare i dati risultava troppo costoso. Ecco quindi che, piuttosto di doversi porre il problema di integrare i dati, alcune applicazioni sono cresciute a dismisura”.
Il dato rimane quindi spesso legato all’applicazione e questo se semplifica le cose nel breve periodo, nel lungo rende il tutto di difficile gestione e, soprattutto, limitato nelle evoluzioni future e nell’adozione di nuove tecnologie, come l’intelligenza artificiale appunto. Per questo il convegno ha messo l’accento sulla imprescindibile necessità di definire una data strategy: il dato è un asset aziendale e deve poter essere utilizzato, spostato, fruito dalle varie applicazioni in modo autonomo e indipendente.
Il lavoro non si ferma naturalmente qui: “Una volta definita una strategia, bisogna verificare che i vari passi vengano compiuti e bisogna capire, anche attraverso procedimenti iterativi, come migliorarla. Comunque, a prescindere dalla strategia che si sceglierà, nel mondo dei dati è fondamentale trovare un giusto bilanciamento tra l’esigenza di agilità che viene dal business e quella del controllo”, ha affermato Gioia, perché è importante, oltre a garantire tutti gli aspetti di sicurezza e privacy, mettere a fattor comune le attività in modo da essere più veloci sul lungo periodo. Ecco quindi gli approfondimenti sui 4 pillar identificati.
Data governance: dalla mappatura all’azione e viceversa
La data governance, primo pillar di una data strategy, comprende persone, processi e tecnologie ICT necessari per creare una gestione coerente e corretta dei dati di un’organizzazione per raggiungere determinati obiettivi: aumentare la coerenza e la fiducia nel processo decisionale; ridurre il rischio di sanzioni amministrative; migliorare la sicurezza dei dati, anche attraverso la definizione e verifica dei requisiti delle policy di distribuzione dei dati; massimizzare il potenziale di monetizzazione dei dati; designare la responsabilità per la qualità delle informazioni; consentire una migliore pianificazione da parte del personale di supervisione; minimizzare o eliminare la ripetizione di alcune attività; ottimizzare l’efficacia dello staff; stabilire le linee di base delle prestazioni del processo per abilitare miglioramenti.
Dopo avere ricordato questa classica definizione di data governance, Guido Pelizza, Partner Quantyca e Co-founder Blindata, ha ricordato i 3 approcci che ritiene possano essere di riferimento:
- centralizzato: una funzione aziendale si occupa di disegnare ed eseguire i processi di data governance;
- decentralizzato: una volta definito il livello di responsabilità delle diverse linee, poi ognuna la gestisce per proprio conto:
- supervisionato: la vision viene condivisa, poi le funzioni vengono decentrate sulle varie LOB; esiste poi una struttura che effettua una supervisione delle attività, “l’ideale sarebbe che fosse la stessa entità che si occupa di compliance”, ha aggiunto Pelizza.
La figura 1 mostra il diverso livello di coinvolgimento delle differenti aree nelle varie fasi del processo: nella parte progettuale l’impegno dell’IT sarà molto maggiore per andare gradatamente a ridursi con l’avvicinarsi alle fasi operative.
La figura 2 mostra le diverse fasi della data governance, con le attività che devono essere svolte per ciascuna fase: “Quando i clienti vedono queste fasi si spaventano, ma il nostro consiglio è di iniziare con un intervento contenuto che poi può essere gradatamente ampliato utilizzando un approccio iterativo: questo consente di tarare le procedure”, spiega Pelizza, il quale ci tiene però a sottolineare un aspetto: “Bisogna porre la massima attenzione alla comunicazione perché senza una corretta comunicazione a tutta l’azienda è difficile raggiungere gli obiettivi prefissati ed è necessario un focus sulla manutenibilità di quanto è stato implementato”.
Stefano Gatti, Head of Data & Analytics di Nexi, consiglia di considerare attentamente settore nel quale si opera perché la data governance è differente a seconda dei settori pertanto ogni modello di data governance che si sceglie di adottare deve essere interpretato sulle specificità dell’ambito nel quale l’azienda opera.
Gatti ha poi specificato come la dato governance sia in sostanza la mappatura di 3 aspetti:
- Quali dati ho a disposizione (Data Semantic)? “Si tratta di una domanda fondamentale perché nessun progetto di intelligenza artificiale può avere successo se non si conoscono i dati a disposizione. Sembra banale – ha detto Gatti – ma ho visto in molte aziende emergere il problema serio della data discovery”.
- Dove sono i miei dati (Data Topology)?
- Come si spostano i miei dati (Data Flow)? “Il motivo per cui le aziende che nascono oggi sono più veloci degli incumbent è perché hanno costruito una piattaforma dati veloce: il data flow è il nuovo cash flow”, ha riportato il manager di Nexi.
Tornando sul tema dei modelli di riferimento, Gatti ha specificato: “Il modello completamente centralizzato è un po’ superato, quello completamente decentralizzato crea silos quindi, anche se dal punto di vista organizzativo è sicuramente più complesso, quello che preferisco, e che stiamo implementando in Nexi, è quello hub&spoke con persone che si occupano di dati decentrate nelle aree di business”.
Gatti ha quindi concluso il suo intervento con uno sguardo al futuro: “Se la data governance vuole avere un ruolo importante e di valore nelle aziende del futuro deve guardare a: Data Knowledge distribution, Data Learning e Data Usage. Tre temi che in sostanza significano Data Democratization”.
Competenze: come migliorare il tasso di apprendimento organizzativo
“Le persone sono il vero valore dell’azienda”, ha esordito Tommaso Motta, Partner Quantyca e Co-Founder Blindata, definendo il secondo pillar di una data strategy, per poi proseguire ricordando gli ingredienti per una formazione continua:
- creare un ambiente e una cultura favorevole all’apprendimento continuo di nuove competenze: “Bisogna sforzarsi di cambiare modello mentale e accettare che si possa anche sbagliare”, ha ricordato il manager;
- individuare gli strumenti aziendali più adatti e darsi un’organizzazione adeguata: “La formazione non è un evento una tantum, ma un processo continuo; bisogna pensare al ruolo di un Innovation Team e introdurre delle comunità di pratica”;
- darsi un budget: “Soprattutto di tempo…e rispettarlo!”, ha precisato Motta.
La parola è quindi passata a Diego Sanvito, Innovation and data source manager di Cerved, che ha raccontato l’esperienza della propria azienda nell’acquisizione di competenze che ha le sue radici nell’approccio Agile alla trasformazione: “È un approccio che ci ha dato grandi soddisfazioni: bisogna ispirare le persone nel trovare valore in quello che fanno, bisogna costruire un ‘circolo’ di sicurezza dove vi siano valore e fiducia”.
“Conosci te stesso”, è partito da questa frase Sanvito per ricordare quanto sia fondamentale, per il successo di un’impresa, che chi vi lavora lo faccia con consapevolezza, passione, curiosità. Per andare in questa direzione è importante abbracciare il concetto di continuous learning: “L’acquisizione di competenze in Cerved non è un vero e proprio processo strutturato, la potremmo definire un’acquisizione liquida di competenze che si sostanzia con eventi di condivisione aziendale, eventi di open innovation, l’adozione di strumenti di learning”. L’azienda ha costruito una Community of Practice nella quale condividere le esperienze, ha realizzato un wiki aziendale e, ancora, hackaton, bootcamp e mentorship.
Sanvito ha concluso il suo intervento sottolineando l’importanza del fallimento, ricordando le parole di Colson Whitehead: “È il fallimento che guida l’evoluzione; la perfezione non stimola al miglioramento…e nulla è perfetto”.
Processi: come bilanciare agilità e controllo
Tema di importanza strategica. e terzo pillar della data strategy, quello affrontato da Francesco Gianferrari Pini, Co-Founder di Quantyca e Co-Founder di Blindata: come bilanciare i due lati della forza, da un lato la spinta del business sull’agilità, dall’altro quella dell’IT sul controllo.
Gianferrari Pini ha fatto un rapido e molto interessante excursus dell’evoluzione del data management schematizzata nelle figure 3, 4, 5, 6, 7. Il passaggio dalla fase illustrata in figura 6 (la terza fase) a quella di figura 7 (la quarta fase) stabilisce quello che il manager definisce il “punto di non ritorno”: “Con l’istituzionalizzazione dei data mart dipartimentali si certifica un principio forte: la visione funzionale della strutturazione dei dati, ai fini di analisi, può non essere univoca e monolitica all’interno dell’organizzazione. Partendo però da una impostazione comunque controllata, si affacciano invece una serie di ‘deviazioni’, riconducibili alla sempre maggiore autonomia dei gruppi di lavoro: si creano pipeline di trasformazioni del dato negli strumenti di front-end (self service BI), che si trasformano da layer di presentazione a piattaforma autonoma di ETL, in cui ogni gruppo di lavoro riparte dai dati raw”.
Gianferrari Pini conclude il suo intervento caratterizzando le due forze che si fronteggiano: “Quella vicina alle diverse linee di business, che cerca: agilità e indipendenza, spesso a scapito di manutenibilità e scalabilità delle soluzioni. Quella vicino ai gruppi di analytics centrali, che vogliono offrire: coerenza (interna alla struttura e nel tempo), qualità del dato e integrabilità, ma spesso soffrono in termini di velocità di risposta. L’aumento della rilevanza delle attività di data science, tipicamente sotto la responsabilità delle linee di business, ha ulteriormente esacerbato alcuni problemi, in particolare legati alla feature engineering e alla industrializzazione dei modelli. Una forte sfida, infine, è anche data dal cambiamento del parco applicativo: Saas e cloud”.
Particolarmente interessante è l’esperienza di lasminute.com, raccontata da Corrado Casto, Chief Product and Technology Officer dell’azienda alla quale dedicheremo uno specifico articolo nelle prossime settimane.
Tecnologia: il nuovo ruolo del middleware in un mondo data centrico
Ed eccoci all’ultimo pillar di una data strategy. Riprendendo la parola, Gioia ha ripercorso varie statistiche sul fallimento di progetti di big data analytics, evidenziando come, nonostante la tecnologia sia migliorata tantissimo, i tassi di fallimento rimangano comunque alti: “Il problema non è dunque la tecnologia, ma come metto insieme le tecnologie, quindi il problema è l’architettura”.
E anche qui torna il concetto dell’equilibrio: “Il software può essere scritto in modo che sia facilmente modificabile in futuro, ma attenzione: se si rende tutto modificabile in realtà si rende tutto più complesso [e in definitiva non modificabile ndr]. Ecco quindi che bisogna fare delle scelte, trovare un equilibrio e l’architettura deve essere allineata con strategia”.
Quattro principi su cui deve basarsi un’architettura vengono evidenziati da Gioia come particolarmente rilevanti. Un’architettura efficace deve essere:
- poliglotta: “Mai pensare che la modellazione dell’architettura possa essere fatta con una riduzione dei moduli così come pensare di acquisire tutto lo stack necessario da un unico fornitore”;
- facile da evolvere nel tempo;
- scalabile: parliamo quindi di cloud, hybrid cloud, multicloud, automazione. “È molto importante investire nell’automation”, ha sottolineato Gioia;
- governabile: questo significa che deve essere governata anche a livello operativo, bisogna capire cosa sta succedendo sulla piattaforma, avere capacità di monitoraggio.
Ed è proprio quest’ultimo il tema sul quale si è focalizzato Massimo Brignoli, Principal Solutions Architect di Elastic, che ha portato alcuni esempi specifici di monitoring, APM, SIEM ecc. basati sulle soluzioni dell’azienda.