Secondo un’indagine che Forrester Research ha condotto di recente a livello globale intervistando più di 3.000 responsabili It, entro il secondo trimestre del 2016, il 65% delle aziende avrà già implementato soluzioni per il trattamento e l’analisi dei big data, e una buona parte di quelle che non l’hanno fatto saranno impegnate nelle prime fasi di progetti analoghi. Il messaggio è chiaro: se si vogliono cogliere le opportunità promesse dall’analisi delle nuove fonti dati, e sulle quali evidentemente credono quasi tutti i decisori aziendali, bisogna muoversi. O almeno, essere preparati a farlo.
Su queste basi gli analisti di Forrester hanno cercato di aiutare chi parte da zero, mettendo a punto una sorta “di promemoria operativo” che si esprime in cinque punti da considerare con grande attenzione in quanto determinanti le azioni da compiere. Con questo articolo li proponiamo a chiunque si trovi a dover decidere che fare, ricordando solo due cose. La prima è che si tratta di questioni che non nascono da studi fatti ‘a priori’ ma dalla concreta esperienza di chi le ha già affrontate. La seconda è che non si tratta di domande facili e nessuno, né Forrester né altri, pretende di dare una risposta univoca. Ma se è vero, come è vero, che la strada per risolvere i grandi problemi non sta nel cercare le risposte possibili ma nel porsi le domande adatte, questo è un modo per cominciare.
Big data per cosa?
Sembrerà ovvio, ma poiché sono proprio le cose ovvie quelle alle quali si pensa meno, la prima questione da chiarire è a quale finalità di business dovrà servire il progetto big data. Se ciò non è chiaro da subito, il rischio, ed è un rischio elevato, è che il Cio e l’It vadano avanti per la loro strada realizzando qualcosa che magari funziona benissimo, ma che poi non risulta allineata ai bisogni del business e dell’impresa.
Gli ‘use case’ più frequenti, secondo quanto dichiarato a Forrester dalle aziende utenti, rientrano in tre gruppi (figura 1):
Efficienza e rischi operativi. Gran parte dei progetti big data realizzati o pianificati a breve riguarda la riduzione del rischio nelle analisi finanziarie. Altri ambiti dove contano efficienza e risk reduction sono l’asset management (con una punta nell’analisi delle frodi), la gestione del personale e la supply chain, dove emergono le applicazioni per la manutenzione preventiva. Un approccio globale a questi problemi deve considerare la condivisione dei dati e lo scambio di idee con i business partner sulle analisi che possono migliorare i processi operativi e ridurre l’esposizione al rischio, nonché il tracciamento dei risultati avuti dalle azioni prese in seguito a dette analisi in modo da avviare un ciclo virtuoso.
Sicurezza e performance applicative. Le analisi big data sul funzionamento dell’It servono a prevenire problemi nell’erogazione dei servizi e a monitorare gli eventi per potervi rispondere in tempo reale. I modelli d’analisi, che vanno discussi con i responsabili della sicurezza e delle applicazioni, si servono dei data-log generati da server e dispositivi di rete per valutare i livelli prestazionali, trovare i colli di bottiglia e quant’altro.
Conoscenza e servizio ai clienti. Ai progetti per il marketing, le vendite e lo sviluppo dei prodotti vanno aggiunti quelli per l’ottimizzazione della digital experience, fondamentali per le aziende che operano online. Inutile dire che tutti questi obiettivi rappresentano solo differenti aspetti della cosiddetta ‘business technology’, quella che può trasformare le attività dell’impresa e creare nuove fonti di guadagno, e che si fondano su basi analitiche analoghe, se non comuni, che It e data architect devono conoscere a fondo.
Quali tecnologie e perché
L’ecosistema delle tecnologie big data è in pieno fermento, con molti strumenti maturi e molti di più da raffinare. Più di un terzo dei vendor del settore è sul mercato da meno di cinque anni e quasi tutti si proclamano ‘leader’ in qualche cosa. Le figure 2 e 3 sintetizzano un complesso lavoro fatto dagli analisti Forrester, considerando il variegato panorama dell’offerta, in base a diversi parametri. Per potersene servire va tenuto presente che nella figura 2 le soluzioni sono considerate in base a tre profili di fruitori: l’utente business, il data scientist (chi, dotato di conoscenze interdisciplinari, analizza e interpreta i dati) e il data engineer (chi, chiamato anche data architect o data infrastructure manager, si serve della propria expertise It per aiutare il data scientist a fare il suo lavoro nel modo migliore).
Nella figura 3, invece, si considerano aspetti più riferiti all’impianto generale dell’It aziendale, come l’efficienza operativa, la capacità di promuovere il data sharing e la sicurezza e salvaguarda dei dati sensibili.
Come organizzarsi?
Nel passare dalla sperimentazione alla produzione, gli aspetti organizzativi che ogni progetto implica acquistano importanza. Nel nostro caso non è tollerabile, come pure talvolta accade, che si debbano gestire i big data in strutture di data management dove non sia ben chiaro chi deve fare cosa. La prima cosa da fare è quindi codificare nel modo più accurato possibile rapporti e responsabilità tra gli executive delle linee di business, i gestori delle soluzioni tecnologiche e i ‘data leader’. Questi ultimi, come è detto in un interessante articolo su Forbes (Defining the art of data leadership) sono coloro che, avendo sia capacità di data analysis sia doti di leadership personale, possono far da catalizzatore nel trasformare la conoscenza emergente dall’esame dei dati in opportunità di business. Sebbene Forrester ne dia per scontata la presenza sono in gran parte, specie in Italia, figure da creare. Se possibile traendole dai ranghi dei Cdo (Chief Data Officer, anch’essi peraltro non molto diffusi in casa nostra).
L’organizzazione delle società che già sfruttano i big data in produzione mostra tratti comuni. Per cominciare, non vi sono in genere servizi analitici centralizzati ma gruppi snelli e flessibili, con data engineer, data scientist, sviluppatori ed esperti delle LoB guidati da persone che hanno una chiara visione della digitalizzazione del business. Tutte infatti, anche le aziende che hanno creato team centralizzati, concordano sul fatto che l’analisi dei dati risulta più efficace se viene fatta direttamente con i business leader. È poi importante che i modelli di analisi siano approvati, verificati e ricalibrati periodicamente. Anche quest’attività di governo viene svolta in contatto con le strutture del business (oltre che di risk management e legali) piuttosto che con l’It.
Viene invece centralizzata la piattaforma tecnologica per le analisi, con le pipeline che vi fanno confluire i dati provenienti dalle attività operative. I sistemi sono gestiti da un team dedicato che attua i primi interventi di trasformazione e arricchimento dei dati man mano che questi vanno ad alimentare l’ambiente analitico. Gli architetti di sistema devono quindi bilanciare la standardizzazione dei processi imposta dalla compliance normativa e dall’avere una piattaforma unica per big data eterogenei con la flessibilità operativa imposta dalle circostanze ed espressa dai piccoli team analitici di cui s’è detto. In questo compito è d’aiuto l’appoggio alle comunità di best practice e ai Centri di eccellenza promossi dai vendor.
Una questione di cultura
Le azioni derivanti dalle analisi sui big data hanno ovviamente un impatto sul modo di fare business. Questo, com’è normale per ogni novità, può creare delle preoccupazioni; bisogna dunque spiegare bene ciò che resta uguale e ciò che cambia (per il meglio!) nel lavoro. Allo scopo, Forrester consiglia di adattare il modello del ciclo operativo del cliente, dato che l’utente business è di fatto il ‘cliente’ delle informazioni a lui destinate (figura 4).
È importante comunque far capire come aumenteranno potere e responsabilità dei business manager a fronte di due importanti cambiamenti. Il primo riguarda l’accesso ai dati: aprire i silos informativi è in realtà solo una questione organizzativa, dato che la tecnologia è disponibile e consolidata. È vero che talvolta il consolidamento dei dati, importante per condurre analisi incrociate, è un problema. Ma è una sfida che riguarda l’It e che si può affrontare. Il vero nodo è che di rado le aziende spingono i manager a condividere i dati. In realtà articolate per brand, questo atteggiamento può giungere a creare una concorrenza interna fra le linee di offerta, con il risultato di perdere di vista le opportunità di business a livello enterprise. È un problema di cultura, che va cambiata ma il cui cambiamento dipende in gran parte dall’atteggiamento del top management. Da qui l’importanza, più volte ricordata, del supporto ai progetti big data da parte dei vertici aziendali.
Un altro punto importante è la ‘accountability’ dei dati, cioè quell’insieme di cose che rendono il dato certo e affidabile. Di solito questa è garantita dall’It, che ‘filtra’ i dati grazie a processi trasparenti e verificabili, ma alcuni casi di successo hanno mostrato i vantaggi ottenibili permettendo ad analisti e data scientist di lavorare sui dati grezzi. Ciò significa che da un lato conviene formare certe persone dotandole della capacità di organizzare i dati secondo schemi da loro stessi concepiti e dall’altro che il business deve compartecipare (anche finanziariamente, secondo Forrester) all’impegno dell’It sulla qualità dei dati.
Quattro cose da fare
Preso atto che sull’analisi dei big data bisogna essere pronti a muoversi, ecco come l’It (cui spetta comunque, al di là degli aspetti organizzativi e culturali di cui s’è detto, la realizzazione dell’impianto logico infrastrutturale demandato allo scopo), conviene che agisca per limitare rischi ed errori.
Il primo passo sta nell’identificare e rimuovere i colli di bottiglia, sia tecnologici sia di processo, che possono rallentare o impedire il lavoro dei team di analisi. Questi nodi possono essere i più disparati, dalla mancanza di supporto per i tool analitici prescelti agli stessi sistemi di qualità e accountability dei dati. Non è detto che si possano tutti sciogliere, ma identificarli per poterci lavorare avendo un obiettivo è già una cosa importante. Poi bisogna realizzare, agendo per passi successivi, un ‘tessuto informativo’ dotato di un service layer capace di presentare non solo i dati ma anche le possibili analisi agli utenti business che le richiedano. Forrester consiglia di valutare le tecnologie di data virtualization e SQL-for-Hadoop fornite da Hp, Ibm, Microsoft e Oracle come potenziali strumenti acceleratori.
Il terzo passo sta nel dare ai gruppi di analisi gli strumenti di discovery, testing, delivery e collaborazione di cui hanno bisogno (e che possono essere diversi a seconda dello scopo delle analisi) e, ovviamente, nell’inserirli nel tessuto informativo di cui sopra perché possano funzionare. Occorreranno anche tool di knowledge management e di workflow per abilitare la cooperazione tra i team d’analisi ed accelerarne le operazioni.
Infine, bisogna lavorare per legare servizi analitici ai motori di analisi e ai data feed. Nella dura competizione del business digitale un’analisi sulla quale non si può lavorare subito, trasformandola, per esempio, in contenuti per il sito web o in input per il Crm diventa presto inutile.