Quanto si usano i big data in Italia? Poco e male a giudicare dai risultati preliminari di una ricerca presentata da SDA Bocconi School of Management intervistando un campione di 117 aziende, da cui non risultano applicazioni sostanzialmente nuove rispetto a quelle che già si fanno con gli “small data” ossia i database e gli archivi interni. Per distinguere i big data da tutto il resto, Luca Molteni, Liaison manager, Decision Sciences e Business Analytics SDA Bocconi School of Management, fa appello alla definizione di Gartner che ne sintetizza le qualità con 3V (dalle iniziali delle stesse): “Volume, velocità e varietà – spiega Molteni -. L’aspetto più innovativo è la velocità, ossia la capacità di acquisizione da fonti realtime, mentre gli elevati volumi non sempre sono caratteristici dei big data. La varietà consiste invece nella presenza di dati strutturati e non, quindi, immagini video e testi. Altri aspetti critici dei big data, sono la veridicità, il valore e la visualizzazione, ossia le capacità che consentono di utilizzarli e renderli comprensibili alle persone”.
Il primo aspetto analizzato da SDA Bocconi riguarda chi effettua le analisi dati in azienda: “Per circa un terzo del campione si tratta di persone specializzate interne o di aziende esterne [l’IT conta per il 10%, ndr] – spiega Renata Trinca Colonel, Associate Professor of Practice Decision Sciences e Business Analytics SDA Bocconi School of Management -. Per il 46% si tratta di figure interne ai dipartimenti”. Quest’ultimo è il dato che più indica un utilizzo maturo dei big data. “Per trarre massimo vantaggio l’analista deve lavorare a stretto contatto con chi usa i dati – spiega Molteni -, un lavoro fatto spalla a spalla con le LOB, osservando le ricadute delle analisi e migliorandole nel tempo. Non si ottengono modelli predittivi efficaci senza conoscere a fondo i dati che si utilizzano”.
Un altro punto dell’indagine riguarda la varietà dei dati analizzati: “Le fonti più usate sono quelle tradizionali (figura) solo in fondo all’elenco si collocano dati provenienti da sensori, immagini e video”, precisa Trinca Colonel. A utilizzare i big data sono gli stessi dipartimenti aziendali che già fruiscono di applicazioni analitiche. Nell’ordine sono: marketing/CRM, pianificazione-controllo, vendite, strategia, produzione, sistemi informativi, HR/organizzazione. “L’ambito della produzione compare soltanto al quinto posto pur essendo tra quelli che più trarrebbero vantaggio dai big data, per esempio per la predictive maintenance – spiega Molteni -. In quest’ambito riscontriamo la difficoltà delle aziende di accettare nuovi strumenti in sostituzione dei sistemi di controllo già in uso, scarsamente basati sull’analisi dei dati”.
Metodologie per l’impiego e la gestione ottimale dei big data
Tipologie di dati e di analisi non brillano di originalità tra le aziende italiane. Secondo la Ricerca, le metodologie più sviluppate riguardano, nell’ordine: il supporto e la gestione dei progetti, la strutturazione formale dei processi di decisione e le analisi di scenario. Più distaccate seguono l’analisi delle decisioni e le simulazioni Montecarlo (metodi computazionali basati sul campionamento casuale per ottenere risultati numerici) come gap da colmare. “Algoritmi noti da anni per analizzare, per esempio, gli abbandoni da parte dei clienti, restano ancora nei desideri di molte imprese – precisa Molteni -. Un contesto che proietta l’adozione dei moderni algoritmi predittivi lontano nel futuro”.
La data governance infine influenzerà sempre di più lo sviluppo dei big data e porterà a una convergenza per tutto ciò che riguarda il controllo della provenienza, la classificazione, il controllo dell’accesso, la protezione della privacy e la sicurezza: “Con i big data diventa inoltre critico il fattore della qualità”, continua Molteni. Passare dai dati generati all’interno dell’azienda sotto il controllo dell’IT alle fonti più diverse che integrano informazioni generate in automatico da sensori, sistemi social e quant’altro, richiede di affrontare seriamente i problemi della data quality oltre che della compliance rispetto alle normative di scurezza e privacy, a cominciare da GDPR”.
Gli strumenti per elaborare i big data e le prospettive future
La Ricerca comprende indicazioni prospettiche sugli strumenti di gestione e analisi per big data, prevedendo che nel futuro ci saranno sempre più applicazioni open source, di cui Spark e Apache Hadoop sono i migliori esempi. Una tendenza che secondo dati Forrester Research si conferma anche per le applicazioni analitiche: “Applicazioni open source come Knime e H2O sono oggi inserite tra i leader nel Magic Quadrant di Gartner – precisa Molteni -. Il software open source ha recuperato il gap che aveva rispetto al software commerciale nelle capacità di dare supporto agli utenti finali, al punto da rendere difficile giustificare l’uso di quest’ultimo, se non per questioni di supporto e aggiornamento. Forrester segnala inoltre come negli ultimi due anni siano cresciute a doppia cifra le sottoscrizioni ai servizi analitici via web”. Sempre Forrester prevede che l’80% delle aziende farà affidamento su fornitori esterni di servizi di insight per qualcuna delle proprie esigenze già entro la fine del 2018. Questo per via delle esigenze di flessibilità che i servizi esterni possono garantire e della sempre maggiore velocità con cui nascono e si sviluppano algoritmi innovativi che rendono obsolete le soluzioni aziendali.
Un altro cambiamento futuro riguarderà il passaggio dalla predictive alla prescriptive analytics nelle elaborazioni su big data:“Non c’è solo la possibilità di prevedere i comportamenti del consumatore, ma anche di elaborare strategie ed essere proattivi nel proporre alternative – spiega Molteni -. In ambito commerciale significa proporre prodotti più adeguati alla categoria d’appartenenza, a sua volta desunta da comportamenti e altre informazioni a disposizione”.
L’uso dell’intelligenza artificiale ha un potenziale enorme, “e pervasivo, sia dal punto di vista aziendale sia personale. L’analisi prescrittiva unitamente a una chatbot può aiutare i clienti negli acquisti, come anche i dipendenti aziendali a ottenere le informazioni di cui hanno bisogno. Secondo Forrester, nel breve-medio termine il 25% delle imprese integrerà negli analytics le interfacce conversazionali che permetteranno a dipendenti e clienti di ottenere informazioni in linguaggio naturale o con visualizzazioni grafiche in tempo reale, per esempio, durante una riunione”.
Cosa manca alle aziende italiane per cogliere appieno l’innovazione dei big data? “C’è un problema organizzativo e culturale, specie nelle PMI – risponde Molteni -. Solo le aziende grandi hanno dei team specializzati nelle applicazioni analitiche, pochi sono i team interfunzionali che abbiano contemporaneamente la conoscenza del dato, dell’algoritmo e degli obiettivi, aspetti che devono andare di pari passo”.