L’Executive Dinner “Gestire i dati per generare valore: come innovare il business con l’information governance” organizzato da ZeroUno in collaborazione con Dedagroup ha evidenziato luci e ombre del panorama della business intelligence e dei big data. “Andando verso i nuovi modelli di business a digitalizzazione spinta – ha esordito Stefano Uberti Foppa, Direttore di ZeroUno in qualità di moderatore -, diventa centrale gestire adeguatamente le moli crescenti di dati per ricavare insights utili. Non solo occorre identificare le informazioni corrette da analizzare, ma anche le modalità di delivery. L’It deve conoscere i processi e i workflow informativi, possedere competenze sulle tecnologie, ma anche soft-skill per interfacciarsi al meglio con le Lob e gestire il cambiamento”.
Di questo servizio fanno parte anche i seguenti articoli: | |
IL DIBATTITO – Traguardare gli analytics: come risolvere i nodi critici | |
IL CASO UTENTE – Gestione documentale, come guidare il change management |
Una ricerca ZeroUno condotta su 143 aziende medio-grandi (marzo 2016) ha rilevato le priorità di spesa It per l’anno in corso: se è vero che gli investimenti che indirizzano direttamente le tematiche di innovazione sono considerati da un’elevata percentuale di aziende (soprattutto dal punto di vista della sempre più profonda profilazione dei clienti che consente di basare prodotti e servizi sulla customer experience, come Analytics e Big Data, 45%) , il dato interessante che emerge dalla ricerca è che quasi la metà delle aziende (49%) prevede investimenti su server e storage e quindi è consapevole della necessità di aggiornare la parte infrastrutturale per reggere adeguatamente l’evoluzione sul fronte più applicativo e business oriented: “Questi dati – ha spiegato Uberti Foppa – rappresentano una concretizzazione del modello bi modale dove, a fianco di un It agile, pronto a scattare per portare l’innovazione in azienda, si costruisce quel substrato infrastrutturale moderno e basato su sistemi in grado di garantire flessibilità e robustezza, indispensabile per ‘reggere’ l’innovazione”.
Internet of People e IoT
Carlo Vercellis, Responsabile dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, ha proseguito la disamina, identificando i milestone della rivoluzione digitale: “Nel 2010, l’avvento dei social media ha permesso a qualsiasi utente di diventare autore di contenuti online, dando vita all’Internet of People. Oggi nel mondo ci sono 2,3 miliardi di account social (28 milioni in Italia) e 3,8 miliardi di utenti unici mobile (28,5 milioni nel Nostro Paese). Dal 2012 è partito il fenomeno dell’Internet of Things con oltre 33 trilioni di smart device previsti per il 2020. I dati proliferano, così come le opportunità derivanti dagli analytics: Gli over the top (LinkedIn, eBay, Amazon…) – ha affermato Vercellis – sono accomunati dalla capacità di creare continuamente servizi innovativi dall’analisi dei dati”.
Lo status quo italiano
Secondo l’Osservatorio, in Italia il mercato Big Data Analytics & Business Intelligence vale 790 milioni di euro, in aumento del 14% sull’anno precedente (dati 2015, ricordiamo che la presentazione dell’Osservatorio 2016 avrà luogo il 29 novembre). Gli strumenti di business intelligence (focalizzati su attività di reporting e database relazionali) rappresentano l’84% del totale, ma le soluzioni per l’analisi dei big data (incentrate su funzionalità real-time e predittive) registrano una crescita sul 2014 nettamente superiore (34 contro 11%). Tra i principali fruitori delle tecnologie analitiche, si contano Marketing e Vendite (nel 77% dei casi), Amministrazione, Finanza e Controllo (76%), ma anche Hr (31%). I settori più effervescenti sono Banking, Manufacturing, Telco e Media, Pa e Sanità, Gdo, Assicurazioni. Gli ambiti progettuali più gettonati includono customer care, cross / up selling, ottimizzazione del pricing, analisi del churn, gestione del rischio e delle frodi; tra le applicazioni di nicchia rientrano l’ottimizzazione dei percorsi per il settore della Logistica e delle scorte per le attività produttive.
Consigli strategici
Come ha dichiarato Vercellis, attualmente i dati nei sistemi informativi aziendali sono ancora per oltre l’80% strutturati; la crescita prevista nel periodo 2015-2018 è pari al 16%, mentre i dati destrutturati aumenteranno del 20%. Come prepararsi allora a un futuro sempre più complesso? La ricetta suggerita si compone di quattro step:
- Collect and integrate: “Raccogliete tutti i dati – ha raccomandato Vercellis -, perché potranno essere utili. Lo storage non è un problema [in quanto sempre più economico e performante, ndr]!”;
- Analyze and discover: “I dati vanno esplorati, trasformati, filtrati, visualizzati prima di applicare gli algoritmi. Dal garbage si ottiene garbage: la pulizia del dato è fondamentale”;
- Predict and Optimize: In questa fase si applicano gli algoritmi per estrarre conoscenza, dall’analisi e correlazione dei dati;
- Connect and deliver: La distribuzione delle informazioni è fondamentale perché “è l’utente di business che, in base agli insights, intraprende azioni per creare customer engagement, progettare nuovi servizi ecc.”.
Insomma, l’obiettivo è comprendere le cause degli eventi, ricavare predizioni accurate e ottimizzare le azioni future. “Dai dati – ha concluso Vercellis – bisogna rilevare pattern ricorrenti e correlazioni nascoste, non banali, inusuali, utili ai decisori. Va dispiegato un arsenale di tecniche (dal data mining al machine learning per abilitare nuovi modelli predittivi. La sfida è trovare insights utili e porsi le domande giuste, perciò servono figure in grado di utilizzare gli strumenti tecnologici e intuire quali dati occorrono realmente al business [per il dibattito sul data scientist, si veda l’articolo relativo alla tavola rotonda]”.
Cognitive Era, come sarà la Bi del futuro?
Enrico Bellinzona, Performance Management Manager, Dedagroup Business Technology & Data, ha poi offerto un excursus sul futuro della Business Intelligence nell’era del cognitive computing.
“Nel 2016 – ha esordito – sono stati prodotti 4 zettabyte di dati, per l’80% non strutturati. Nel 2020, la mole generata sarà di 44 zettabyte, con una percentuale ancora superiore di dati destrutturati. Evidentemente la sfida del futuro sarà la capacità di gestire e analizzare video, mail, immagini, social post, file di log ecc.”. Fortunatamente, ha puntualizzato Bellinzona, la quantità di informazioni in aumento incontra la disponibilità infinita di potenza di calcolo, grazie a tecnologie come il cloud o il parallel computing. “Se le nuove architetture permettono di fronteggiare i big data – ha suggerito – è preferibile fare ricorso a consulenti esperti del tema per traguardare il cambiamento. Servono modelli diversi dal datawarehouse relazionale, che contemplino l’analisi real-time, modalità avanzate di esplorazione dei dati e cognitive computing”.
Secondo Bellinzona, l’intelligenza artificiale si concretizza nella facoltà di interagire attraverso il linguaggio naturale con il calcolatore, che deve essere in grado di simulare il ragionamento umano, restituendo informazioni migliori. “É questo il valore dell’Ai: non la sostituzione delle funzioni umane, quanto l’opportunità di ottenere supporto dalla potenza del calcolatore. Tra gli esempi concreti – ha citato Bellinzona – le macchine senza driver, il personal assistant all’interno dei supermercati, la diagnosi medica da parte di un calcolatore con competenze su un ambito specifico. Su tutti questi temi ci sarà un forte ingaggio in futuro e il consiglio, come sostiene anche Gartner, è iniziare a sperimentare, anche su piccoli progetti”.