Trasformare in valore il dato proveniente da fonti tradizionali o da nuove fonti come l’IoT, i wearable, i droni, i sensori, connected product e machine. Questa è la missione della Data Science. Dall’analisi predittiva all’ottimizzazione delle decisioni, la scienza dei dati permette di ottenere le informazioni utili per collaborare efficacemente e migliorare le performance aziendali.
E di Data Science si è parlato in occasione di Think Milano, l’evento che IBM ha organizzato nei giorni scorsi per portare i temi dell’innovazione e della trasformazione digitale al centro dell’attenzione delle imprese, delle istituzioni e dei cittadini, nel corso di una tavola rotonda dal titolo “La Data Science trasforma i dati in valore prezioso per l’azienda . Dal Machine Learning alla predictive Intelligence”, moderata da Mauro Bellini, direttore di BigData4Innovation.
È stato Luca Flecchia, Data Driven Innovation Practice Head di Partners4Innovation P4I ad aprire i lavori con una considerazione di scenario: “Se è vero che tutti noi produciamo una grande quantità di dati, è vero che ne usiamo una parte infinitesimale”, ha esordito. È tuttavia un problema sistemico, perché “Per raccogliere le sfide della Data Science servono competenze nuove che non sempre si hanno in casa”.
Il dato è l’elemento atomico, l’abilitatorr: il vero obiettivo sono le informazioni (specie se rilevanti per il business) @LFlecchia a #thinkmilano pic.twitter.com/ogzdd1kKjT
— Miti Della Mura (@MitiDellaMura) June 6, 2018
Ma è qualcosa per cui è bene prepararsi, visto la pervasività dei settori che di un utilizzo consapevole della Data Science potranno beneficiare: banche, retail, agrifood, Industry.40, smart city…
La Data Science, ha proseguito Flecchia, accende l’attenzione sul dato, ma “Il dato è l’elemento atomico, l’abilitatore: il vero obiettivo sono le informazioni, specie se rilevanti per il business”.
Dai Big Data all’informazione, dall’informazione all’azione
Ma quale è il percorso che trasforma il dato in informazione e che porta dall’informazione all’azione?
Flecchia lo illustra con una infografica, che qui riportiamo. Di fatto si tratta di cinque passaggi, dal dato puramente descrittivo a quello “diagnostico”, per poi passare alle fasi predittive, prescrittive e preventive.
Qual è il percorso che trasforma il dato in informazione e che porta dall’informazione all’azione? Eccolo descritto da @LFlecchia a #thinkmilano pic.twitter.com/wdyP7rSxB2
— Miti Della Mura (@MitiDellaMura) June 6, 2018
Tutta questa premessa serve a Luca Flecchia per tracciare l’identikit del Data Scientist, ovvero delle nuove figure professionali che hanno il compito di traghettare i dati verso la loro forma di insight. “Conoscenze di dominio, conoscenze statistico/matematiche, hacking skills”, snocciola Flecchia, aggiungendo poi “competenze di processo e comprensione del business, una mentalità quantitativa, capacità di gestione del dato e, naturalmente, competenze tecnologiche”.
Detto questo, che cosa si aspettano le aziende dai Data Scientist?
Tre cose sostanzialmente: conoscere le fonti dei dati e trasformare i dati in esse contenuti, saper utilizzare strumenti diversi e saper gestire tipologie di dati diversi, comprendere il business e saper lavorare in team con persone che possiedono competenze diverse.
Serve un cervello per governare i Big Data?
Sulle note di scenario di Luca Flecchia si innesta subito la provocazione di Marco de Ieso, Senior Data Scientist in IBM e professore aggiunto all’Università Cattolica del Sacro Cuore: “Visto che siamo nell’era dell’automazione e dei big data e considerato il potere nascosto dei dati, siamo sicuri che serva ancora avere un cervello?”.
Provocazione, ovvio. Perché la risposta c’è: certo che serve.
Capacità di scegliere un buon campione, di visualizzarlo (distinguendo tra segnale e rumore), di pulire i dati migliorandone la qualità, di governare gli algoritmi riconoscendone affidabilità. Questo il ruolo del #datascientist #MarcoDeIeso a #ThinkMilano pic.twitter.com/PlzJy3pTVY
— Miti Della Mura (@MitiDellaMura) June 6, 2018
“Il valore del Data Scientist sta nella capacità di scegliere un buon campione, di visualizzarlo, distinguendo tra segnale e rumore, di pulire i dati migliorandone la qualità, di governare gli algoritmi riconoscendone affidabilità”, spiega.
E conclude con una frase lapidaria: una società governata dagli algoritmi non deve essere una società di scatole nere: c’è sempre la necessità di interrogarsi su quanto accade.
Bella la conclusione di #MarcoDeIeso alla domanda iniziale: serve ancora un cervello? Eccome . Ed ecco la sintesi #ThinkMilano pic.twitter.com/XGdNI5InSc
— Miti Della Mura (@MitiDellaMura) June 6, 2018
La visione di IBM
Tocca infine a Walter Aglietti, Direttore di IBM Software Lab, portare il punto di vista di IBM sulla gestione costruttiva dei dati.
“Le aziende generano dati – premette – che devono essere governati. Ma perché questo accada, i dati stessi devono essere puliti e ordinati. Noi disegniamo i modelli e da lì parte la selezione del modello ottimale, che viene poi testato su infrastrutture apposite”.
Tocca a @walteraglietti portare il punto di vista di @IBMItalia sulla gestione costruttiva dei dati. #ThinkMilano pic.twitter.com/LOJ5kaS8uR
— Miti Della Mura (@MitiDellaMura) June 6, 2018
C’è tuttavia in Aglietti la consapevolezza delle difficoltà esistenti: dati compartimentati, di difficile gestione, mancanza di governance sui dati, che rende qualunque ipotesi di approccio self service semplicemente utopistico, mancanza di skill e necessità di disporre di strumenti che consentano di prototipare velocemente per poi altrettanto velocemente ripartire, necessità di superare l’eterogeneità delle piattaforme e dei tool di sviluppo.
E su questi due ultimi aspetti, IBM ha parecchio da dire.
L’immagine che apre questo servizio è stata postata da Maurizio Decollanz, Head of Communications in IBM Italia, sul proprio profilo Twitter