Data strategy, AI e Cloud per aumentare e diffondere conoscenza: l’esperienza di CovidReport

Il servizio realizzato da Andrea Benedetti, Senior Cloud Architect, Data & AI Strategist di Microsoft per facilitare l’analisi dei dati legati all’emergenza coronavirus grazie alla piattaforma Power BI Microsoft mostra come sia possibile sviluppare un prototipo, testarne la validità, passare all’azione e attuare un percorso di miglioramento continuo.

Pubblicato il 29 Apr 2020

Andrea Benedetti, Senior Cloud Architect, Data & AI Strategist di Microsoft
Andrea Benedetti, Senior Cloud Architect, Data & AI Strategist di Microsoft.

L’emergenza coronavirus e il corrispondente lockdown delle attività sociali e imprenditoriali ha fatto letteralmente esplodere una domanda di conoscenza. I cittadini hanno bisogno di sapere, di disporre di dati e di leggerli come fenomeni. La comunità scientifica ha a sua volta bisogno di integrare fonti diverse, di mettere in relazione i trends, di formulare delle ipotesi e di verificarne l’attendibilità. Tutti abbiamo bisogno di  conoscere sempre più in dettaglio cosa sta avvenendo e abbiamo bisogno di vedere i dati, di comprenderne in modo semplice, intuitivo, chiaro, immediato, la loro utilità. La capacità di integrare fonti diverse, di metterle in relazione, di scovare dei pattern che permettano di cogliere delle analogie, di sviluppare delle intuizioni permette di far crescere il bene più prezioso: la conoscenza con la quale leggere la realtà che ci circonda e aumentare la capacità di scelta. Ecco, in un periodo caratterizzato purtroppo da una emergenza che nessuno avrebbe mai immaginato di affrontare, con scenari assolutamente impensati e impensabili prima d’ora, la possibilità di aumentare e accelerare i processi di conoscenza rappresenta un valore prezioso per tantissimi soggetti a partire prima di tutto dai cittadini, Con questa considerazione abbiamo affrontato, curiosissimi, la lettura di una iniziativa che possiamo definire “personale” di un Data Strategist che ha voluto mettere frutto e a disposizione della collettività la propria passione per i dati, la passione per la conoscenza e non ultimo e certamente non meno importante la propria conoscenza di una piattaforma come Power BI Microsoft con la quale ha realizzato un CovidReport (servizio open e immediatamente accessibile che mette a disposizione una analisi delle principali fonti di dati relativi all’impatto dell’emergenza sanitaria Covid-19 che potete visionare subito QUI) animato primariamente da due obiettivi: trasformare i dati in informazioni immediatamente utili alla conoscenza con la massima semplicità e accessibilità di navigazione e personalizzazione. Il protagonista di questa storia di “conoscenza”e di questo confronto è Andrea Benedetti, Senior Cloud Architect, Data & AI Strategist di Microsoft. 

Raccontiamo questo progetto, com’è nato e perché?

Circa 6-7 settimane fa, vedendo quello che stava succedendo nella mia città, (Brescia n.d.r.), ovvero in uno dei centri del ciclone Coronavirus, ho avuto la curiosità di capire cosa stava realmente accadendo. Questo mi ha spinto ad analizzare la effettiva disponibilità di dati e cercare il modo di leggerli, di farli parlare, di metterli in relazione e di capire cosa potevano raccontare. Ho lavorato per recuperare queste informazioni e per sviluppare un servizio capace di restituire una lettura oggettiva, la più possibile completa. 

Quali sono stati i passaggi principali?

Il nostro governo, grazie alla Protezione Civile, ha deciso di rilasciare giornalmente un data set dopo il comunicato stampa delle 18.00 (anche se poi la periodicità della conferenza stampa è stata modificata con 2 appuntamenti a settimana) che riportavano un livello nazionale, regionale e provinciale di una serie di attributi di interesse, molto dettagliati. 

Già da queste prime analisi mi sono accorto di come la curva della terapia intensiva stava salendo vertiginosamente verso l’alto, a livello di ospedalizzati e di contagi. Per chi mastica dati come me, che cerca di trarre dai dati il maggior valore possibile, dalle analisi arrivano spunti e idee per allargare gli orizzonti e per cercare altre fonti e questo lavoro mi ha spinto sulle banche dati ufficiali del Ministero della Salute per verificare altre possibilità di conoscenza con i dati, regione per regione, deposti per terapia intensiva che, correlati ai dati della Protezione Civile, permettevano di avere degli scenari su quando saremmo andati in super sofferenza. 

La stessa analisi oggi peraltro ci dice che le settimane di lockdown hanno raggiunto l’obiettivo per le quali sono state fatte. Un obiettivo che non era e non poteva essere quello di sconfiggere il virus (che spetta a chi cerca un vaccino), quanto quello di ridurre lo stress sanitario facendo in modo che il contagio si diffondesse meno. Sono 20 giorni che la terapia intensiva cala, 16 che le strutture ospedaliere calano e oggi i nostri ospedali sono in grado di rispondere meglio alle problematiche dell’emergenza. 

Come hai realizzato questo servizio? Come lo hai sperimentato?

La sperimentazione è uno dei vantaggi più interessante della tecnologia che ho utilizzato, ovvero Power BI Microsoft. Avevo bisogno di uno strumento che mi permettesse di prototipare e portare velocemente a terra con un risultato. In poco più di 3 ore di lavoro di un sabato sera dalle 21 a mezzanotte ho riprodotto i primi 8 report che mi davano un quadro molto chiaro. Ecco il vantaggio di questa piattaforma, passare dalla strategia all’azione: dalla prototipazione al time-to-market in modo velocissimo.  

Come lo hai condiviso?

L’altro vantaggio è che con un click ho reso disponibile a tutto il mondo e gratuitamente questa stessa analisi. Ho pubblicato il lavoro condividendone l’url. In poco tempo ho ricevuto segnali di attenzione, di apprezzamento, commenti. In giro per il mondo colleghi mi hanno contattato per arricchire il data set e questo mi ha fatto capire come il bisogno di comprendere che avevo era sentito da molti altri. Ecco l’altro aspetto affascinante di questo lavoro e il supporto che arriva dalla piattaforma: la possibilità di condividere, aggiungere nuovi stimoli e proseguire nel lavoro, allargando il campo di azione e aumentando i livelli di personalizzazione per gli utenti.

E in questo modo il progetto si è ulteriormente arricchito?

Andrea Benedetti, Senior Cloud Architect, Data & AI Strategist di Microsoft.

Si, ho continuato a produrre altre analisi, ho correlato altre fonti di dati. Ho analizzato le fonti ISTAT, in particolare gli ultimi 3 anni 2016-2017-2018 che ho caricato nel mio modello dati e con questi dati ho comparato i decessi di quegli anni scorsi con quelle del periodo Covid. La situazione è apparsa effettivamente drammatica ed apparso chiaro come nella provincia di Bergamo ci sia stato stato purtroppo un fortissimo aumento nella media dei decessi. 

I dati dicono poi che l’Italia è divisa in due con la Lombardia da un lato e le altre regioni dall’altro. Ma il livello del contagio è completamente differente. Se si guarda al numero dei decessi, più di metà sono in Lombardia. Brescia a sua volta è una delle città più contagiate, ma nello stesso tempo occorre anche considerare – ad esempio – che è anche una delle province più estese d’Italia. Ecco che nell’analisi su base provinciale, la lettura del dato, in proporzione al numero degli abitanti, permette di avere una visione più precisa del fenomeno e Cremona risulta la provincia più contagiata. 

Come hai affrontato il tema della diversa interpretazione delle fonti di dati?

Questo è un punto chiave in tante situazioni. La cultura del dato non è ancora così forte e radicata. Basti pensare alle incertezze relative ai dati della Protezione Civile che “uniscono” in un unico dato guariti e dimessi. Un tema delicato perché purtroppo non è affatto detto che le due situazioni corrispondano: è infatti possibile purtroppo la dimissione di una persona non ancora guarita. Ci sono poi altri livelli di attenzione sulle fonti che possono migliorare in modo molto significativo tutto il processo e portare non solo ad una maggiore conoscenza ma a una conoscenza più precisa. E’ poi purtroppo sorprendente, ma non esiste uno standard unico nel mondo per gestire e trattare il dato di una pandemia come questa. L’Organizzazione Mondiale della Sanità non ha rilasciato uno standard unico e questo aggiunge una problematica importante da affrontare nel momento in cui si lavora alla correlazione tra dati che provengono da nazioni diverse.

Questo ci conduce anche a un tema di governance del dato e delle piattaforme che lo devono gestire, come hai affrontato questo tema?

Mi è venuta in aiuto la tecnologia. Riuscire a comprendere le modalità di trattamento del dato ha fatto sì di poter correlare le informazioni provenienti da fonti dati differenti. In Italia come ho detto tra le fonti c’era la Protezione Civile e l’Istat. Negli USA presso l’Università del Maryland, la John Hopkins, è stato avviato un servizio di gestione dei dati Covid-19 per certi aspetti simile a quello della Protezione Civile italiana, ma per tutte le nazioni del mondo. Ho caricato i loro dati sul modello e ho iniziato ad analizzare i continenti. 

C’è poi un tema chiave che non possiamo mai dimenticare: per quanto una soluzione sia valida non può cambiare il valore di un dato. Se entra in piattaforma un dato di scarsa qualità ne esce un risultato di scarsa qualità. Occorre fare tanta attenzione nell’analisi delle fonti perché un’informazione non precisa e non pulita, può portare a ragionamenti sbagliati. Mentre più un dato è preciso e ricco in ingresso più si è in grado di realizzare un’analisi più corretta. 

Il tema della conoscenza e della precisione dei dati ci tocca a livello di cittadini prima di tutto. ma come sappiamo il lockdown ha colpito molte aziende e per molte supply chain è oggi fondamentale disporre di analisi, di capacità predittiva e di capacità di simulazione per poter preparare l’uscita dall’emergenza e impostare in modo più “sicuro” uno scenario di nuova normalità. Come vedi queste prospettive a livello di imprese?

L’accessibilità e la flessibilità di Power BI può accelerare i processi di conoscenza per molte aziende che hanno bisogno di capacità predittiva, di disporre della capacità di mettere in relazione dati, di anticipare effetti di determinate decisioni o di avere la capacità di valutare meglio possibili minacce o rischi. Tutto parte ovviamente dalla disponibilità del dato e dalla qualità del dato in ingresso che, come ho detto, permette di effettuare le analisi in uscita. Più l’impresa ha accesso a un patrimonio informativo ricco in entrata (ad esempio con andamenti del mercato, azioni dei competitor, scenari di rischio simili a quella della pandemia, esperienze di blocchi e di riprese), più sono in grado di analizzarlo e darlo in pasto ad algoritmi, per poi fare analisi di predizione come forecast. Power BI consente di avere un time to market rapidissimo con una grande usabilità e dall’altro permette di utilizzare la potenza insita alle capabilities di AI native, con la possibilità di “scegliere” gli algoritmi più appropriati e mandarli in rapidamente in esecuzione. Ma l’altro aspetto importante della piattaforma è nella capacità di visualizzazione che è un aspetto fondamentale del nostro lavoro e che permette di far parlare i dati nel modo migliore. La piattaforma permette di farlo grazie a set di visualizzazione e analisi facile da utilizzare e attuare. 

Come si affrontano tematiche legate alla governance dei dati, dei privilegi, degli accessi e delle autorizzazioni. La risposta alla domanda di conoscenza che arriva dal mondo scientifico è naturalmente diversa da quella dei cittadini e ancora una volta diversa da quella delle organizzazioni che operano sul territorio. Come si gestiscono queste esigenze considerando che cambiano, spesso molto frequentemente e velocemente?

Quello che affrontiamo oggi in questa situazione di gestione dei dati e della conoscenza è uno scenario tipico, classico delle aziende e si risolve a più livelli partendo sempre dal presupposto che occorre avere sempre la massima attenzione alla user experience. La tecnologia è già in grado di riconoscerti e quindi quando faccio un’interrogazione, può associarmi a una serie di dati e correlare la mia ricerca ad una certa tipologia di utenza, può applicare regole di visibilità appropriate a questa forma di riconoscimento e mostrare dati e modalità di visualizzazione in linea con il mio profilo (es. area geografica primaria). Nel caso di accesso di un’altra persona, la risposta cambia in funzione dei suoi attributi, scegliendo quali dati e in quale modalità mostrarli. Poi c’è il tema dei permessi di accesso. E’ importante poter avere libertà di azione in funzione di regole che possono cambiare, come applicare un filtro di visibilità verticale magari solo per regione o orizzontale su determinati livelli di informazioni. Si devono poi poter mascherare informazioni che non devono essere leggibili da persone che non hanno il diritto o che devono essere protette per ragioni di privacy.  

Come questo tipo di piattaforme stanno contribuendo ad accelerare l’evoluzione della professione di Data Scientist?

Piattaforme come queste permettono alle organizzazioni di capire che incrociare dati magari provenienti da fonti diverse consentono di capire andamenti e clientela prima non accessibili. Tecnologie come queste permettono di arricchire la conoscenza perché è come leggere più libri simultaneamente presenti in biblioteche sparse per il mondo. Utilizzi analogie o interrelazioni scoprendo pattern su cui si costruiscono filoni di conoscenza. 

C’è poi un altro aspetto estremamente affascinante: non c’è un mercato o un’industria che non produca dati. Questa tecnologia, permette di trasformare i dati in valore e permette a chi svolge questa professione di inventare ogni giorno, grazie ai dati, nuove modalità per creare valore. E se ci pensiamo bene l’unico limite che oggi abbiamo è la fantasia. La tecnologia, le infrastrutture, il cloud mettono nella condizione di fare qualsiasi cosa in termini di analisi, di creazione, di interpretazione ecc. 

L’intervista con Andrea Benedetti è anche un video Aumentare la conoscenza per ridurre i rischi: l’esperienza CovidReport

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5