Cos’è la Data Analytics
La Data Analytics è l’analisi dei dati: l’insieme delle operazioni che consentono di estrarre informazioni utili dai dati raccolti da fonti diverse, anche in tempo reale, ed elaborati in relazione al raggiungimento di determinati obiettivi.
La Data Analytics agisce infatti sui Big Data, i dati che hanno volumi così estesi da richiedere tecnologie e metodi analitici specifici per estrarne valore in un tempo ragionevolmente utile. I Big Data sono caratterizzati da 5V: il Volume, la Velocità di generazione e trasmissione, la Varietà (provengono da fonti eterogenee), la Veridicità (ovvero l’affidabilità), il Valore.
La Data Analytics deduce quindi relazioni tra dataset eterogenei e dati grezzi per effettuare previsioni di risultati e comportamenti. Il suo strumento principale è la statistica inferenziale, la branca della statistica che da un campione ridotto effettua inferenze, ovvero generalizzazioni logiche (es. “Se…allora”).
La Data Analytics viene spesso usata come sinonimo di Business Intelligence, procedimento che invece utilizza la statistica descrittiva, che rileva, classifica e sintetizza i dati senza effettuare inferenze: operazioni effettuate da dataset limitati e omogenei, con modelli semplici di ETL – Extract, Transform, Load, ovvero estrazione, trasformazione e caricamento dei dati. Le soluzioni più avanzate integrano la Business Intelligence nella Data Analytics per un processo di Data Management completo.
La Data Analytics può essere distinta in quattro sottoinsiemi: la Descriptive Analytics, che descrive lo stato dei processi aziendali confrontandolo con lo storico; la Predictive Analytics, che “predice” il futuro attraverso l’elaborazione di modelli che dal comportamento storico elaborano previsioni; Prescriptive Analytics, che non solo predice ma “prescrive”, propone soluzioni, sia operative che strategiche; Automated Analytics, che esegue in automatico l’azione necessaria sulla base delle analisi effettuate. Spesso gli strumenti di analisi utilizzano piattaforme di machine learning, di apprendimento automatico attraverso algoritmi artificiali che “insegnano” al sistema a riconoscere pattern, ovvero schemi ricorrenti tra i dati analizzati.
Casi di utilizzo dell’analisi dei Big Data
L’analisi dei big data serve a ottimizzare i flussi aziendali e migliorare il processo decisionale, rendendolo data-driven: serve quindi a monitorare i processi, gestire gli asset, prevenire problemi nell’erogazione dei servizi, affrontare l’imprevisto in tempo reale.
Nella gestione degli asset, il monitoraggio in tempo reale fornito dalla Big Data Analytics contribuisce a individuare su cosa investire e quando, a ridurre gli sprechi, a individuare nuove aree di opportunità, a contenere i costi e massimizzare i risultati.
La big data analytics serve anche a migliorare la sicurezza degli impianti: ridurre i costi di infortuni, guasti, manutenzioni improvvise, furti di informazioni, quindi proteggere i flussi informativi e di comunicazione che permettono il funzionamento aziendale. Alcuni esempi sono i sistemi di videosorveglianza industriale che controllano il perimetro esterno dell’azienda per evitare intrusioni; i sistemi di rilevamento ambientale che monitorano i parametri di qualità dell’aria e le eventuali fughe di gas; i dispositivi di monitoraggio della velocità di sicurezza dei macchinari; i sistemi anticollisione.
La Big Data Analytics realizza la manutenzione predittiva: grazie al monitoraggio in tempo reale dello stato delle attrezzature, è possibile intervenire prima che si verifichi il guasto o l’anomalia. Sistemi computerizzati di gestione della manutenzione monitorano gli ordini di lavoro, le giacenze di magazzino, le richieste di intervento, i fermi macchina, incrociando lo storico dei dati, individuando le relazioni e “prevedendo” cosa potrebbe guastarsi e quando.
L’analisi dei Big Data è fondamentale nel controllo di produzione: elabora in dettaglio i costi di produzione di ogni pezzo, i consumi delle risorse, le condizioni delle macchine. Rende tracciabile ogni processo, aumentandone l’efficienza. Dai dati dei carichi di lavoro, ottimizza i tempi e le modalità di gestione del personale; dai dati dell’inventario dei prodotti, dei componenti, delle giacenze, dei livelli di fornitura riduce gli stock inutilizzati; dai dati delle interruzioni del ciclo produttivo e dei fermi macchina nonché dei tempi di manutenzione, elabora report su tempi, costi e qualità dei processi. Contribuisce alla diminuzione degli errori di fabbricazione e monitora il consumo energetico.
La Big Data Analytics contribuisce inoltre a migliorare l’esperienza d’acquisto e implementare un’offerta sempre più personalizzata rispetto al comportamento del cliente, online e offline: i reporting dei POS aiutano a capire le tendenze di vendita e i margini di profitto; le analisi sulle recensioni a focalizzare e ripensare i servizi offerti; i dati dalle videocamere negli store consentono di ottimizzare l’assortimento dei prodotti.
Come la Data Analytics viene usata per la sostenibilità ambientale
La Data Analytics viene usata per ridurre il consumo energetico e di risorse e monitorare lo stato di salute degli ecosistemi.
A febbraio 2020 si è concluso il progetto BEEP – Big data in Environmental and occupational Epidemiology, finanziato dall’INAIL con 1.040.000 euro e coordinato dall’IRIB- Istituto per la Ricerca e l’Innovazione Biomedica del Consiglio Nazionale delle Ricerche. L’obiettivo è stato stimare gli effetti sanitari dell’inquinamento atmosferico, acustico e dei parametri meteorologici nella popolazione italiana attraverso la Big Data Analytics. I risultati hanno evidenziato che l’inquinamento e le temperature estreme hanno effetti a breve e lungo termine sulla salute, in particolare su bambini e anziani, sia nelle aree rurali che in quelle metropolitane.
L’11 marzo 2020 la società di consulenza Nirtya ha lanciato un sistema di algoritmi per misurare l’efficacia delle comunicazioni delle attività ESG – Environment, Social, Governance rispetto agli obiettivi di sviluppo sostenibile: uno strumento che capta le reazioni dell’audience per ottimizzare le azioni, produrre nuovi contenuti, attivare strumenti di comunicazione integrata.
A maggio 2020 Oracle e Trek Italia hanno lanciato l’iniziativa #IoVadoinBici, un progetto di bike sharing che comprende una app multifunzione che elabora i dati di utilizzo del mezzo e i benefici per l’ambiente.
A giugno 2020 il MIT ha organizzato una due giorni di workshop sulle sfide del riuso e riciclo della plastica, cui ha partecipato Daniela Tulone, già collaboratrice dei Bell Laboratories, con un progetto che analizza i contenuti web e social per trarre informazioni significative sull’impatto del Coronavirus sulla riduzione del consumo di plastica. Quattro focus: plastic tax, riutilizzo, riciclo e materiali biodegradabili nel settore food&beverage.
Nello stesso mese è stato presentato il progetto “DECiSION (Data-drivEn Customer Service InnovatiON)”, cofinanziato con fondi FESR-FSE, che ha previsto la costruzione di un prototipo in grado di analizzare big data eterogenei per fornire supporto alle decisioni in ambito applicativo e industriale. Il progetto, sviluppato da Sud Sistemi e Planetek Italia con la partecipazione dell’Istituto Nazionale di Fisica Nucleare (INFN), dell’Università degli Studi di Bari, è stato progettato per monitorare le reti idrico-fognarie pugliesi in chiave di manutenzione predittiva.
Nel 2019 l’ENEA – l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile ha sperimentato il software STREET© – Short-term TRaffic Evolution forEcasting Tool, che si basa sulla raccolta e l’elaborazione di dati geo-referenziati sugli spostamenti dei veicoli per regolare il traffico, minimizzando i consumi energetici e le emissioni di inquinanti.
A maggio 2019 la startup canadese BrainBox ha lanciato una tecnologia che combina algoritmi di deep learning e cloud computing per prevedere il carico termico di un edificio e consentire al sistema HVAC – Heating, Ventilation and Air Conditioning, di autoregolarsi attraverso un’unica centralina, con risparmio sui costi dell’elettricità e di manutenzione e riduzione dell’impronta di carbonio nell’atmosfera.
Il Programme for the Endorsement of Forest Certification, organismo di certificazione internazionale per la gestione sostenibile delle foreste, ha realizzato il progetto “TRACE – TRee Monitoring to support climate Adaptation and mitigation thought PEFC Certification”: nel bosco di Piegaro, in provincia di Perugia, gli alberi di cerro, carpino e douglasia sono collegati a dispositivi IoT alimentati da piccoli pannelli solari: questi dispositivi monitorano la luce assorbita, l’anidride carbonica accumulata, la crescita del tronco e l’acqua disponibile per la pianta. Dati che vengono elaborati e analizzati, per intervenire tempestivamente in caso di anomalie sugli alberi.
Un altro strumento che utilizza la Data Analytics per la sostenibilità è l’identificazione delle impronte, il FIT – Footprint Identification Technique: le immagini delle impronte vengono analizzate da algoritmi che ne analizzano i dati contenuti per riconoscere l’esemplare e alcune sue caratteristiche utili a tracciarne la distribuzione e lo stato di salute.
La Data Analytics viene anche impiegata per controllare le condizioni degli alveari, individuando le migliori tecniche per gli apicoltori, tracciando i movimenti degli esemplari per ottimizzare l’impollinazione.