Analytics

IoT Analytics: dal data center all’elaborazione in tempo reale

La IoT Analytics serve a elaborare, confrontare, monitorare e archiviare in tempo reale i dati che arrivano dai dispositivi IoT. A trasformarli in informazioni utili a prendere decisioni. Per le aziende, significa avere la possibilità di ottimizzare le proprie operazioni a tutti i livelli.

Pubblicato il 29 Ott 2020

IoT analytics

Dispositivi connessi, collegati tra loro e alla rete Internet, che generano dati. Dati che, analizzati, consentono di aumentare prestazioni e sicurezza, migliorare l’esperienza del cliente, ridurre i costi di manutenzione alle apparecchiature. La mole di dati scambiata dai dispositivi IoT è imponente: anziché farsene sopraffare, perché non gestirla per generare valore d’impresa? Ecco cosa fa la IoT Analytics.

Cos’è la IoT Analytics

La IoT Analytics è l’analisi dei big data generati dall’Internet of Things, ovvero dalla rete connessa di dispositivi fisici abilitati ad Internet.

Dotati di sensori, i dispositivi IoT registrano le interazioni con il mondo esterno e scambiano questi dati con altri oggetti o utilizzatori finali grazie alla connessione attraverso sistemi embedded e/o combinazioni di fog e cloud computing.

I dati generati e scambiati sono definiti Big Data perché hanno volumi così estesi da richiedere tecnologie e metodi analitici specifici per estrarne valore in un tempo ragionevole.

Le caratteristiche dei Big Data vengono spesso riassunte in 5V: il Volume, la Velocità di generazione e trasmissione, la Varietà (specie se generati dall’IoT, i dati non sono strutturati, cioè pronti per essere inseriti subito in database), la Veridicità (ovvero l’affidabilità), il Valore.

Il Valore è tra le caratteristiche più importanti, perché i dati non parlano da soli. Un dato se non inserito in un contesto difficilmente si trasforma in una informazione utile.

I dati IoT diventano quindi informazioni utili grazie all’elaborazione di software specifici inseriti in architetture di rete progettate a seconda delle esigenze, con chiarezza a monte dell’analisi sia riguardo gli obiettivi da raggiungere che la strategia con cui perseguirli.

A cosa serve la IoT Analytics e come può aiutare le aziende

La IoT Analytics serve a elaborare, confrontare, monitorare e archiviare in tempo reale i dati che arrivano dai dispositivi IoT. A trasformarli in informazioni utili a prendere decisioni, anche nell’immediato futuro. Per le aziende, significa avere la possibilità di ottimizzare le proprie operazioni a tutti i livelli: dalla gestione degli asset alla manutenzione predittiva fino al miglioramento del processo decisionale.

Gestione degli asset

Gestire gli asset, ovvero le risorse aziendali, significa aumentare il valore dell’impresa, non solo in termini economici. Attraverso la IoT Analytics, i software EAM – Enterprise Asset Management aiutano a monitorare in tempo reale i processi aziendali, capire su cosa investire e quando, ridurre gli sprechi, individuare nuove aree di opportunità, definire e attuare con chiarezza la strategia di impresa, contenendo i costi e massimizzando i risultati.

I software EAM si usano per controllare e ottimizzare tutte le risorse aziendali grazie alle analisi sui dati in tempo reale: la valutazione dei rischi, lo studio del ciclo di vita di beni e strumenti, il calcolo preventivo e la cronologia degli interventi di manutenzione, la tracciabilità delle scadenze e delle licenze sono solo alcune delle azioni previste, personalizzabili a seconda degli obiettivi aziendali.

Manutenzione predittiva

La manutenzione su condizione, o predittiva (Condition Based Maintenance) consente di intervenire prima che si verifichi il guasto o l’anomalia, grazie al monitoraggio in tempo reale dello stato delle attrezzature e degli impianti con soluzioni di IoT Analytics.

Infatti, i sensori posizionati sul macchinario o sulla linea dell’impianto forniscono dati sul funzionamento abituale che vengono elaborati e incrociati rispetto allo storico delle operazioni da appositi software CMMS – Computerized Maintenance Management System, sistemi computerizzati di gestione della manutenzione.

I CMMS aiutano le imprese a monitorare, programmare e governare tutte le operazioni relative alla manutenzione: dagli ordini di lavoro al magazzino, dalle richieste di intervento alla rendicontazione dei costi fino alla tracciatura dei fermi macchina: tutte le azioni vengono tracciate, registrate in automatico dal sistema e rese accessibili agli operatori su un’unica piattaforma. È prevista anche l’elaborazione di un prospetto dei costi da cui valutare se sia più conveniente la manutenzione o la sostituzione del macchinario e in che tempi.

Controllo di produzione

Il controllo di produzione si riferisce a tutte le attività di monitoraggio, gestione e verifica delle diverse fasi dei processi produttivi aziendali: dall’ingresso delle materie prime e delle loro componenti fino al prodotto finito, pronto a raggiungere il canale di distribuzione. Comprende il controllo qualità e richiede l’accesso e la gestione di grandi quantità di dati: dall’inventario dei prodotti, dei componenti e del personale ai livelli di fornitura; dalle interruzioni del ciclo produttivo, ai fermi macchina, ai tempi di manutenzione; dai resi, ai tempi di consegna e di preparazione spedizioni.

L’IoT Analytics consente di misurare ed elaborare in dettaglio i costi di produzione di ogni singolo articolo, i consumi delle risorse impegnate nei processi, le condizioni delle macchine utilizzate. I software più comunemente utilizzati per il controllo di produzione sono i MES – Manufacturing Execution System: monitorano in tempo reale le attività svolte, gli operatori e le attrezzature coinvolte nei processi, controllano in tempo reale quantità e consumi delle materie prime, riducendo gli stock inutilizzati; analizzano i dati relativi ai carichi di lavoro, ottimizzando i tempi e le modalità di utilizzo del personale; collegano i reparti di produzione e il management aziendale; aiutano a gestire l’imprevisto in tempo reale, mentre la produzione è in corso; conservano tutti i dati relativi al processo produttivo, rendendolo completamente tracciabile; diminuiscono gli errori di fabbricazione e riducono gli scarti; elaborano reportistica su tempi, costi e qualità dei processi; monitorano il consumo energetico.

Sicurezza negli impianti

Un sistema produttivo in cui non ci siano pericoli evidenti che possano arrecare danno a persone o cose coinvolte nel processo o all’ambiente circostante: investire in sicurezza industriale significa ottimizzare le prestazioni e ridurre i costi di infortuni, guasti, manutenzioni improvvise, furti di informazioni. Oggi infatti sicurezza industriale è anche cybersecurity, sicurezza informatica, che garantisce anche la protezione dei flussi informativi e di comunicazione che permettono il funzionamento aziendale. L’IoT Analytics consente di implementare soluzioni “Smart Safety” e “Smart Security” a seconda delle esigenze.

Un esempio sono i dispositivi “uomo a terra” integrati nei Dpi come l’elmetto da cantiere, che analizzano e identificano le situazioni di pericolo per il lavoratore, soprattutto in condizioni di lavoro isolato: dalla raccolta dei dati di campo incrociati con le coordinate Gps e i dati biometrici (nel rispetto del regolamento GDPR), questi dispositivi sono in grado di allertare, in caso di possibile “caduta”, l’operatore stesso e il responsabile della sicurezza, anche avviando le procedure di soccorso previste. Altri esempi sono: i sistemi di rilevamento ambientale che monitorano i parametri di qualità dell’aria e le eventuali dispersioni di gas nocivi nell’area operativa e ne trasmettono l’allarme; i sistemi di videosorveglianza industriale che controllano le aree perimetrali esterne per evitare intrusioni e sorvegliano gli accessi; i dispositivi di monitoraggio della velocità di sicurezza dell’impianto; i sistemi di sicurezza anticollisione che riducono il rischio di incidenti tra carrelli elevatori e pedoni nella aree di lavoro come magazzini o cantieri; i CSMS – CyberSecurity Management System, sistemi integrati di gestione della sicurezza informatica.

Esperienza d’acquisto

L’IoT Analytics può aiutare a migliorare l’esperienza d’acquisto: i dati che monitorano il comportamento del cliente, sia online che offline, consentono di implementare un’offerta sempre più personalizzata. Negli store, l’installazione di videocamere o tracker di posizione fornisce dati utili da elaborare per l’ottimizzazione dell’assortimento dei prodotti sulla base dell’interazione con i clienti; i reporting dei Pos, opportunamente analizzati, aiutano a capire le dimensioni del carrello di ciascun utente, le tendenze di vendita, i margini di profitto a breve e lungo termine. Online, le analisi sulle recensioni dei prodotti e sulle preferenze dei clienti, aiutano a focalizzare e ripensare l’offerta dal punto di vista del potenziale fruitore, oltre che a implementare campagne di marketing e promozione mirate. L’IoT Analytics consente di unificare il viaggio del cliente (customer journey) tra online e offline: al momento dell’ingresso nello store, può guidare il cliente verso il prodotto visionato online, o inviargli un coupon personalizzato per effettuare l’acquisto entro la giornata.

Come vengono gestiti i big data con la IoT Analytics

I big data provenienti dall’IoT provengono da fonti eterogenee, quindi sono altamente non strutturati: non sono immediatamente inseribili nei database tradizionali. Registrano in ambienti rumorosi e spesso è necessario “ripulirli” prima di utilizzarli per l’analisi e archiviarli nei database.

I database relazionali classici sono formati da relazioni univoche tra gli elementi: in informatica, la semantica dei dati è rappresentata dalle tecniche utilizzate per attribuire loro un significato interpretabile sia dalle persone che, soprattutto, dalle macchine. Questo significato si attribuisce attraverso i metadati, ovvero parametri-etichette che descrivono i dati stessi.

Ad esempio, i motori di ricerca funzionano tramite il riconoscimento delle keywords, le parole chiave: una pagina web viene trovata se le parole inserite corrispondono alla domanda (query) posta al motore di ricerca, che la individua dal proprio database. Il co-inventore del World Wide Web, l’informatico Tim Berners-Lee, nel 2001 ha invece coniato il termine web semantico, che individua un’architettura informatica a tre livelli, non ancora completamente sviluppata. Il primo livello sono i dati; il secondo, i metadati, le “etichette” che collegano i dati ai concetti di uno “schema”; il terzo livello è lo “schema”, in cui si esprimono le relazioni tra i concetti, che diventano classi di dati. L’implementazione del web semantico consentirà ricerche sempre più evolute e connessioni tra dati e documenti più elaborate del semplice link, il collegamento ipertestuale. Già oggi è possibile creare database “a oggetti”, che però non hanno ancora un linguaggio di interrogazione standard, e soluzioni ibride tra database relazionali e “a oggetti”. Esistono anche gli in-memory database che archiviano i dati nella memoria centrale dei computer, con maggiore velocità di accesso ed elaborazione ma archiviazione spesso a breve termine e carico sulla RAM.

Il linguaggio standard dei database relazionali, il più comune anche nell’IoT Analytics, è invece SQL – Structured Query Language. È il linguaggio su cui si basa il DBMS – DataBase Management System, il sistema di gestione di database, un software che collega l’utente ai dati veri e propri.

Semplificando, un processo di IoT Analytics è composto da cinque fasi: Raccolta, Elaborazione, Archiviazione, Analisi, Visualizzazione e supporto alle decisioni.

La raccolta avviene dai dispositivi IoT connessi che generano i dati utili all’analisi. Attraverso specifiche configurazioni, è possibile selezionare solo i dati che si desidera archiviare e analizzare: ad esempio, attraverso filtri di argomento MQTT – Message Queue Telemetry Transport. MQTT è il protocollo di comunicazione IoT che funziona “per argomenti”: anziché inviare tutti i dati a tutti, il sensore invia i dati “per argomento” a un software intermedio, che li porterà (message broker) solo ai destinatari interessati all’argomento.

Per i sistemi IoT si preferiscono spesso architetture di rete distribuite come il fog computing, in cui i dati vengono smistati da mini data center, detti nodi-Fog (o gateway), che inviano al data center centrale, il cloud, solo i dati che necessitano di analisi approfondita. In questa architettura, l’elaborazione avviene quindi sia ai margini della rete (edge computing), all’interno del dispositivo IoT stesso, magari dotato di microcontrollore per i processi più semplici che richiedono tempi di reazione immediati, sia a livello di rete LAN (fog computing) per i processi intermedi, sia a livello di cloud (cloud computing) per le elaborazioni approfondite.

In tutte le architetture, la fase di elaborazione prevede la pulizia e il filtraggio del dato, la rilevazione di eventuali altri dati mancanti e l’eventuale ricorso a fonti di dati esterne, la definizione di filtri e soglie per rimuovere valori anomali, la computazione vera e propria con l’inserimento dei metadati prima dell’archiviazione.

Anche la fase di archiviazione può essere distribuita o centralizzata a seconda del modello di architettura di rete: i dati possono essere archiviati in serie temporali per un recupero e un confronto più rapidi, esportati in punti di accesso esterni, conservati secondo policy diverse, gestiti a seconda delle autorizzazioni di accesso.

L’analisi avviene attraverso interrogazioni (query SQL) ad hoc, tanto più raffinate quanto più evoluti sono gli algoritmi di machine learning su cui poggiano.

Il machine learning è l’apprendimento automatico: la “macchina” (il sistema informatico) “apprende” dai dati attraverso algoritmi artificiali, supervisionati o meno, per il riconoscimento di pattern, ovvero di schemi ricorrenti.

Per costruire l’algoritmo più appropriato si parte dallo storico dei dati e quindi dal parametro che si vuole predire. A seconda che si trattino dati conosciuti con le etichette descrittive o che si faccia discovery dal dataset, si utilizza l’apprendimento supervisionato o non supervisionato. Scelto l’algoritmo, il modello viene testato dividendo il dataset in due parti: una parte serve da storico, ovvero da set di addestramento; l’altra da input, ovvero da set di test, per valutare la risposta del sistema su dati già conosciuti. Raggiunto un livello di accuratezza accettabile, si rilascia il modello e si accettano dati nuovi: la macchina impara con il passare del tempo, per cui ri-allenando il modello con quantità maggiori di dati diventa sempre più accurato. Non è solo l’algoritmo migliore ma anche la dimensione del dataset a rendere più accurata la prestazione.

Fra i principali algoritmi supervisionati ci sono le reti neurali artificiali, i classificatori basati sul margine, o quelli basati sul concetto di vicinanza. Ad esempio, una rete neurale artificiale è un modello di calcolo matematico che funziona per connessioni, come nella rete naturale ogni neurone è collegato a decine di altre migliaia. La rete è plastica, cioè cambia i pesi delle sue connessioni sinaptiche in relazione alle informazioni mostrate durante la fase di apprendimento. Di solito le reti neurali artificiali funzionano per logica fuzzy, che, al contrario della logica binaria, ha valori intermedi tra 0 e 1, quindi capacità di calcolo superiore. Sulla base dei dati mostrati in apprendimento, la macchina “imparerà” in modo supervisionato (confrontando l’output di rete con l’output desiderato) a riconoscere e trarne informazioni.

Tra le reti neurali artificiali, nell’IoT Analytics vengono impiegate le reti neurali ricorrenti (RNN), che invece di avere solo connessioni dirette, contengono connessioni all’indietro o auto-connessioni formando un loop: in particolare, per prevedere l’output o lo stato di un processo nel tempo vengono utilizzate le LSTM – Long-Short-Term Memory, che apprendono da lunghe sequenze temporali e ne conservano la memoria.

Più comuni sono i metodi per l’apprendimento non supervisionato o il Data Mining: nel primo caso, l’algoritmo della rete artificiale raggruppa i dati all’ingresso e cerca di trovare dei cluster, gruppi con caratteristiche simili. Attraverso un’analisi statistica multivariata, il clustering vuole scoprire proprietà già presenti nei dati a disposizione; il Data Mining invece racchiude tutte le tecniche utili per scorgere proprietà e relazioni che non sono ancora note nei dataset. Nell’IoT Analytics, ad esempio, l’algoritmo di clustering K-means identifica i dispositivi e li raggruppa per caratteristiche simili, per verificarne condizioni come l’usura.

I risultati dell’analisi vengono visualizzati (Visualizzazione e supporto alle decisioni) attraverso interfacce intuitive, dashboard e pannelli di controllo che a colpo d’occhio permettono di monitorare i processi in corso e intervenire al momento opportuno. In tempo reale, nel breve o medio-lungo periodo. A partire dai dati che possono fare la differenza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3