BiFactory Point of View

BiFactory, i “dati di qualità” al centro dell’industria e del suo mutamento

Parlare di aziende data-driven nel campo manifatturiero non vuol dire soltanto IoT per la manutenzione predittiva, ma un approccio mirato al mettere le informazioni raccolte a disposizione dei decision maker, per strategie in real time sempre più efficienti e competitive

Pubblicato il 28 Set 2020

concept di data quality

Avere a disposizione i dati che provengono dagli ambienti di produzione e dalla supply chain non basta a rendere “smart” un’azienda manifatturiera. Perché questo avvenga è necessario, infatti, che su questi dati si riesca a fare “intelligenza”, e che quindi si possano innescare processi agili, basati su dati che siano il più possibile “misurabili”, comprensibili, significativi e consultabili con semplicità. Per aiutare le imprese a intraprendere questo percorso, è nata nel 1998 dall’iniziativa di Franco Perduca e Sara Bozzo BiFactory, società che nel tempo si è specializzata come “trusted data knowledge advisor” progettuale. Lo scopo non è quello di vendere prodotti specifici, ma di supportare le persone all’interno delle aziende nel mettere a punto progetti che convergano verso l’obiettivo di trarre il massimo contributo e KPI misurabili di produzione, rimanendo al manifatturiero, deve quindi poter avere a disposizione dati semplici da consultare, significativi per la propria attività e comprensibili in pochi secondi, che gli consentano di prendere le migliori decisioni in tempo reale. Per riuscirci l’approccio “Tech intensity” ideato da BiFactory è orientato al pragmatismo, all’agilità e alla concretezza: si parte dall’aiutare il cliente a individuare le proprie necessità e i propri obiettivi, per trovare una risposta che sia la migliore possibile nei tempi più veloci, senza vincolarsi a un singolo fornitore o a una singola soluzione, ma potendo immaginare nuove implementazioni ed evoluzioni della strategia che si sviluppino nel tempo.

I dati, secondo la vision di BiFactory, sono le vele che consentiranno all’azienda di proseguire e accelerare nel proprio percorso, mentre il timone è rappresentato dall’approccio che mette al centro i Key Performance Indicator (KPI), la possibilità cioè di definire e monitorare in tempo reale l’andamento dei processi aziendali a seconda degli obiettivi che ci si sono dati.

I dati al centro dell’Industria… 5.0

Dire che i dati sono fondamentali all’interno del paradigma della quarta rivoluzione industriale non è abbastanza. Questo è infatti un argomento ormai consolidato e riconosciuto universalmente, tanto che oggi una gran parte delle aziende ha piena consapevolezza della necessità dell’avviamento di un percorso di digital transformation, e che il focus dell’innovazione si è spostato dalla semplice tecnologia alle possibilità di interazione tra uomo e macchina, nella cosiddetta Industry 5.0. Non si tratta più dunque soltanto di raccogliere dati, ma di fare di questi dati un’analisi accurata e un uso indirizzato a obiettivi precisi. Si passa così ai concetti di data quality, modellizzazione e rappresentazione dei dati, il terreno su cui si baseranno le sfide competitive del futuro.

L’importanza della data quality

Al rischio di non avere a disposizione i dati che servano a guidare l’attività di un’azienda se ne è recentemente contrapposto un altro che in un certo senso può essere considerato “speculare”: il rischio di avere a disposizione troppi dati raccolti in modo non coordinato, e che questo possa creare un “effetto confusione” particolarmente dannoso. È il problema che deriva dalla cosiddetta “infobesità”: milioni di dati da integrare e incrociare non è sinonimo di efficienza, potrebbe anzi essere controproducente e causare uno spreco di risorse oltre che di tempo. Le informazioni davvero necessarie, quelle che fanno la differenza, potrebbero essere nascoste tra le pieghe di un insieme più grande e meno definito, in cui bisognerà avere la capacità di andare a cercare individuando ciò che è in grado di fare la differenza.

Due consigli pratici

Per evitare questo genere di effetti collaterali, che a volte possono essere particolarmente gravi e vanificare anche i migliori sforzi di innovazione, è fondamentale tenere presente che i dati vanno sempre raccolti pensando a qual è l’obiettivo che si vuole centrare per affiancare al meglio l’attività dei decision maker. Altro passaggio fondamentale, al di là di quello metodologico, è quello pratico: uno volta fissato l’obiettivo sarà necessario organizzare le informazioni nel modo migliore, stabilendo una gerarchia in modo che appaiano in primo piano quelli più importanti e vengano messi ai margini quelli meno significativi. Allo stesso modo sarà importante operare una sorta di “scrematura” iniziale, eliminando ciò che è troppo datato o poco attendibile o male organizzato.

I dati come vele, KPI come timone

Se l’accesso alle informazioni non è ormai più in generale un problema, diventa come dicevamo sempre più difficile capire quali siano quelle più importanti per il business. Per questo i data lake, insieme di dati grezzi dallo scopo ancora indefinito, possono diventare anche un problema, dal momento che tenere insieme informazioni strutturate e non strutturate, che provengono da fonti diverse, non omogenee e non tutte sullo stesso piano per attendibilità è una scelta che potrebbe rivelarsi foriera di problemi tecnici sia per l’analisi sia per la gestione delle informazioni. Lavorare però sui dati strutturati e filtrati di una Data warehouse può essere però limitante per altri versi, e questo porta alla necessità di definire alcuni criteri in base ai quali poi orientare le mosse successive.

Inserire un obiettivo specifico quando si pensa a un data lake è quindi importante sia nella fase di ingestion sia in quella integration, nel momento cioè dell’acquisizione e in quello della “pulizia”, per la quale il presupposto è avere ben chiaro il fine che si vuole raggiungere. Qui entrano così in gioco gli indici di performance, che al di fuori del settore del marketing rappresentano anche una bussola che indica la direzione verso cui ci si deve muovere con l’aiuto dei dati. Più saranno precisi gli obiettivi, e più si potranno estrarre per le analisi dati puntuali e funzionali ai risultati che si vogliono raggiungere, con KPI che possono essere volta per volta aggiornati strada facendo e in real time.

Il tempo reale nuova chiave di competitività

I vantaggi della manutenzione predittiva, abilitata dai dati trasmessi attraverso i dispositivi IoT e analizzati in chiave “storica” sono ormai un “patrimonio” acquisito in ambito industria 4.0, e rappresentato un vantaggio chiave per razionalizzare i costi, evitare blocchi di produzione e limitare i problemi, oltre che nella supply chain. Ma si tratta soltanto di un aspetto di ciò che è possibile realizzare con i dati dell’Internet of Things. In questo caso le informazioni analizzate sono “storicizzate”, e da questo si arriva alle funzionalità predittive, che sono in grado di calcolare la probabilità di malfunzionamenti in base a ciò che è avvenuto in passato in condizioni simili. Un approccio oggi più produttivo potrebbe essere quello di analizzare le informazioni in tempo reale, rivisitando le modalità in cui i dati vengono analizzati e processati, puntando sulla rapidità dove questa può essere un fattore “business critical”, e concentrandosi in prima battuta proprio su questo settore.

Un settore in rapido mutamento

Oggi più che mai, nel manufacturing come in ogni altro settore di business, è importante stare al passo con le evoluzioni del mondo dei data analytics: non ci sono schemi che possono essere presi a esempio e che possano durare nel tempo, ma bisogna essere pronti a utilizzare strategie nuove per trarne il massimo del vantaggio competitivo. Tenendo il meglio di ciò che si è implementato fino a oggi ma muovendosi in un contesto in cui è sempre più importante l’agilità e una mentalità aperta al cambiamento continuo, grazie agli strumenti messi in campo dall’intelligenza artificiale e dal machine learning. Soltanto scegliendo questo approccio, infatti, chi è chiamato a prendere decisioni all’interno dell’azienda può farlo sfruttando al massimo i vantaggi dell’innovazione.

I trend per il futuro

Gli ultimi anni sono stati caratterizzati da profonde innovazioni nel campo dell’analisi dei dati, e questo processo di cambiamento procede velocemente ancora oggi. Il 2019 sarò ricordato come l’anno del GDPR e della protezione dei dati personali, con le aziende che sono state chiamate ad adeguarsi alle nuove norme europee per poter proseguire nel loro percorso di digital transformation. Il 2020 si è poi caratterizzato come un periodo storico in cui dal concetto di “big data” si è passati a una concezione più circoscritta e strutturata dei dati, con algoritmi sempre più efficienti per poter sfruttare al meglio le informazioni nell’ottimizzazione dei processi produttivi.

Ma ancora oggi in Italia le aziende davvero data driven sono soltanto un quinto del totale, e questo potrebbe pesare sulla loro competitività, soprattutto se di prendono a riferimento i mercati internazionali. In più, oggi si sta rapidamente superando la concezione di importanza generalizzata dei dati per approdare a un approccio più basato su una governance indirizzata a obiettivi specifici e una concezione di governance ben definita che parta da “dati di qualità”.

Proprio in questa direzione si muove BiFactory, che gode della certificazione i Microsoft Gold Data Analytics e che conta su un’esperienza più che ventennale oltre che su uno sguardo sempre rivolto al futuro, con servizi di consulenza progettuale che sono in grado di adattarsi alle singole esigenze dei clienti per un approccio sartoriale in grado di ottenere il meglio caso per caso, con interventi misurabili che sono in grado di dare alle aziende che vogliano effettivamente essere data driven esattamente ciò di cui hanno bisogno.

Clicca qui per scaricare il white paper: Decidere e guidare il businessnell’era data-driven: Quando i dati sono la vela e la metodologia il timone

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5