La produzione farmaceutica, seppur significativamente diversa nelle sue varie declinazioni (compresse, capsule, gel, pomate, iniettabili, ecc…) è un settore in cui le aziende devono coniugare la massimizzazione dell’efficienza con l’esigenza di portare sul mercato un prodotto che sia prima di tutto sicuro per i pazienti che lo assumeranno. Questo comporta una serie di controlli e di vincoli a cui deve venire sottoposto il processo produttivo che incidono, alle volte in modo significativo, sul lead time di produzione e sui tempi di rilascio del prodotto sul mercato. Come coniugare quindi questi due obiettivi, sicurezza ed efficienza? Se fino a qualche anno fa ci si doveva prevalentemente affidare a tecniche, come il lean manufacturing, provenienti da altre industry, oppure all’esperienza acquisita dagli operatori e dai capi reparto, oggi è possibile sfruttare uno strumento in più che ci viene messo a disposizione della tecnologia: la big data analytics.
Brevi cenni sui big data
Il termine big data si riferisce a un significativo numero di dati, generati da diverse fonti nel corso dell’esecuzione dei processi aziendali, che ora possono essere immagazzinati, catalogati e analizzati attraverso strumenti di big data analytics. Il termine big data è molto generico e può essere riferito a diverse categorie di dati: siano essi di produzione, di vendita, oppure di marketing. I big data sono una delle nove tecnologie abilitanti del paradigma Industry 4.0 e rappresentano una delle tecnologie che possono essere più facilmente applicate dalle aziende, in modo abbastanza indipendente dal loro livello di maturità digitale. Spesso il termine viene accomunato anche alle tecnologie che permettono di rilevare dati in modo continuativo, come per esempio l’installazione di sensori connessi alla rete aziendale sulle macchine di produzione (che rientrano in un’altra tecnologia abilitante dell’industry 4.0, l’Internet of Things o IoT), capaci di registrare costantemente parametri critici come, ad esempio, pressione e temperatura. In altre parole, si pensa che per avere dei big data da analizzare si debba prima iniziare a raccogliere informazioni in modo massivo, non considerando che molte aziende hanno già migliaia, se non centinaia di migliaia, di dati, memorizzati all’interno dei loro ERP, MES e SCADA, che racchiudono in sé un rilevante valore informativo e che possono essere utilizzati per implementare svariate azioni correttive e migliorative.
L’utilizzo dei big data nel processo produttivo farmaceutico: la Process Analytical Technology
Come precedentemente menzionato, il processo produttivo può essere una fonte molto importante di informazioni e l’applicazione dei big data sui rilevamenti che vengono effettuati sullo stesso possono permettere in modo decisivo di migliorare sia l’efficienza che la qualità della produzione. I big data sono per esempio essenziali per implementare la Process Analytical Technology o PAT. La PAT consiste nello studio della correlazione di determinate variabili del processo produttivo e di come queste vadano a influenzare la qualità del prodotto finito. L’obiettivo è quello di individuare non solo le variabili da monitorare, come ad esempio temperatura, pressione, umidità, ecc… ma anche il range di valori in cui queste si devono mantenere nel corso della produzione per avere un prodotto che rientri nei livelli di qualità stabiliti. Attraverso il monitoraggio continuo di questi valori è possibile andare a implementare quello che è anche comunemente conosciuto nel settore come Real Time Release. Se le variabili chiave si sono sempre mantenute nei limiti prestabiliti sarà infatti possibile per l’azienda andare a rilasciare immediatamente al termine della produzione il lotto sul mercato.
In un processo tradizionale, sarebbe invece necessario aspettare gli esiti delle analisi che vengono effettuate sia sul prodotto finito che sui campioni prelevati nel corso della produzione, per poter effettuare il rilascio del lotto. Questi controlli hanno spesso una durata significativa e il cosiddetto lead time analitico è uno dei fattori che contribuisce direttamente al tempo di rilascio del lotto. Sebbene la Process Analytics Technology fosse già prevista e accettata dalla Food and Drug Administration (FDA), l’ente americano che vigila sulla qualità dei farmaci negli USA a partire dal 2004, a oggi sono molto poche le aziende che sono riuscite a implementare processi di Real Time Release.
Buona parte del motivo per cui in questi 16 anni PAT e RTR non sono stati implementati è proprio dovuta alla mancanza di strumenti che permettessero di fare un’analisi efficace e puntuale dei dati raccolti nel processo e di altri che permettessero il monitoraggio in continuo delle variabili critiche. Questo sembra però essere il momento in cui le difficoltà tecnologiche sono effettivamente superabili. La crescente applicazione di tecnologie 4.0 all’iterno del processo produttivo, unita anche a una maggiore sensibilità e apertura degli enti regolatori, sta portando a un incremento dei progetti PAT nelle aziende farmaceutiche di tutto il mondo. In questo caso i big data e l’utilizzo di tecniche di big data analytics permettono di raggiungere entrambi gli obiettivi: aumentare la qualità del prodotto per il paziente finale e migliorare l’efficienza, attraverso sia un sensibile accorciamento del tempo di rilascio del prodotto sul mercato che alla possibilità di intervenire in tempo reale sul processo per prevenire eventuali fuori specifica qualora si rivelasse un trend negativo della variabili chiave monitorate.
Manutenzione predittiva per minimizzare i fermi macchina
Big data e big data analytics sono gli elementi che stanno dietro a un altro termine molto utilizzato negli ultimi anni in ambito industriale: predictive maintenance. Uno dei componenti che incide negativamente sull’efficienza dell’impianto è infatti quello costituito dai fermi macchina. La predictive maintenance, o manutenzione predittiva, dà la possibilità di analizzare una serie di parametri rilevati sulle macchine, come ad esempio le vibrazioni, per poter prevedere con un certo anticipo la rottura di un pezzo all’interno di uno specifico macchinario. Questo permette quindi di poter intervenire preventivamente, utilizzando un fermo pianificato della macchina, per poter sostituire il pezzo che sappiamo si sarebbe rotto, piuttosto che dover intervenire al momento dell’effettiva rottura. In questo modo si riesce quindi a prevenire interruzioni della produzione dovute ad alcune tipologie di guasti.
Anche in questo caso l’adozione della big data analytics è fondamentale in quanto per poter efficacemente prevedere un guasto è necessario sviluppare degli algoritmi che siano in grado di interpretare i dati raccolti dalla macchina e di correlare specifiche condizioni con il verificarsi di specifici eventi.
Come sfruttare i dati di cui si dispone
Come già accennato, big data e big data analitycs non devono necessariamente essere pensate come dipendenti dai sensori IoT o IIoT (Industrial Internet of Things). Già oggi le aziende possono infatti attingere a numerose fonti dati che spesso giacciono inutilizzate all’interno dei loro database. Queste informazioni hanno un valore e possono essere impiegate da subito e con un investimento minimo per individuare problematiche che affliggono già oggi i processi produttivi e ne limitano l’efficienza. Le analisi possono essere effettuate sia esclusivamente su dati aziendali che combinando i dati aziendali con quelli provenienti da fonti esterne affidabili, come ad esempio temperatura e precipitazioni atmosferiche del servizio meteorologico dell’Aeronautica Militare.
L’utilità di queste informazioni è ancora maggiore in settori, come quello farmaceutico e biofarmaceutico, in cui le aziende sono chiamate a registrare e mantenere inalterati una serie di dati sul processo produttivo, sulle condizioni ambientali all’interno dei locali in cui lo stesso si svolge e sulle problematiche riscontrate nel corso della produzione, creando un ambiente che per definizione è ricco di dati.
Il consiglio in questo caso è di fare un’analisi di tutte le sorgenti disponibili in azienda per poi poter creare un data lake in cui riversarle Con l’aiuto di un data scientist, professionisti esperti nell’analisi dei dati, sarà poi possibile andare a evidenziare le prime correlazioni, identificando le variabili significative e separandole da quelle che invece presentano un minore valore informativo.
Poter individuare il motivo per cui un impianto va fuori specifica e quindi supera i limiti operativi ottimali, può permettere di risolvere in modo definitivo un problema e di evitare che lo stesso si verifichi sullo stesso tipo di macchinario installato in altri stabilimenti o in altre location dello stesso stabilimento. Questo vuol dire diminuire il numero di fermi produttivi e in un mondo regolato come quello farmaceutico, abbassare anche la possibilità di dover gestire eventuali deviazioni (processo con cui si deve investigare e risolvere un’anomalia riscontrata nel corso del processo produttivo) che possono determinare anche un cospicuo dispendio di risorse aziendali.
Conclusioni
Un progetto big data può rappresentare uno degli entry point di un’azienda nel 4.0. L’avvio di un pilota basato su un set ben definito di dati, raccolti da diverse fonti informative nell’azienda, rappresenta solitamente uno step fattibile con un basso livello di investimento e con un effort limitato da parte delle risorse coinvolte. Se non disponete di un data scientist ci sono diverse aziende sul mercato che offrono servizi di consulenza in questo ambito e che possono aiutarvi a costruire un business case e completare con successo una prima proof of concept. L’innovazione alle volte non si fa solo con i grandi salti, ma anche con dei piccoli, ma decisi, passi verso il futuro.