L’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano afferma che il mercato analytics ha raggiunto nel 2019 un valore di 1,7 miliardi di euro, con una crescita del 23% rispetto al 2018, il doppio rispetto al 2015 quando il mercato era a 790 milioni di euro.
Esiste un gap fra le Pmi e le grandi imprese
Se si analizza più compiutamente la notizia essa ci rivela, però, un persistente gap tra grandi e piccole imprese (Pmi). Infatti il 93% delle grandi imprese investe in progetti di analytics, contro il 62% delle Pmi. Inoltre, mentre le prime investono in nuove competenze per portare all’interno dell’azienda profili altamente qualificati come data analyst, data engineer e data scientist, le Pmi sono ancora concentrate su investimenti nell’integrazione dei dati interni, nella formazione per la gestione di dati interni, nell’integrazione di dati da fonti esterne e nelle soluzioni per l’analisi predittiva, puntando all’ottimizzazione della supply chain, nel manifatturiero e nell’analisi della competition e del marketing.
È indubbio che le Pmi mostrano interesse ma scontano un ritardo in disponibilità di competenze e skill adeguati a gestire e sfruttare i dati.
Se poi dall’Italia guardiamo la macro-economia appare del tutto evidente che il gap è più grande tra Europa e paesi digitalmente più avanzati (USA, Cina e Giappone) sia nelle soluzioni connesse alla algoritmica che nella modellistica in grado di sviluppare veri decision engines aziendali, dove risiede il massimo potenziale per la riduzione dei costi e per lo sviluppo della relazione con i mercati/clienti e per la comprensione dei rischi.
Investimenti elevati e risultati incerti
A fronte di tanti entusiasmi, supportati da molta enfasi commerciale da parte di aziende del settore che propongono una sorte di paese dei balocchi, la realtà sperimentata da parecchie piccole o medio-aziende (Pmi) si sta rivelando ostica e rischia di creare un effetto boomerang.
Gli investimenti sono elevati, i tempi dei progetti lunghi, i risultati poco prevedibili per aziende che ancora non hanno risolto il problema dell’acquisizione e strutturazione dei dati indispensabili per alimentare i modelli, le tecnologie sono molteplici, c’è un grande gap a livello di skill tecniche necessarie e comprensione strategica nelle priorità del management.
Occorre riorganizzare l’azienda digitalizzando tutti i componenti, trasmettendo efficacemente le decisioni derivanti dai modelli ai prodotti e servizi ed ai canali distribuitivi e raccogliendo tempestivamente le “risposte” comportamento dei clienti.
L’interazione uomo-macchina diventa essenziale sia nella fase di alimentazione e strutturazione dei dati del modello, sia nella fase di apprendimento e miglioramento continuo del modello, sia dopo le previsioni espresse dall’algoritmo, nel giudizio ed assunzione delle decisioni e azioni conseguenti da parte del management.
È il miglioramento continuo di questo core process che fa sì che il valore dell’AI continui a crescere nel tempo, determinando il nuovo vantaggio competitivo.
Da Industria 4.0 a Impresa 4.0
La Commissione Europea ha ritenuto strategico diffondere il nuovo paradigma industriale nel tessuto produttivo comunitario, mediante tre progetti 14MS Growth, X2I4MS, I4MSGo finanziati per diffondere le tecnologie digitali nei paesi membri nell’ambito dei processi manifatturieri, per accelerare la transizione dell’industria europea verso il paradigma di Industrie 4.0.
La paternità di questo termine è di un trio di studiosi tedeschi, H. Kagermann, W.D. Lukas, W. Wahlster, che lo impiegarono per primi in una comunicazione alla Fiera di Hannover del 2011, concretizzato in un ”progetto” alla fine del 2013 che prevede per il sistema produttivo tedesco investimenti su infrastrutture, scuole, sistemi energetici, enti di ricerca e aziende per ammodernarlo e renderlo competitivo a livello globale[1].
In seguito ai tre progetti europei si è attivata una rete d’iniziative volte ad accelerare la transizione dell’industria europea nei singoli contesti nazionali. In Italia sono nate leggi specifiche quali Industria 4.0 e Impresa 4.0 su iniziativa del ministro Calenda nel settembre 2016.
Diversamente dal modello tedesco Industrie 4.0, sostenuto dal CPS (Cyber Physical System), lanciato ben 5 anni prima, il nostro modello intende connettere i nuovi impianti produttivi ai sistemi informatici dell’azienda con sistemi MES (Manufacturing Execution System), oltre al rinnovo del parco macchine.
Durante la costituzione del Centro di Competenza Universitario, previsto dalla legge, si è subito notato una crescita di attenzione da parte delle aziende con incremento di investimenti sulle specifiche tecnologie e anche sulla revisione dei modelli di business sui mercati digitalizzati.
Durante il passaggio da Industria 4.0 a Impresa 4.0 gli interlocutori interessati sono mutati dai manager funzionali delegati, a executive management, o direttamente la proprietà, testimoniando un interesse “vero” da parte degli operatori per imprimere un decisivo cambio di passo alla propria azienda, non per una estemporanea occasione di finanziamento da parte dello Stato[5].
Una metodologia in 5 macro-fasi
Ma quali sono i passi da compiere per rendere possibile l’introduzione dell’AI nelle aziende?
Perché un’azienda possa virare verso l’uso dell’AI, deve diventare data-driven.
Ovvero un’azienda in cui ogni persona, a qualunque livello gerarchico, per prendere le decisioni migliori, deve avere accesso ai dati di cui ha bisogno, quando ne ha bisogno.
È necessario dare la possibilità al decision maker dell’azienda di esplorare i dati in modo indipendente, avere gli strumenti e i modelli di advanced analytics per ottenere evidenze fattuali basate sui dati, prima di prendere decisioni.
La metodologia deve essere articolata su un modello iterativo (avviato e costantemente aggiornato nel tempo) che comprende 5 macro-fasi:
- appraisal and check-up
- roadmap design
- data governance
- quick launches
- business need update
La prima fase necessita di un questionario di rilevazione della maturità (Maturity assessment) e l’identificazione dei business need (Use case).
La definizione di una roadmap di dettaglio che tenga in considerazione le richieste di business, le analisi dei gap funzionali, organizzativi, infrastrutturali e architetturali, rilevati nella fase precedente e che sia sostenibile a medio termine è alla base del percorso di adozione dell’AI.
È inoltre necessario effettuare uno studio di fattibilità tecnico-economica della roadmap identificata.
Per cogliere a pieno i vantaggi offerti dalla valorizzazione dei dati, diventa essenziale investire sulla data governance per definirne politica ovvero metodologia, linee guida, obiettivi, ruoli decisionali, usabilità, integrità, consistenza e sicurezza dei dati aziendali.
La nascita del data scientist e del data steward
Si dovranno creare organismi dedicati alla governance del dato, arrivando a strutture dedicate anche molto articolate, per migliorare efficienza ed efficacia nell’erogazione dei casi d’uso.
Da circa un decennio queste figure sono previste e funzionanti nei contesti anglosassoni nel mondo delle grandi utilities e degli operatori di telecomunicazione.
Nel 2008 D. J. Patill e J. Hammerbacher nell’articolo: “The sexiest job of 21th Century” di Harward Business Review coniano il termine: data scientist.
Nel 2015 il Presidente Obama riconosce ufficialmente il ruolo e la figura del data scientist, nominando D. J. Patill come primo US Chief data scientist.
Questa nuova figura professionale deve avere forti competenze interdisciplinari, padroneggiare gli advanced analytics e i big data, con solide competenze informatiche, deve inoltre saper leggere oltre il dato, mediante statistica e informatica, saper dialogare con le aree di business e deve avere un quadro dei modelli di business attuali e potenziali che si appoggiano sui dati.
È una sorta di “grande sacerdote” della nuova religione aziendale fondata sui big data e sull’AI.
Da ultimo è nata una nuova figura di data steward, esperto nella conoscenza del dato, che col primo lavorano a contatto con gli esperti del dominio di business e funzionali su modelli centralizzati o decentralizzati.
Nel primo caso il team “data scientist e data stewardship” si configura come una funzione trasversale all’intera struttura, favorendo la trasmissione delle skill da un membro all’altro del team.
Nel secondo caso è favorita la crescita dei team individuali all’interno delle singole business unit.
In ogni caso è necessaria una politica della privacy rigorosa, tenendo conto dei cinque principi fondamentali:
- avviso/consapevolezza
- scelta/consenso
- accesso/partecipazione
- integrità/sicurezza
- applicazione/risarcimento
secondo le normative vigenti, come la General Data Protection Regulation[2].
Le figure del business data scientist e business data manager
I quick launches sono attività d’implementazione degli use case, che consentano di acquisire elementi utili a una revisione complessiva della roadmap, riconsiderando le priorità d’implementazione dei casi d’uso nello specifico contesto aziendale.
Business need update, ovvero un periodico e profondo aggiornamento di nuove necessità di business, con possibili forti discontinuità aziendali e variazioni strategiche.
Da quanto detto si evidenzia che esiste un grande potenziale e siamo appena all’inizio di un lungo viaggio di sperimentazione e apprendimento.
Sul mercato si sta rapidamente sviluppando un’offerta sia nel mondo della consulenza/system integration, sia nella disponibilità di un ecosistema fintech in grado di fornire tools, piattaforme e semi lavorati intermedi.
I gap non sono di natura tecnologica, ma nelle componenti soft:
- scarsità del talent pool
- disponibilità dei dati
- tempi lunghi
- regulation
- leadership
Formare figure, come il business data scientist e business data manager in grado di coniugare competenze tecniche e di conoscenza profonda dei processi di business, sarà un impegno assoluto per le singole aziende ma anche per le scuole e università degli Stati che vogliono essere presenti fattivamente nell’economia globale.
D’altra parte molte infrastrutture dati attuali sono obsolete e sarebbe necessario creare data lake adeguati, con tempi lunghi nell’approccio algoritmico per apprendimento e test dei modelli, che vengono ulteriormente allungati per la validazione, infine, e non ultimo, il criterio della leadership è essenziale per dare respiro a cambiamenti culturali, organizzativi.
I rischi dei big data
D’altra parte la politica a volte si presenta anch’essa impreparata a gestire l’enorme potenziale sprigionato dal non corretto uso dei big data nella pubblica amministrazione.
Lo scorso 5 febbraio 2020 si è verificato l’arresto di un sistema di rischio (SyRI), System Risk Indication, utilizzato dal governo olandese per identificare possibili frodi fiscali, ordinato dalla Corte olandese di giustizia sotto l’accusa di non superare il vaglio della Convenzione europea dei diritti umani per aver messo sotto pressione soggetti economicamente vulnerabili. I dati dei beneficiari venivano saccheggiati da banche, società recupero crediti e registri abitativi.
Anche in Danimarca il progetto Gladsaxe, che utilizza i dati forniti dal sistema centralizzato di welfare per un vero e proprio modello di punteggio comportamentale, è stato congelato dopo le critiche dell’opposizione.
Un punteggio anomalo allertava i servizi sociali, che intervenivano per prevenire abusi e procedere all’affido, in base a un algoritmo che incrociava il numero identificativo con i dati di reddito dei genitori, livello di educazione, divorzi o no, quartiere di residenza, ritardo dal dentista o dal medico, problemi di salute mentale.
D’altra parte spesso una politica poco preparata, o meglio, non immunizzata dal pericolo big tech, lascia informatizzare i propri sistemi di assistenza sociale da grosse compagnie che non hanno di certo a cuore il bene sociale della popolazione.
È quindi imperativo, che si formi al più presto, mediante un forte investimento di massiva culturalizzazione dalle scuole inferiori fino alle più prestigiose sedi universitarie, una classe politica nativo-digitale, che sappia filtrare i certi pro, e gli altrettanto certi contro, di un “salto” verso l’AI libera da ogni vero controllo democratico.
- G. Padula, “Business 4.0 e Intelligenza Artificiale” in A. Giaume, Intelligenza Artificiale, Dalla sperimentazione al vantaggio competitivo, Business 4.0 Franco Angeli ↑
- Regolamento UE n. 2016/679 GDPR. ↑