Roberto Tundo, Chief Information and Technology Officer Alitalia e membro della Giuria dei Digital360 Awards, si è confrontato con ZeroUno su alcune delle principali tematiche sulle quali i CIO riflettono e che potranno essere ulteriormente approfondite nel corso dell’edizione 2019 dei Digital360 Awards.
ZeroUno: Quali sono oggi i principali driver di innovazione e cosa frena il cambiamento nella sua azienda?
Roberto Tundo: Da circa 5 anni a questa parte assistiamo a una rapida evoluzione delle componenti tecnologiche a disposizione del CIO. Mentre 10-15 anni fa gli strumenti tecnologici di base potevano essere considerati “stabili”, oggi vediamo le ricadute degli strumenti che i grandi nomi di Internet (Google, Amazon ecc.) hanno messo a punto per loro stessi: container, orchestrazione e sistemi flessibili per la gestione di enormi basi di dati. Questo ha consentito ai CIO l’accesso a nuovi strumenti che, da un lato, devono essere conosciuti a fondo per poter estrarre qualcosa di concreto, dall’altro, possono fare danni se usati senza considerare le esigenze di continuità del business. È in atto un processo di selezione della specie. I grandi brand del mondo digitale mettono a disposizione potenza di calcolo e strumenti che fino a 5 anni fa erano impensabili. L’evoluzione ha reso obsolete le competenze di molti team, mettendo fuori gioco molti system integrator che supportavano le aziende nei percorsi d’innovazione. Solo i grandi player possono investire su percorsi di specializzazione a 360 gradi, lasciando spazio agli altri solo in ambiti verticali. Il risultato è che oggi occorre stare molto attenti nella scelta dei partner: se in passato poteva bastare il supporto di pochi system integrator, oggi un presidio coerente e integrato dell’IT richiede di saper cercare di volta in volta le giuste competenze.
Seguire percorsi nuovi significa valutare in profondità e visione del futuro i rischi che le azioni comportano. Mentre in passato i progetti si potevano correggere in corso d’opera, sbagliare dall’inizio un’architettura o il sistema informativo a cui si affidano parti importanti dello sviluppo significa non poter rimediare. Il CIO/CTO deve oggi avere competenza nella gestione del rischio e buone capacità di previsione.
Applicazioni e servizi losely-coupled: indispensabili per innovare
ZeroUno: Qual è la strategia della sua azienda nella scelta delle applicazioni aziendali e sviluppo? Quanto è percorribile nella sua azienda la logica dei building block?
Tundo: Dieci anni fa sono stato un sostenitore della logica dei building block, ritenendo che le applicazioni si sarebbero mosse in quella direzione. Le applicazioni monolitiche vanno scomparendo, sia per ragioni di complessità e manutenzione sia perché i modelli di business variano rapidamente al pari della tecnologia. I building block offrono la flessibilità che occorre per sfruttare i nuovi potenti strumenti in cloud.
Le strategie di marketing dei cloud provider hanno puntato, soprattutto nel lanciare il “nuovo” paradigma dell’as a service, sul vantaggio economico che avrebbe comportato il passaggio al cloud delle applicazioni tradizionali. In realtà portare i legacy in cloud si è in molti casi tradotto
in una esplosione dei costi di gestione: il legacy opera con paradigmi diversi rispetto alle nuove applicazioni e il cloud è un mezzo per sfruttare al meglio le specializzazioni tecnologiche dei vari cloud provider nella logica del losely coupled tra front-end, back-end e dati.
Mentre l’uso del cloud diventa obbligatorio, il CIO dev’essere assolutamente laico: la strategia aziendale deve permettere d’integrare qualunque fornitore di piattaforma o cloud nel progetto. Quindi potersi avvantaggiare, per esempio, delle capacità di intelligenza artificiale, interfacce conversazionali e analisi big data della Google Platform, assieme a quelle d’integrazione e collaborazione di Microsoft Azure. Di volta in volta bisogna saper comporre il puzzle, mettendo insieme i pezzi migliori per ciò che si vuole realizzare: la complessità è cresciuta, il mestiere del CIO è orchestrare soluzioni e piattaforme mantenendo il controllo di ciò che avviene. È infatti facile perdere il controllo dei progetti, oppure innamorarsi della componente tecnologica perdendo di vista il business aziendale.
ZeroUno: Quali sono le vostre necessità in fatto di cloud? Cosa vorreste nel futuro?
Tundo: Chiederei a gran voce ai grandi cloud provider di evitare l’overselling di ciò che hanno nel portafoglio, non promettere cose complicate da realizzare e che inevitabilmente rendono impossibile raggiungere gli obiettivi.
La seconda cosa riguarda la vision. In Alitalia sono arrivato 3 anni fa e ho trovato un’architettura IT tradizionale: con il data center on premise gestito internamente e il mainframe al cuore della gran parte dei processi di business. Preso atto che occorreva una svolta, in due anni e mezzo abbiamo trasformato l’ambiente in “full ibrido multicloud” con componenti di cloud pubblico, IaaS, PaaS, pensato per reggere l’inevitabile cambio dei modelli di business.
Che facciamo ora? Stiamo definendo come orchestrare al meglio le componenti per evitare che le modalità di gestione del lifecycle IT continuino secondo le logiche di lavoro precedenti. Questo comporta un cambio culturale notevole. Al di là dell’acquisizione di nuove competenze di base, serve che le persone IT capiscano cosa significa smettere d’essere gestori del ferro e diventare orchestratori di servizi. Il cambiamento è uno dei problemi maggiori; serve radicare in azienda la filosofia dell’open innovation, riqualificare il personale avendo a disposizione la rete d’innovazione a cui affidarsi.
AI e ML, quale supporto nelle operation IT e nella gestione/analisi dei dati
ZeroUno: Come valuta i possibili vantaggi nell’uso di machine learning e intelligenza artificiale nelle operation IT? E nella gestione delle applicazioni?
Tundo: Su questi temi serve tenere i piedi per terra. Le vision, per essere utili, devono essere accompagnate dall’execution day-by-day. Trovo improprio, al momento, parlare di intelligenza artificiale, perché in realtà si tratta di intelligenza aumentata e machine learning. Per l’AI siamo immaturi e posso dirlo con cognizione, avendo cominciato negli Anni ‘90 a fare sperimentazione sulle reti neurali. Se parliamo di machine learning e intelligenza aumentata allora questi strumenti possono essere utili in contesti come l’IT, caratterizzati oggi dal passaggio dalle operation manuali a quelle automatiche. Con sistemi che automatizzano le operation, l’impiego di componenti intelligenti dà dei vantaggi, anche se non può risolvere i problemi che richiedono valutazioni puntuali. Valuto positivamente l’approccio che solleva le persone dalle operazioni manuali, permettendo di concentrare l’attenzione su casi singoli dove gli automatismi, da soli, rischierebbero di far danni. Queste tecnologie servono per focalizzare l’attenzione su casi particolari, all’essere umano spetta avere competenza e usare il buon senso.
ZeroUno: Come valuta l’integrazione nel ciclo d’impiego dei dati nella sua azienda? Qual è la capacità di integrare dati interni ed esterni (big data)? Quanto ritiene importanti le capacità AI e ML ai fini del suo business aziendale?
Tundo: I nuovi strumenti analitici hanno minore rigidità di quelli usati nel passato, cosa che rende molto più semplice analizzare i dati aziendali. Il data warehouse nasceva con schemi fissi, creati cercando d’immaginare le successive modalità d’analisi, di fatto limitandone le potenzialità. L’incremento esponenziale delle capacità elaborative e di storage consente più elasticità nell’accesso e analisi dei dati, portandone le prerogative agli utenti finali.
Non può però essere un approccio esclusivo, ma deve essere complementare al data warehouse con cui, a mio avviso, si deve convivere: la possibilità attuale di fare analisi sull’intero universo dei dati con costi abbordabili consente più libertà, ma non per questo ha senso mettere insieme tutte le fonti di dati in un datalake. L’esperienza mi dice che molti progetti di datalake sono naufragati sia perché non si è capito cosa farci sia per problemi con la qualità dei dati. È utile poter analizzare grandi moli di dati con semplicità, ma serve curare la “data ingestion” perché non è vero che gli errori si eliminano da soli su base statistica. Di insuccessi per l’uso di dati sporchi è piena la storia.
Per l’utilizzo efficace della data analytics serve avere in azienda figure professionali che sappiano come maneggiare dati e tool, anche senza arrivare ai data scientist. Questo è necessario per ottenere analisi ben fatte che forniscano elementi sicuri su cui riflettere e prendere le decisioni di business. Purtroppo, le competenze non sono facili da trovare sul mercato del lavoro ed è complesso specializzare il personale interno, anche se l’università può dare una mano. Negli ambiti non IT, le analytics servono per fissare bene gli obiettivi e far evolvere i modelli di business senza ledere la capacità dell’azienda di generare valore. In quelli IT aiutano a gestire il problema della contrattualistica sui servizi e il rischio. I contratti, un tempo molto simili, oggi sono più complessi. In ogni progetto con terze parti c’è un rischio, per esempio, sul fronte della compliance GDPR. Non si possono avviare negoziazioni contrattuali con i fornitori di servizi senza gli elementi per valutare il rischio complessivo.