Time for Cloud, l’evento digitale organizzato da IBM in collaborazione con Digital360, è stato trasmesso in diretta streaming nella mattinata del 23 settembre portando all’attenzione del pubblico i temi più caldi dell’universo IT. Sotto i riflettori infatti si sono alternati esperti del settore e testimonianze aziendali che hanno chiarito alcuni aspetti chiave della digital disruption: intelligenza artificiale, data governance, modernizzazione applicativa, edge computing.
La nuvola, ibrida e composita (costruita integrando soluzioni diverse e multivendor), diventa il substrato architetturale per la trasformazione, su cui poggiano le tecnologie di ultima frontiera.
Investimenti cloud: il Covid-19 rompe gli indugi
L’innovazione insomma viaggia per mezzo del cloud e le imprese sono sempre più convinte nell’abbracciare il paradigma as-a-service.
“Dal 2016 – riporta Stefano Mainetti, Responsabile Scientifico dell’Osservatorio Cloud Transformation del Politecnico di Milano -, gli investimenti nella nuvola hanno registrato tassi di crescita annuali a due cifre, superiori alla spesa media del comparto IT. Come emerge dall’ultima ricerca dell’Osservatorio, che sarà presentata ufficialmente il prossimo 14 ottobre, oggi il 75% dei CIO italiani ritiene di andare verso una strategia di hybrid cloud”.
La convinzione è frutto anche dell’emergenza pandemica: “Il Covid-19 – prosegue Mainetti – ha costretto le aziende all’utilizzo di strumenti digitali che la nuvola ha fornito in modo elastico, a consumo e immediato. C’è stata quindi un’impennata degli investimenti nel cloud: molte imprese hanno cavalcato l’onda dei percorsi di trasformazione già intrapresi, rompendo le riserve e i falsi miti. Ora si tratta di andare verso lo stadio definitivo di modernizzazione applicativa».
Tuttavia, come ammonisce Mainetti, se il Coronavirus ha spezzato gli indugi e scatenato il ricorso estemporaneo alle tecnologie cloud, manca una visione sul lungo periodo: “L’intenzione è ferma – commenta – ma lo stato di crisi ha spostato l’attenzione su altre priorità di investimento. Per i fornitori di servizi cloud la sfida è semplificare il percorso decisionale delle imprese, sfruttando la maturità del mercato e la consapevolezza dei buyer”.
Il valore dei dati: casi concreti di Intelligenza Artificiale
Con queste premesse, Time for Cloud entra nel vivo, inaugurando la prima sessione tematica dedicata all’intelligenza artificiale e al valore dei dati: Il valore dei dati – Eliminare i silos, democratizzare l’accesso ai dati, aprire la scatola nera dell’AI abilitando l’analisi real time.
Dopo un breve cappello introduttivo con Patrizia Fabbri, Direttore di ZeroUno in veste di moderatore dell’evento, e Luigi Clivati, IBM Cloud Sales Leader, che hanno ricordato le esigenze manifestate dai CIO durante il prequel del 28 luglio la parola passa direttamente alle aziende clienti per una carrellata di testimonianze concrete sulle applicazioni AI.
WindTre rivoluziona il customer care grazie all’Ai
Piera Valeria Cordaro, Head of Customer Operations Innovation di WindTre, presenta un progetto che ha permesso l’evoluzione del servizio di assistenza clienti attraverso algoritmi di intelligenza artificiale e Natural Language Processing. La società di telecomunicazioni ha infatti sviluppato, insieme al team di Big Blue, un assistente virtuale in grado di conversare utilizzando il linguaggio corrente per gestire le richieste del customer care a 360 gradi.
“Da circa un paio d’anni – racconta Cordaro – collaboriamo con IBM su iniziative di Ai. Il primo virtual assistant è stato lanciato nel febbraio 2019 ed era in grado di gestire circa 20mila chiamate al mese. Dopo un anno e mezzo di evoluzioni, ha guadagnato una identità (si chiama Will) e opera nella multicanalità; risponde mensilmente a un milione e mezzo di telefonate (circa il 30% del totale) e conduce oltre due milioni di conversazioni via chat (70%)”.
L’innovazione tecnologica ha permesso il salto da interazioni basilari fondate sul riconoscimento di keywords testuali alla piena comprensione del linguaggio naturale. L’intelligenza artificiale ha rappresentato un “paracadute” durante l’emergenza pandemica: come sottolinea Cordaro, l’assistente virtuale ha sopperito alla mancanza di operatori call center durante la fase di transizione allo smartworking, garantendo la qualità del servizio di assistenza così da soddisfare le richieste crescenti dei clienti.
Il futuro di WindTre vede tanti progetti sul tavolo che mettono l’accento sulla multicanalità, con una customer experience sempre più personalizzata e semplificata.
Hera sfrutta la visual recognition per il controllo dei rifiuti
Dalle Telecomunicazioni si passa quindi alle Utilities, con il caso di Hera presentato da Alessandro Collina, Responsabile Demand ICT all’interno della Direzione Sistemi Informativi della società bolognese.
Hera ha un business diversificato, occupandosi di servizi ambientali, idrici ed energetici. Il progetto sviluppato in partnership con IBM ha riguardato l’implementazione di un sistema di visual recognition basato su Watson in grado di automatizzare le procedure di controllo sulla qualità dei rifiuti durante il processo di raccolta e smaltimento. L’analisi merceologica infatti viene normalmente condotta in ingresso agli impianti e mediante campionamento manuale; la soluzione realizzata permette il riconoscimento automatico dei rifiuti e anticipa il punto di raccolta delle informazioni tramite l’Internet Of Things.
Secondo Collina, la sfida principale ha riguardato la possibilità di mettere a fattore comune l’esperienza e la competenza umana per normalizzare i risultati restituiti dall’intelligenza artificiale, arrivando a un alto livello di attendibilità: “Il progetto – evidenzia Collina – si è rivelato efficace e avrà impatti significativi per il business. Oggi la priorità è capire come industrializzare le tecnologie messe a punto in fase di sperimentazione, affinando le casistiche che non sono ancora state esplorate. Poiché siamo una multiutility, un risvolto importante sarà l’applicazione delle soluzioni sviluppate anche in altri ambiti”.
RSE applica l’AI per la ricerca e l’analisi dei documenti
L’intelligenza artificiale interviene anche in progetti di più ampio respiro, ad esempio nel campo della cooperazione internazionale, come racconta Luciano Martini – Director of T&D Technologies di RSE.
La società, che si occupa di ricerca in ambito energetico, è coinvolta nel progetto Mission Innovation, un’iniziativa internazionale (hanno aderito 24 Paesi oltre alla Commissione Europea) volta ad accelerare lo studio e l’impiego delle Clean Energy Technology.
L’Italia ha infatti assunto un ruolo di co-leadership nello sviluppo di soluzioni per Smart Grid e IBM insieme a un team di aziende tra cui Rse, è incaricata di realizzare una piattaforma online basata su cloud per condividere la documentazione tecnica, finanziaria e regolatoria inerente al tema, centralizzando la conoscenza in un unico database. Il portale Smart Grids Innovation Accelerator (Sgia) prevede un motore di ricerca interno con funzionalità avanzate e la possibilità di effettuare collegamenti semantici con database pubblici esterni così da ottenere rapidamente una vista completa sui risultati. Gli algoritmi di intelligenza artificiale servono anche per tradurre i documenti in diverse lingue, aggiungere funzionalità di speech-to-text per contenuti audio e video, consentire agli utenti di personalizzare i risultati delle ricerche.
“Watson – spiega Martini – permette di classificare i documenti presenti su Sgia tramite algoritmi di intelligenza artificiale e machine learning, offrendo agli utenti risultati di ricerca più accurati e una migliore esperienza di fruizione. Grazie al cloud, la piattaforma può scalare per coprire le necessità future». Come sottolinea il direttore, grazie alla consulenza e alle tecnologie innovative, IBM ha permesso di implementare le idee di Rse nel rispetto delle tempistiche previste, garantendo sia la solidità tipica di un’enterprise sia una velocità di azione da startup.
L’approccio IBM Garage per realizzare progetti innovativi
I case study presentati durante il live streaming, infatti, sono stati realizzati seguendo la metodologia IBM Garage, un approccio esclusivo che permette alle aziende di accelerare la trasformazione digitale attraverso percorsi di co-creazione, co-esecuzione e co-operazione.
Davide Albo, IBM Garage Sales Leader, chiarisce la ricetta alla base della metodologia: innanzitutto l’approccio ingegneristico ed enterprise, che alterna incontri fisici e virtuali; le competenze qualificate di team multidisciplinari; infine la capacità di fondere idee di business e soluzioni IT.
La collaboration è un ingrediente di successo fondamentale: “IBM – afferma Albo – trasferisce un metodo di lavoro agile, fornendo skill consolidati e tecnologie all’avanguardia. Il cliente allega le esigenze di business, le competenze di dominio, la virtuosità delle persone interne. Entrambe le parti si arricchiscono”.
Secondo Albo, i progetti basati sull’approccio Garage evidenziano la maturità delle tecnologie cognitive di Big Blue, che rappresentano i muscoli di tutti i prodotti tecnologici a portafoglio. L’intelligenza di Watson infatti risiede in qualsiasi Cloud Pak, le soluzioni software di Ibm caricate in contenitori che, grazie all’open-source, garantiscono la portabilità in qualsiasi nuvola.
Governare le informazioni per concretizzare la rivoluzione AI
Come evidenzia Clivati nell’intervento successivo, l’AI è la nuova energia elettrica in grado di dare propulsione alla trasformazione aziendale, tuttavia necessita di infrastrutture, metodologie corrette e una solida architettura dell’informazione che garantisca la governance dei dati.
Da qui nasce l’AI Ladder ovvero la “scala” (un percorso metodologico prescrittivo basato su tecnologie IBM) per accompagnare le imprese verso l’implementazione di un futuro dominato da intelligenza artificiale e ambienti cloud ibridi. L’obiettivo è arrivare all’apice della scala con la creazione di nuovi modelli cognitivi per una vera modernizzazione dell’azienda.
Il primo gradino (Collect) permette di creare una piattaforma unica per la raccolta dei dati indipendentemente dalla loro collocazione fisica. Lo step successivo (Organise) serve a disegnare i processi per pulire, collegare e garantire un accesso self-service ai dati. La fase di Analyze prevede l’utilizzo di tecniche avanzate di data science per creare algoritmi AI ed estrarre valore anche dai dataset più complessi del patrimonio informativo aziendale. Lo stadio conclusivo (Infusion) rappresenta l’operazionalizzazione dell’AI verso il business, con gli algoritmi di intelligenza artificiale inseriti all’interno di tutti i processi di BI.
“Capiamo – afferma Clivati – che questo approccio può essere spiazzante e pertanto abbiamo sviluppato la soluzione Cloud Pak for Data, che sostanzialmente traduce in software il concetto teorico dell’AI Ladder, consentendo alle aziende un percorso di modernizzazione graduale disegnato sulle proprie tempistiche ed esigenze”.
Certificata per Red Hat Openshift, la piattaforma consente infatti di delineare correttamente un’architettura votata all’AI readiness, consentendo di eliminare i silos e connettere i dati, governare il ciclo di vita delle informazioni, operazionalizzare l’intelligenza artificiale con un approccio sicuro e trasparente, cancellare il rischio di lock-in.
Sogei semplifica burocrazia e processi decisionali con l’AI
Il governo sulle informazioni, con un approccio affidabile e conforme alle normative, è il tema che guida il caso utente raccontato da Antonio Ballarin, Chief Artificial Intelligence Officer di Sogei. Il progetto ha riguardato lo sviluppo e l’applicazione di algoritmi AI per semplificare il processo di autorizzazione al subappalto nel contesto degli appalti pubblici.
“Il mondo della Pa – dichiara Ballarin – è condizionato dalla burocrazia e da grandi quantità di documentazione. Le tecniche di intelligenza artificiale e Natural Language Processing possono contribuire notevolmente a snellire i processi del settore. Nel nostro caso, ad esempio, abbiamo applicato algoritmi di AI per semplificare la verifica formale e sostanziale della documentazione dei subappalti, che deve essere controllata sia per conformità normativa sia per veridicità dei contenuti”.
L’iter autorizzativo viene condotto attraverso la stretta collaborazione uomo-macchina, con il supporto di Watson Explorer, la piattaforma di esplorazione cognitiva e analisi dei contenuti di IBM. Gli algoritmi individuano e sottopongono le parti da validare all’attenzione del responsabile, che procede al controllo. Si accelerano così i tempi di evasione delle pratiche e, poiché le conoscenze umane vengono trasferite all’interno della piattaforma, in caso il referente del progetto dovesse interrompere l’attività, può essere sostituito.
Il valore dell’explainable AI
L’utilizzo dell’intelligenza artificiale all’interno della Pubblica Amministrazione apre alcune questioni interessanti, come la necessità di compliance nei processi decisionali automatizzati, l’equità e l’eticità degli algoritmi, l’explainability.
Najla Said, Data Science Squad Manager di Ibm Italia, chiude la prima sessione di Time for Cloud con un intervento dedicato proprio al tema dell’Explainable AI.
“IBM Research – puntualizza – lavora da anni sullo sviluppo di algoritmi che ci permettano di avere fiducia nell’intelligenza artificiale, fornendo output in linea con i nostri canoni etici. L’Explainable AI non solo deve offrire garanzie di conformità normativa, ma anche la possibilità di controllare il processo di interpretazione dei risultati e di individuare eventuali anomalie”.
Da qui, Big Blue fornisce una serie di strumenti dedicati agli sviluppatori (Explainability 360 developer toolkit) che rendono spiegabili modelli black box e offrono supporto nella comprensione dei dataset. La suite si affianca alla piattaforma Watson OpenScale che permette di monitorare i risultati dei modelli di intelligenza artificiale lungo l’intero ciclo di vita e di effettuare, su richiesta, l’analisi locale di spiegabilità.
“Explainability 360 – conclude Said – rappresenta uno dei tre pilasti fondamentali su cui Ibm costruisce il ciclo di vita affidabile dell’artificial intelligence, che deve essere sicura, equa e comprensibile. Gli altri due pillar sono infatti la robustezza (ovvero la sicurezza che nessuna interazione malevola infici gli output) e l’equità (cioè la capacità di ottenere risultati eticamente corretti e scevri da pregiudizi)”.