L’intelligenza artificiale che, dopo oltre mezzo secolo di teorizzazioni e esercitazioni, finalmente negli ultimi anni esce dai libri di informatica e debutta sul tutte le piattaforme IT: dai grandi server ai pc, agli smartphone. I container, un nuovo modo di implementare le applicazioni in modo portabile su tutte le infrastrutture esistenti, dall’on-premises al cloud e all’edge. L’hybrid IT e il multi cloud, che concretizzano un’interoperabilità sempre più semplice, veloce e affidabile fra ambienti data center, private cloud e cloud pubblici diversi. Mettiamoci, nel lato negativo della forza, i i cyber attack, gli attacchi cibernetici, che trovano nuovi modi di mettere a rischio la sicurezza del business e della privacy delle persone.
È un’era di frequenti “unexpected”, anche dal punto di vista IT, quella in cui si trovano le aziende, le pubbliche amministrazioni e gli individui. E l’inatteso è la parola chiave del titolo di un recente evento online organizzato da IBM in collaborazione con ZeroUno Storage IBM: meet the unexpected!, moderato da Patrizia Fabbri, direttore responsabile della testata.
“In una realtà globale sempre più complessa, nella quale la pandemia di Covid-19 non ha fatto che aumentare l’instabilità è l’incertezza, le aziende hanno una grande necessità di potersi basare su un’infrastruttura elastica. Le soluzioni convenzionali possono non essere più sufficienti per affrontare l’attuale quotidianità. AI (artificial intelligence), ML (machine learning), real-time analytics, deep learning, sono esempi di soluzioni che sono diventate protagoniste in questa situazione. E tutte hanno in comune un’esigenza: la predisposizione di una governance dei dati. Per questo motivo, in questo webinar, cercheremo di trattare del tema dei dati e delle applicazioni in modo non convenzionale andando oltre il tradizionale aspetto della protezione dei dati”.
Il panorama dell’AI nelle aziende italiane
Prima di entrare nel merito delle soluzioni storage necessarie per la governance dei dati nell’era dell’AI, dei container, del multi cloud e dei cyber threat di nuova generazione, si è chiesto a un analista di fornire un quadro di riferimento. In questo caso si è scelto di mettere sotto il cono dei riflettori l’evoluzione dell’utilizzo dell’intelligenza artificiale sul mercato italiano. Nel suo intervento, Alessandro Piva, direttore dell’Osservatorio Artificial Intelligence del Politecnico di Milano, ha affermato, fra l’altro, che “In Italia l’AI è agli albori, ma da un paio d’anni si sono viste implementazioni concrete. Dal punto di vista dell’offerta, il fatturato AI italiano è di 400 milioni di euro. Di questi il 78% è generato dalla domanda nazionale, mentre il 22% dall’export. Il 33% della spesa finisce in progetti di intelligent data processing, il 28% in applicazioni di natural language processing (NLP) e chatbot/virtual assistant, il 18% nello sviluppo di motori di raccomandazione, e, rispettivamente con l’11 e il 10% nella robotic process automation (RBA) cosiddetta ‘intelligente’ e nella computer vision (visione artificiale).
Scouting di tecnologie ed educazione alla gestione dei dati
Un’ospite d’onore dell’evento online, Irene Sardellitti, Head of Innovation Services al parco tecnologico e scientifico Kilometro Rosso, ha confermato che l’AI si sta facendo molto spazio nel mondo del manufacturing, incluso quello formato dalle PMI (piccole e medie imprese). “Le PMI – ha spiegato Sardellitti – sono molto interessate alle applicazioni dell’AI in diversi ambiti. Fra i principali si segnalano innanzitutto il controllo qualità, l’ottimizzazione dei processi di produzione, tramite l’introduzione della robotica collaborativa. A puntare sull’AI non sono solo aziende nate con il digitale ma anche imprese, come le fonderie, con processi tradizionali e standardizzati, ma che cercano innovazioni per competere meglio nel nuovo millennio”.
Per le PMI, sottolinea Sardellitti, esiste un problema di “educazione alla gestione del ciclo di vita dei dati. In queste aziende, finora, governance dei dati ha significato quasi solo sicurezza. Oggi si trovano a dover imparare come utilizzare il patrimonio informativo per migliorare il business”.
Un portafoglio ridisegnato in ottica di soluzioni
A complementare le realtà che si occupano di scouting e trasferimento tecnologico, come il Kilometro Rosso, ecco a dover essere chiamato in causa mondo dell’offerta di soluzioni e servizi. “Negli ultimi 24 mesi – ha spiegato Rainero Ronchese, Manager Storage Solution in IBM – la nostra divisione storage ha ridisegnato il portafoglio e ha riaggregato sia l’hardware sia il software per fornire soluzioni a supporto dell’hybrid multi cloud, dell’AI e della cyber resiliency”. A spiegare di che cosa si tratta quest’ultima è stata Serena D’Eramo, Storage Software Sales Leader, IBM Systems: “Gli utenti stanno affrontando un numero crescente di attacchi che impattano sulla reputazione, oltre che sul fatturato. Per questo motivo sono andati a convergere il tema della cyber security con quello della business continuity. La cyber resiliency è questo”.
Il ruolo insostituibile dell’infrastruttura
In questo momento di emersione di nuovi paradigmi IT, l’infrastruttura, e in questo ambito lo storage di nuova generazione, gioca un ruolo protagonista. “Se è vero che l’AI è utilizzata in modo sempre più pervasivo – ha commentato Matteo Mascolo, Storage Solutions Leader, IBM Systems – solo un quarto delle aziende mondiali è riuscito a condurre con successo processi di integrazione di queste tecnologie all’interno dei processi. Fra i fattori bloccanti non ci sono gli algoritmi, la capacità computazionale, la disponibilità dei dati, bensì l’architettura infrastrutturale. IBM – ha detto sempre Mascolo – cercare di rimuovere tutti i fattori bloccanti, dal punto di vista dello storage, uscendo da una logica di singoli prodotti per proporre soluzioni che interloquiscono le une con le altre per supportare, ad esempio, tutta la filiera dell’AI. Spina dorsale di tutte queste soluzioni è il software IBM Spectrum Scale, che è essenzialmente un file system multi protocollo e ad accesso parallelo, utilizzato, peraltro, nei supercomputer Summit e Sierra”. Implementato in diversi ambienti di un’architettura hybrid multi cloud, Spectrum Scale consente ai dati di essere acceduti sia da soluzioni tradizionali (come ERP e database), sia da applicazioni cloud nativi e soluzioni di AI. “I dati, quindi – ha concluso Mascolo – possono risiedere dove è più opportuno, ma possono essere utilizzati da più soluzioni e team IT contemporaneamente”.
A tutto Spectrum nel hybrid multi cloud
Fra le varie chicche di questa offerta software, si segnala il software Spectrum Discover, che oltre ad essere utile ai data scientist per identificare più velocemente alcuni dati utili per l’allenamento degli algoritmi, può essere utilizzato per scoprire i dati sensibili da proteggere. Altro protagonista fondamentale dello stack è Spectrum Virtualize. “Implementato sulle piattaforme storage Flash System – dall’entry level FS5000 all’enterprise FS9200 – su IBM Cloud, su AWS e in futuro su altri cloud, Spectrum Virtualize permette alle di creare un’architettura hybrid multi cloud senza lock-in, pienamente interoperabile e in grado di supportare vari use case e scenari noti e unexpected”, ha spiegato Antonello Milia, Storage & Software Defined Infrastructure, IBM Systems.
L’eredità dell’acquisizione di Red Hat
Sia per il mondo IBM, che per quello degli utenti IT, un evento unexpected è stata l’acquisizione, avvenuta nel 2019 (da parte della stessa Big Blue), di Red Hat. “Con riferimento al tema di questo incontro – ha commentato Andrea Vercellini, Direttore Tecnico, IBM Systems – è stata fondamentale l’acquisizione della tecnologia Red Hat OpenShift Container Platform, basata su Kubernetes. IBM ha reso disponibile sulla piattaforma OTP le soluzioni enterprise containerizzate IBM Cloud Pak. In questo modo oggi possiamo offrire le soluzioni storage più adatte per la gestione, la governance e la protezione dei dati dei container”.