Con la promessa di semplificare le infrastrutture IT e di dare una spinta all’innovazione, l’arrivo del cloud si è tradotto in un aumento della complessità di gestione dei dati. Applicazioni erogate in remoto da differenti provider, dati che vengono scambiati tra sistemi locali, reti cloud pubblici o privati pongono sfide sui fronti delle prestazioni, della sicurezza e delle compliance normative. È oggi possibile per l’IT riprendere il controllo sulla governance sui dati? La risposta è sì, a patto di riuscire a integrare le risorse più disparate attraverso la virtualizzazione e quindi aumentare l’automazione attraverso strumenti di Software Defined Storage (SDS). Soltanto in questo modo è possibile far fronte alla crescita dei dati (secondo IDC i dati gestiti aumentano di 50 volte nel decennio tra 2010 al 2020) ma soprattutto per averne la disponibilità per le elaborazioni su big data, machine learning, intelligenza artificiale, utili per innovare l’impresa e mettere il cliente al centro del business.
Massimo Ficagna, senior advisor dell’Osservatorio enterprise application governance della School of management del Politecnico di Milano, sottolinea come gli sviluppi della consumerizzazione e l’ingresso dell’informatica nei prodotti stiano rendendo il software e i dati prodotti sempre più essenziali nei processi di creazione del valore delle imprese: “Strumenti social, dispositivi mobili, IoT sono dei grandi generatori di dati; quindi l’elaborazione di big data e in cloud diventano fattori abilitanti indispensabili per la creazione del valore”. L’impiego del cloud permette di rispettare i time-to-market dei progetti digitali: “poche settimane, al massimo un mese per decidere, quindi poche ore per mettere a punto l’infrastruttura IT a supporto”.
La velocità del business digitale è testimoniata dal successo con cui aziende come Amazon, Airb2b o Uber hanno in pochi anni acquisito più valore delle società tradizionali che operavano negli stessi mercati. “Il tempo a disposizione per fare innovazione è breve – continua Ficagna -. Secondo Gartner gli acceleratori più promettenti sono l’AI, il machine learning e l’IoT, che permettono di portare l’innovazione all’interno del prodotto. Si aggiungono le capacità di simulazione, di creazione di realtà virtuali e immersive con le quali alcune grandi aziende, come Boeing, hanno migliorato progettazione e manutenzione. Si aggiungono le piattaforme conversazionali che in concerto con l’AI aiutano a dialogare con i computer”. Una costante delle nuove applicazioni digitali è che fanno grande uso dei dati. “Nel caso dell’IoT, occorre usare dei ‘sistemi edge’ per fare aggregazioni locali e ridurre la mole di dati da portare nella nuvola per l’elaborazione – precisa Ficagna -. Altri fenomeni riguardano l’impiego della blockchain come forma distribuita per garantire la validità di processi e transazioni. Tutto questo aumenta la mole dei dati gestiti a livello mondiale a 40 zettabyte (lo zettabyte vale un miliardo di terabyte) di cui l’85% è rappresentato da nuove tipologie di dati”. Per questo diventa fondamentale il contributo dello storage, unitamente agli strumenti garantiscono flessibilità e scalabilità d’elaborazione, per reggere il passo della digital transformation.
Who's Who
Massimo Ficagna
Lo storage di cui hanno bisogno le aziende
Ficagna ha poi delineato i connotati dello storage del futuro: “Deve consentire il provisioning nel tempo di pochi minuti, garantire alte prestazioni a livello degli utenti finali, offrire scalabilità in modo da non limitare il successo delle iniziative, infine contenere i costi perché i budget IT e la disponibilità di personale non crescono”. C’è poi la sicurezza: “Importante per tutelare i dati dell’azienda e ancor più per quelli dei clienti, la cui perdita ha gravi conseguenze d’immagine”. Sul fronte delle tecnologie il trend più significativo riguarda il passaggio dai dischi magnetici a quelli a stato solido (SSD) in tecnologia flash. “Gli SSD non sono solo più veloci, ma anche più affidabili, come dimostrano i test di vita sul campo. Consumano meno energia e costano sempre di meno, al punto che il TCO è oggi più basso dei dischi magnetici. Gli SSD consentono di adeguare nelle performance molte vecchie applicazioni altrimenti condannate alla immediata dismissione”. Un altro trend importante è il supporto delle modalità di Software Defined Storage (SDS).
“Non è più tecnologia per grandi data center – spiega Ficagna -, consente di migliorare la gestione, smettere di occuparsi delle LUN (Logical Unit Number) e di altri parametri di basso livello per ottenere lo stesso grado di flessibilità del cloud, virtualizzando fonti dati eterogenee”. SDS è funzionale ad accompagnare i processi di ‘cloudizzazione’ delle imprese. “Dai dati rilevati dall’Osservatorio Cloud & ICT as-a-service, il 16% delle grandi imprese ha già in cloud oltre il 50% del parco applicativo, mentre il 43% lo ha fatto per una quota compresa tra il10 e il 50%”. Il sistema informativo si sta spargendo in tanti rivoli. Che fare per unire le parti? “Servono soluzioni per gestire gli ambienti in logica multicloud, abilitare servizi in self-service, console in grado di dialogare con i differenti sistemi per il provisioning e altri servizi. Serve inoltre poter fare misurazioni, controllare gli SLA, fare brokering e spostare i carichi applicativi da un ambiente all’altro per scopi di prestazione o di ottimizzazione dei costi. “Su molti aspetti si sta oggi ancora lavorando, ma servono strumenti e nuove competenze, per esempio nella gestione dei rapporti con i fornitori”, conclude Ficagna.
Gli strumenti per lo storage intelligente
Maurizio Rizzi, storage & software defined solution leader di IBM, ha offerto esempi di come sia possibile affrontare il problema della governance dei dati in ambienti eterogenei, ibridi e multicloud. “Il cloud non cambia le cose. Da una parte ci sono dati in uso alle applicazioni, dall’altra dati storici, ma alla fine il dato deve essere memorizzato per poter rappresentare un asset da cui poter estrarre informazioni utili”. Per questo serve una piattaforma di gestione pensata nell’ottica del multicloud, le cui fondamenta sono costituite dal Software Defined Networking (SDN). Per essere utile, il SDN deve poter essere supportato da qualsiasi tipo di hardware anche di commodity, abbracciando tutti i possibili scenari e problematiche (per esempio di rete) per operare indipendentemente dal luogo dove sono conservati i dati in on premise, cloud pubblico o privato, per tutti i possibili compiti di archiviazione, recovery, gestione infrastruttura, replica e così via.
Who's Who
Maurizio Rizzi
“Il dato può essere su SSD, dischi magnetici, nastri e deve esserci la possibilità di accedere attraverso mezzi trasmissivi diversi tra cloud locale o pubblico, e anche con modalità diverse se si tratta di dati strutturati o non strutturati – precisa Rizzi -. In funzione del tipo di dati posso aver bisogno della gestione a blocchi, del supporto dei file system (NAS) o di un object store. Sono gestiti in modo differente servizi di archiviazione, backup, con una molteplicità di oggetti virtuali dal lato applicativo. Per rispondere a queste esigenze, IBM ha messo a punto soluzioni specifiche, con la possibilità di girare su hardware di commodity o in cloud, eventualmente su infrastrutture di cloud gestito”. Poiché la gestione dei dati comporta dei costi, è importante che siano appropriati al valore che hanno per l’azienda. “Se il valore è collegato con la velocità di accesso, allora il luogo più appropriato per conservare i dati è la memoria flash; se obiettivo è l’archiviazione o il backup è possibile usare supporti più economici come dischi e nastri”. Un altro aspetto importante è la semplificazione della gestione dati nei contesti multicloud. “L’uso del cloud è una scelta – continua Rizzi -, lo storage in cloud è in genere più costoso di quello on premise, ma può esservi vantaggio nella flessibilità, nell’utilizzo con le applicazioni o altri servizi di cui si ha bisogno”. Se ci sono i motivi per preferire il cloud che cosa fare? “L’importante è tracciare un proprio percorso per archiviazione, disaster recovery, backup, gestione dei picchi – precisa Rizzi –. Un ambito di soluzioni (IBM Spectrum, ndr) che un tempo erano possibili solo on premise e ora operano a prescindere da dove si trova il dato, supportando anche applicazioni mission critical”. Non è una novità che gli strumenti di virtualizzazione permettano di modernizzare applicazioni legacy, calandole in nuove logiche di gestione cloud e multicloud. “Le applicazioni legacy, al pari di quelle più moderne sviluppate in ambienti open source o open database possono trarre grande vantaggio dall’impiego degli strumenti che consentono la governance dei dati indipendentemente da dove sono contenuti, superando le divisioni a silos quindi permettendo di fare elaborazioni avanzate di big data o di AI. Anche le applicazioni più moderne, basate su microservizi e container, si possono avvantaggiare di SDN per disporre di strutture dati più coerenti e disponibili”, conclude Rizzi.
Lock-in, governance dei dati e DevOps: soluzioni per l’efficace gestione multicloud
Come d’abitudine negli Executive Cocktail di ZeroUno è stato lasciato ampio spazio alle domande dei partecipanti, responsabili IT e figure professionali affini, impegnati nella trasformazione digitale e dei sistemi informativi delle loro aziende. Carlo Wolter, CEO di Tecnimex (apparecchiature elettriche) azienda che da 8 anni impiega i servizi cloud, pone l’attenzione sul problema del lock-in. “Abbiamo iniziato per esigenze di backup e di ridondanza, quindi abbiamo messo in cloud file server, e-mail, application server, database, anche su provider diversi per scelta nostra e dei clienti. Malgrado si utilizzino macchine virtuali, non è facile portare applicazioni da un cloud all’altro; resta inoltre complesso gestire provisioning e riconfigurazioni. Diverrà più semplice in futuro servirsi di differenti cloud provider e quindi scegliere in modo più libero i servizi?”. Per Sergio Caucino, IT business partner di GroupM (marketing e pubblicità), i problemi del lock-in si sommano con quelli di riuscire a gestire in modo coerente un ecosistema di servizi strategici e tattici stratificati nel tempo. “Una situazione che pone problemi di disciplina più che di libertà nella scelta. Al di là del lock-in, ci preoccupa la capacità di disciplinare applicazioni e servizi in modo da creare più valore: spesso si perde più tempo nelle approvazioni che non nel provisioning. Devono essere gestiti componenti obsoleti e dimenticati, dati che sono raccolti in grandi quantità ma non utilizzati”. Un insieme di problemi che non trova facili risposte nel contesto di un mercato cloud in fase di espansione e nel quale l’aggiunta di nuove funzionalità ha valore prevalente sugli aspetti di standardizzazione e di compatibilità. “Sul fronte dello storage le funzionalità di cui si ha bisogno sono in numero minore e c’è più standardizzazione – risponde Rizzi-. Si riesce a operare nello stesso modo sia con dati in cloud sia sui sistemi on premise più diversi. Sul fronte applicativo ci vorrà del tempo per la migliore convivenza tra ambienti container e orchestratori di differenti provider. Il lock-in non è nato con il cloud. Abbiamo oggi più opzioni di scelta rispetto al passato, è possibile per esempio decidere di realizzare un cloud privato, se in questo modo posso risolvere i miei problemi”.
Giuseppe Messina, business process analyst di Sky Italia solleva il tema della capitalizzazione del cloud, “facendone un asset aziendale abbiamo delle difficoltà nel capitalizzarlo poiché non ha consistenza fisica” e della perdita di competenze tecniche che l’adozione delle modalità DevOps può portare a livello del personale IT. “Abbiamo sposato il framework Agile – precisa il manager -, ma poi siamo tornati indietro, distinguendo l’engineer dal DevOps e questi dal system administrator ‘vecchio stampo’ che conosce come funzionano i backbone informativi”. Il problema della capitalizzazione può trovare soluzioni nelle modalità flessibili con cui oggi è possibile acquisire tecnologia. “Ci sono gli strumenti per ottimizzare i rapporti Capex/Opex – spiega Rizzi -. Oggi esistono modalità di licensing complessive che permettono di scegliere con più libertà gli strumenti di cui si ha bisogno, senza doverlo decidere preventivamente. E’ possibile avere i sistemi in casa risolvendo problemi di provisioning e di compliance, pagandone l’uso ‘a consumo’ come per il cloud”. Sulla questione dell’evoluzione della professionalità IT, Ficagna è categorico: “Delegare a terzi specializzati (fornitori cloud, ndr) la conoscenza degli elementi di dettaglio su hardware e software è oggi una necessità, unico modo per fare più cose con gli stessi mezzi”. DevOps risolve molti problemi ma non è la panacea. “È gradita agli sviluppatori, salvo scoprire che comporta dei compiti onerosi che possono richiedere la reperibilità 24 ore su 24, 7×7, almeno nelle aziende che non sono delle startup e hanno buona cultura nella gestione delle operation”.