Hybrid cloud, tecnologia flash, modelli software-defined sono i focus point che hanno contraddistinto il dibattito che si è svolto tra relatori e Cio presenti all’Executive Cocktail “Next Generation Datacenter per l’Industry 4.0” organizzato di recente a Padova da ZeroUno in collaborazione con NetApp
Di questo servizio fa parte anche il seguente articolo: | |
SCENARIO – Verso il software-defined datacenter: come e perché nella digital factory |
Teoria e pratica del next generation datacenter
Tra le premesse, le considerazioni di Roberto Patano, Senior Manager Systems Engineering di NetApp: nella fabbrica intelligente, il punto chiave è gestire e proteggere con efficacia le informazioni (“la nuova moneta” della digital economy), che aumentano in volumi e varietà. “Occorre quindi – ha dichiarato il manager – modernizzare, accelerare e trasformare il datacenter. Come? Adottando modelli as-a-service e software-defined, tecnologie flash, soluzioni aperte come Openstack, Hadoop o Docker”. L’obiettivo è una data governance fluida e centralizzata in ambienti ibridi, che il vendor garantisce attraverso il sistema operativo Ontap (disponibile su appliance e servizi cloud NetApp, ma anche su storage commodity) e l’architettura Data Fabric , “un tessuto (di tecnologie e soluzioni) per consentire la movimentazione sicura e criptata delle informazioni da un punto all’altro dell’infrastruttura”.
Un esempio sull’efficacia del refresh tecnologico è stato riportato da Denis Nalon, Marketing Manager di NetApp, citando il caso Veritas , società veneta di servizi ambientali (2.700 dipendenti, 321 milioni di euro fatturati): “L’enorme mole di dati ha comportato la necessità di un rinnovamento infrastrutturale ai fini di migliorare la gestione dei flussi informativi. Sono state introdotte le appliance all-flash Fas Aff 8040 per ospitare i workflow mission critical, mentre la soluzione SnapMirror ha potenziato le funzionalità di disaster recovery con un Rpo vicino allo zero. La velocità di accesso ai dati per servizi cruciali è aumentata di 10 volte, offrendo maggiore potenza di calcolo ed efficienza”.
Il punto di vista del settore pubblico
Il botta e risposta con Raffaele Di Gennaro, Responsabile Sistemi Dati e Servizi infrastrutturali di Infocamere, e Paolo Zuliani, Coordinatore Infrastruttura It di Azienda Ospedaliera Universitaria Integrata, ha offerto ulteriori spunti di riflessione sul next generation datacenter dalla prospettiva della Pa. Entrambi hanno sottolineato le difficoltà di fare evolvere rapidamente i sistemi informativi, date le lungaggini degli appalti pubblici. Il cloud è in fase di studio, ma è bloccato dalla presenza di un legacy pesante e applicazioni tradizionali: “Nel settore sanitario – ha sottolineato inoltre Zuliani – le applicazioni sono molto verticali e interdipendenti, quindi migrare solo alcuni pezzi in cloud comporta problemi di integrazione”.
Per Infocamere, che offre servizi It al sistema camerale italiano, l’introduzione dei dischi allo stato solido ha rappresentato una svolta: “Abbiamo adottato la tecnologia all-flash per un’applicazione di desktop virtuale – ha dichiarato Di Gennaro -. Questi dispositivi stanno rivoluzionando i nostri datacenter, grazie alla capacità e performance elevate in spazio ridotto”. L’avvicinamento alle nuove tecnologie è tattico: “Procediamo valutando le singole esigenze. L’It evolve così rapidamente che bisogna andare cauti”. Zuliani, invece, ha raccontato di un approccio diversificato allo storage: “Abbiamo affiancato alle soluzioni tradizionali i sistemi all-flash per le applicazioni critiche”. “Anche se applicata a singole aree – ha commentato Patano – la tecnologia flash sta rivoluzionando tutta la catena: velocizzando alcuni processi, obbliga infatti a rivedere anche il resto”.
Sul fronte delle nuove tecnologie, entrambe le società hanno manifestato interesse verso Openstack e Docker, che permettono di sfruttare l’approccio a microservizi per lo sviluppo applicativo (le applicazioni sono costituite da più servizi indipendenti, che comunicano tra loro per svolgere funzionalità complesse). Tuttavia, se le tecnologie ci sono, “il vero problema è il passaggio culturale e lo sviluppo di competenze specifiche” come ha ammesso Di Gennaro. “È difficile portare il cambiamento in grandi strutture. Bisogna abbattere i muri tra Dev e Ops” ha aggiunto Zuliani.
La necessità di competenze e cultura
La discussione è poi proseguita sulla necessità di un radicale cambio culturale: “La tecnologia oggi fa tanto – ha evidenziato Arcangelo Naddei, Responsabile Infrastrutture It di Benetton Group -: ad esempio, relativamente alla gestione delle informazioni, permette di portare il dato grezzo in azienda. Mancano tuttavia strumenti, competenze e mindset per l’analisi del dato. Attualmente la business intelligence è ancora la fabbrica dei report, ma non permette la navigazione intelligente del dato”.
Tuttavia, come emerso da alcuni commenti in sala, il problema non è sempre imputabile all’It, anzi sono gli utenti che faticano ad adottare i nuovi strumenti messi a disposizione.
Insomma, il cambio culturale è necessario, ma esistono resistenze. Secondo Stefano Mainetti, Co-Direttore Scientifico dell’Osservatorio Cloud & Ict as a Service School of Management del Politecnico di Milano, oggi l’It è sempre di più visto come processo primario del business e occorre la stretta collaborazione tra Lob e Sistemi Informativi: “La trasformazione digitale responsabilizza il business sulle questioni dell’It, che non viene più solo concepito come centro di costo. Ceo e Cto devono ragionare congiuntamente, bisogna trovare il modo di fare assieme”.
Il ruolo dell’It e l’approccio strategico
La testimonianza di Alberto Antonini, Ict Director di Inglass, produttore di manufatti in plastica, dimostra la posizione strategica dei Sistemi Informativi: “Nel nostro settore, la competizione si gioca sul prezzo o sui servizi aggiuntivi [basati sulla raccolta di dati, ndr]. L’It è quindi in primo piano. Abbiamo un business plan quinquennale e cerchiamo non solo di seguire ma di condizionare gli obiettivi aziendali. Ho visto questa trasformazione di credibilità dell’It. Quando si portano velocemente soluzioni efficaci e apprezzate dal business, l’It non viene più bypassato ma anzi convocato al tavolo”.
Antonini ha fatto anche alcune considerazioni importanti sull’evoluzione del datacenter: “Abbiamo un legacy importante, con soluzioni verticali che verranno mantenute tali. Per le aree nuove, invece, valutiamo tecnologie alternative, valutando di volta in volta senza nessun condizionamento a priori”.
Lo stesso approccio agnostico è adottato anche in Diesel, che ha scelto un percorso di evoluzione infrastrutturale con una direzione multicloud. “Difficile – ha raccontato Fabio Pasqualetti, Disegno Architetture della società – è capire quali workoad conviene portare in cloud e come gestire le interazioni con le altre applicazioni. Per ogni nuova applicazione comunque optiamo per la soluzione ottimale, senza vincoli nella decisione. Il problema maggiore è l’integrazione cloud – legacy”.
Secondo Patano, la chiave per ampliare l’opportunità di scelta è proprio il modello software-defined, perché salendo di livello di astrazione, dati e applicazioni si svincolano dall’hardware sottostante conferendo maggiore agilità e apertura all’infrastruttura intera.
“Bisogna affrontare i problemi concreti, ma attraverso una strategia – ha concluso Mainetti -; non guardare al dito, ma alla luna. Bisogna avere il coraggio e la capacità di traguardare un piano di lungo termine, da perseguire via via secondo le contingenze. Se la direzione It riesce a fare il passo e dimostrare l’efficacia della tecnologia, diventa pesante al tavolo come un manager di linea”.
NetApp per il datacenter di nuova generazioneCon quartier generale a Sunnyvale in California, NetApp è una multinazionale specializzata in soluzioni di data management per ambienti ibridi. Alla base dell’offerta, l’architettura Data Fabric, concepita per garantire la mobilità, l’archiviazione e la sicurezza del dato in sistemi It eterogenei si sostanzia in un ampio portafoglio di tecnologie software, sistemi storage e servizi cloud. Il sistema operativo Ontap, oggi arrivato alla versione 9, può risiedere direttamente nelle appliance del vendor, sulla nuvola degli hyper-scaler oppure su server e dischi commodity, offrendo un comune denominatore per la gestione centralizzata dello storage all’interno dell’intera infrastruttura. Tra le ultime novità annunciate, i sistemi all-flash A700s (600.000 Iops e 1 Pb di capacità in 4 unità rack) e A200 (12 core e 64 Gb di memoria) pensati per il mercato delle Pmi. La società ha appena festeggiato i due anni dall’acquisizione di SolidFire (conclusa nel dicembre 2015 per 870 milioni di dollari), che grazie all’offerta di soluzioni all-flash destinate al mercato web-scale, ha permesso a NetApp di conquistare il posizionamento tra i leader del quadrante magico di Gartner relativo ai solid-state array. Tra le linee strategiche, il vendor continuerà a puntare sullo storage software-defined, con soluzioni volte a modernizzare, accelerare e trasformare il datacenter, che permettono di aprirsi a nuove tecnologie e modelli (Hadoop, Openstack, servizi cloud) pur mantenendo il controllo e la protezione sul dato. |