L’infrastruttura It delle imprese sta profondamente cambiando nelle sue funzioni e finalità. Si tratta di ridisegnare il data center in modo che per flessibilità e prestazioni possa non solo rispondere, ma essere il mezzo abilitante di un’evoluzione dell’It il cui scopo è fare da motore ai nuovi modi di fare business delle imprese che operano nella cosiddetta economia digitale. È una sfida difficile, ma come ogni vera sfida offre anche grandi opportunità a chi la voglia affrontare. Questo spiega l’interesse che ha portato una trentina di Cio e It manager a partecipare all’Executive Dinner che ZeroUno, in collaborazione con Oracle, ha organizzato lo scorso novembre a Milano e che aveva per tema: “Datacenter: quali evoluzioni tecnologiche per rispondere ai cambiamenti del business”.
L'articolo continua nella pagina seguente
*BRPAGE*
(segue dalla pagina precedente)
Come ha ricordato Stefano Uberti Foppa, direttore di ZeroUno, introducendo l’argomento della serata: “Si va verso una consapevolezza del valore di cambiamento portato dalla tecnologia nei processi aziendali che non è più solo attinente al dipartimento It, ma diventa anche convincimento e presidio da parte del business”. È un punto di svolta importante, perché questa confluenza di interessi e di attenzione tra ambienti tradizionalmente distanti fa della tecnologia una voce d’impatto primario sui modelli di business aziendali. Ne risulta che l’It è chiamata a conoscere non solo le modalità, ma anche le finalità dei suoi servizi, essendo la vicinanza ai clienti e al mercato elemento prioritario di ogni strategia d’offerta. “Da parte dei sistemi informativi – riassume Uberti Foppa – serve una risposta capace di creare valore”. Cioè organizzarsi liberando risorse economiche e umane e, a livello infrastrutturale, fare scelte strategiche capaci di accelerare un percorso di trasformazione che appare segnato. “Ma possiamo ancora procedere in modo lineare – ha concluso Uberti Foppa – o è il tempo di scelte importanti, che portino elementi di rottura con il passato sul fronte di architetture, prestazioni, security, governance e controllo dei costi così da rispondere alle richieste di business e mercato? Questo è il dibattito e mai come oggi è potenzialmente nelle mani dell’It la capacità di poter finalmente far capire alla controparte di aver compiuto un cambiamento culturale che si può tradurre in risposte concrete”.
Tecnologie più business per la nuova It
È quindi intervenuto Riccardo Zanchi, partner di NetConsulting, che ha presentato la ricerca Data Center Evolution per supportare la Business Evolution, condotta nel luglio 2013 per analizzare l’impatto che le esigenze del business hanno sull’It e sulla sua infrastruttura e della quale diamo una brevissima sintesi. Il quadro generale è quello di un ambiente dove sia nelle priorità del business sia in quelle dell’It domina il dualismo “innovazione+efficienza”. Innovazione di processo e dei prodotti, razionalizzazione dei costi, efficienza interna, relazione con i clienti, ottimizzazione dei processi e time-to-market sono infatti sull’agenda dei responsabili di entrambe le aree. Con la sola differenza che per i Cio i problemi di costi e di efficienza prevalgono sugli altri punti con uno scarto che indica i limiti di budget cui devono far fronte. Questa situazione si riflette negli investimenti: ai primi posti ci sono, nell’ordine, il consolidamento applicativo, la standardizzazione di architetture e processi e l’It governance (tutte cose per l’efficienza delle risorse), più l’integrazione dei dispositivi mobili, una richiesta ineludibile da parte del business, e naturalmente l’evoluzione verso il cloud, in particolare con il passaggio dal cloud privato a quello ibrido, visto come mezzo sia di flessibilità operativa sia di risparmio economico. Dopo una digressione su come a tali esigenze possano efficacemente rispondere i nuovi sistemi ingegnerizzati, che oltre ai vantaggi in scalabilità e affidabilità dei cluster x86 offrono alte prestazioni nella gestione di grandi moli di dati aprendo nuovi scenari sia nel transazionale sia nelle analisi, Zanchi ha parlato dell’impatto che l’evoluzione di cui si è detto comporta nell’organizzazione. “La funzione It amplia i propri obiettivi aggiungendo agli aspetti tecnologici quelli correlati al business: riduzione del time-to-market e dei costi operativi, controllo del Roi e sviluppo di funzioni a diretto supporto del business stesso”. Operativamente, si velocizzano sviluppo e testing del software in sintonia con il business e con le capacità dell’infrastruttura (metodi Agile e DevOps) e si sfruttano i servizi di piattaforma cloud. Ostacoli? Parecchi, dai costi elevati alla carenza di skill tecnici e ai processi da rivoluzionare. Ma dove i fornitori devono e possono, in molti modi, dare una mano.
A questo punto la parola è passata a Oracle, che nella persona di Stefania Gilli, Sales Director, ha illustrato quali siano, dal punto di vista del fornitore delle infrastrutture, i requirement del Data center di domani. Naturalmente, trattandosi di un vendor la cui offerta, pur coprendo ogni tipo di sistema (vedi riquadro), è strategicamente indirizzata sui sistemi ingegnerizzati, l’intervento ne ha specialmente approfondito gli aspetti nei confronti del business. Sono stati quindi esposti i vantaggi che piattaforme specializzate per i carichi di lavoro tipici di una qualsiasi attività, cioè applicazioni Oltp, gestione database e backup dati e applicazioni analitiche, possono dare in termini di rapporto prezzo/prestazioni, prestazioni in assoluto, sicurezza, affidabilità e, soprattutto, facilità di amministrazione. Il tutto supportato da tabelle di confronto sulle prestazioni calcolate in base a carichi di lavoro sia simulati sia rilevati sul campo da installazioni in atto. Notevoli, in particolare, i dati riguardanti gli effetti dell’elaborazione in-memory dei sistemi Exalytics, del consolidamento applicativo su SuperCluster Sparc (entrambi derivati da business case reali) e della semplificazione della gestione operativa, che può ridurre fino al 40% il lavoro dei system administrator.
Il data center alla prova della complessità
Introdotto da Stefano Uberti Foppa con l’invito a parlare delle necessità che portano a intervenire strategicamente sul piano infrastrutturale per sostenere la complessità imposta dal business e, di conseguenza, delle criticità che tali scelte portano con sé, il dibattito ha evidenziato tematiche diverse. Un problema ricorrente, avanzato per primo da Franco Pirovano, Senior Datacenter Specialist di Enel Servizi, è quello dell’esigenza di affidabilità: “La disponibilità dei servizi è la cosa che più ci mette alla prova. Da cui la voglia di sapere come i sistemi possono dare garanzie di availability in termini di ridondanza, resilienza e di disaster recovery. E comunque, supponendo che le diano, se richiedano un approccio diverso al problema”.
Anche per Fabio Mattaboni, Cio di Industrie De Nora, “l’availability è critica, ma non dipende solo dall’affidabilità dei sistemi, dato che intervengono, specie in fase di ripristino dei servizi, anche aspetti dovuti all’eterogeneità dell’ambiente, sia questa infrastrutturale sia soprattutto applicativa”. Sul piano infrastrutturale aiuta la standardizzazione delle risorse e la gestione unificata di tutti quei servizi che si possono centralizzare, ma a un livello più alto, prosegue Mattaboni, “il ruolo del demand manager è cruciale. Sia in sede di progetto, per seguire il system integrator e verificare l’adeguatezza delle soluzioni in termini di costi e di fattibilità tecnologica; sia dopo, per valorizzare al massimo l’investimento fatto”.
Oltre alla standardizzazione aiuta molto, anzi per Raffaele Di Gennaro, Responsabile Amministrazione Sistemi e Dati di Infocamere, è un fattore primario, l’automazione di processi e operazioni: “Che riguarda tutto il data center, per mettere ordine nella virtualizzazione e portarne i vantaggi in altre aree. Ad esempio, nella gestione dei dati, dove c’è ancora molto da fare. Il data center che io vorrei sarebbe quello dove la virtualizzazione non si ferma a livello server, ma va oltre, investendo tutta l’infrastruttura”.
Ed Emanuele Andrico, It Manager Core Business di Edipower, sposta, per così dire, in alto l’asticella della problematica standardizzazione-virtualizzazione-automazione portandola dal piano dell’infrastruttura a quello dei servizi It: “Bisogna che, come è in parte per l’hardware, anche i servizi diventino delle commodity. E per quest’obiettivo la governance dell’infrastruttura è determinante”.
Andare verso il nuovo salvando l’esistente
Legata alla complessità è, come intuibile, la portabilità delle applicazioni. Un problema che è proposto da Luca Fioletti, Responsabile Area Canali della Popolare di Sondrio, che ricorda la generale difficoltà di portare le applicazioni legacy su architetture diverse da quelle per cui sono state in origine disegnate (“ed è per questo – osserva – che molte applicazioni business si trovano ancora sui loro sistemi”) e che Riccardo Salierno, Resposabile Sistemi Informativi di Sapio, riprende introducendo un aspetto particolare della questione, più economico che tecnologico, che dipende dal sistema di attribuzione delle licenze software in ambienti altamente virtualizzati come quelli di cui si parla.
“La virtualizzazione è un gran vantaggio nel time-to-market e in tante altre cose. Ma se non c’è uno stretto controllo da parte dei sistemisti sulle macchine virtuali assegnate ai carichi di lavoro si può andare incontro a sorprese spiacevoli sui costi delle applicazioni, dovendo spiegare perché si è andati in extrabudget per pagare licenze aggiuntive. È un rovescio della medaglia di cui s’incomincia a tenere conto”. Su questo tema ha risposto Gilli che, dopo aver premesso che l’architettura aperta e basata su standard dei sistemi Oracle non crea, di per sé, alcun problema alla portabilità delle applicazioni, ha aggiunto: “Non si può pensare a una migrazione a costo zero, specie se da ambienti mainframe, ma migrare si può”. Procedendo per passi e aiutati dal fatto che la natura dei nuovi sistemi riduce i problemi di capacity planning ed è in grado di assorbire un calo di efficienza del software applicativo, restituendo i livelli prestazionali attesi dall’utente.
Tornando al punto della complessità e del demand management sollevato in precedenza, ancora Salierno ha detto che: “Siamo in una fase dove il tecnologo puro continuerà a esistere perché la complessità è tale per cui non si può non avere all’interno il necessario know-how, ma ci vuole anche il demand manager capace di parlare al business e di tradurne le esigenze in qualcosa di fattibile. Ma – ha concluso – in una struttura dove il Cio faccia parte del management aziendale è difficile che vengano fatte scelte tali da mettere l’It in difficoltà”. Un’osservazione, quest’ultima, che viene condivisa da Luigi Maisto, Responsabile It Settore Sistemi della Popolare di Milano, secondo il quale anche per effetto della crisi economica (che per le banche ha significato una rivoluzione dei canali operativi) il top management ha maturato un diverso atteggiamento nei confronti dell’It, che da commodity delegabile in outsourcing è tornata a essere una funzione chiave. “Il che – aggiunge – ci ha costretto a prendere coscienza di ciò che non va e fare in modo, ad esempio ricorrendo al cloud per molti servizi, di dedicarci alle cose più importanti.
E devo dire che i sistemi ingegnerizzati (noi usiamo Exadata) aiutano, perché i sistemisti perdono molto meno tempo, tanto che pensiamo di dover ricollocare alcune risorse per altri compiti”. Un discorso che ha dato ad Elena Chiesa, Sales Consultant Director, di Oracle, l’opportunità per un’interessante osservazione sulla tecnologia al servizio delle nuove funzioni dell’It: “Credo che, al di là delle caratteristiche tecnologiche, degli aspetti di portabilità e di quant’altro si è detto sui nostri sistemi, ciò che noi stiamo proponendo sia proprio un nuovo concetto, che vede la tecnologia supportare quella trasformazione dell’It che noi tutti stiamo vivendo. Indirizzando gli aspetti di affidabilità, di disaster recovery, di Tco, di licenze delle virtual machine [tutti punti sollevati dai presenti – ndr] e con sistemi che, se sono utilizzati insieme alle tante componenti tecnologiche Oracle, danno risultati particolarmente rilevanti, ma che ciascuno è libero di usare come vuole o come può”.
Per concludere, è interessante notare come Luca Armanni, Integration Team, Project Management, Reporting di Nestlè, sia stato l’unico a considerare gli aspetti energetici del data center, osservando come nella scelta dell’hardware debba avere la giusta importanza anche il risparmio di energia che una soluzione può dare rispetto a un’altra. Non possiamo dire se ciò dipenda dal fatto che il consumo è spesso visto come un fattore esterno alle responsabilità dell’It o dal fatto che i problemi sul tavolo erano tali e tanti che ci si è, semplicemente, dimenticati di parlarne.
I sistemi Oracle per il Next Generation Data Center
Nell’area dei sistemi per data center, Oracle presenta un’offerta estremamente articolata che copre ogni tipo d’impiego. Per gli utenti che hanno bisogno di macchine x86 vi sono le linee Sun Fire e Sun Netra, server rack con processori Intel Xeon basati su un’architettura sviluppata da Sun e disponibili per sistemi operativi Windows, Oracle Solaris e Linux Suse e Red Hat. Vi è poi la linea dei blade server Sun Blade, che integrano in moduli componibili nuclei server sia Sparc sia Xeon più storage e funzionalità di rete. Per gli impieghi che chiedono massima affidabilità e prestazioni vi sono le famiglie di server Sparc, rack e tower con sistema operativo Oracle Solaris e dotate dei recenti processori Sparc T5-4 e Sparc M6; più il SuperCluster T5-8 e il nuovissimo M6-32, potenti macchine per sistemi di produzione. Infine, vi sono gli engineered systems, che integrano nodi di elaborazione, risorse storage, networking e middleware in una piattaforma ottimizzata per particolari carichi di lavoro. Parliamo delle Exadata Database Machine, per la gestione di grandi volumi di dati in area Oltp e DW e workload consolidation, delle Exalogic Elastic Cloud, per l’esecuzione di applicazioni Oracle e Java in una piattaforma scalabile in ambiente cloud privato o ibrido e delle Exalytics in-Memory Machine, anch’esse dotate del nuovo Sparc T5-8, per gli impieghi di planning e foracasting, Bi e analisi avanzate eseguibili in memoria per la massima velocità di risposta.