Come crediamo sia oramai un fatto generalmente recepito, il data center aziendale sta cambiando nelle proprie finalità secondo un percorso che è parallelo al percorso di cambiamento che investe la stessa funzione It e le figure che ne sono alla guida. Nello specifico, si sta gradualmente riorientando dal semplice ruolo di strumento, più o meno potente a seconda dei casi, delegato a erogare i servizi necessari alle operazioni di business, per assumere quello di infrastruttura tecnologica in grado di realizzare gli indirizzi strategici e le scelte tattiche tramite le quali la funzione It si allinea ai bisogni del business diventandone fattore attivo e mezzo di sviluppo.
Un primo dato significativo di tale cambiamento, o meglio del fatto che la necessità di un tale cambiamento viene recepita e posta in atto, è la revisione dei modelli di sourcing dei servizi, che vede uno spostamento strategico verso il delivering gestito dalle risorse interne (clicca qui per vedere i dati ricerca Quocirca).
Sia chiaro: il ricorso all’outsourcing continua, ma resta confinato, ancor più che in passato, alle applicazioni non-core; o più precisamente, a quelle che possono anche essere importanti per il business, ma per le quali non sono previsti cambiamenti né nel servizio né nella sua delivery.
Come spiega Fabrizio Garrone, Solutions manager di Dell, “La sfida dell’It oggi è quella dello ‘yes-now computing’, nel senso che deve poter dire di sì alle richieste del business e deve poterlo fare subito. Il che è in antitesi all’approccio classico dell’outsourcing, che esige una precisa definizione dei servizi e degli Sla affinché l’outsourcer o il service provider possano stilare contratti che restino validi nel tempo”.
Enrico Cereda, VicePresident Systems & Technology Group di Ibm, precisa: “Più che di outsourcing parlerei di out-tasking. Nel senso che si tratta, per le imprese, di individuare le aree sulle quali concentrarsi per creare efficienza, in modo da scegliere quelle da gestire internamente, quelle da dare in outsourcing e quelle ancora per le quali ricorrere a servizi cloud. Rispetto al passato c’è quindi la tendenza a fare una selezione non più per piattaforme tecnologiche ma per processi aziendali”.
Anche per Elena Chiesa, PreSales Director Server & Storage Systems di Oracle Italia, il cloud è una risorsa alternativa che viene valutata volta a volta in funzione dei compiti: “L’attenzione verso le architetture cloud cresce sempre nell’ottica di ottenere maggiore flessibilità per rispondere al business. Ogni azienda sta cercando il proprio mix ideale, ad esempio portando nel cloud pubblico alcune applicazioni o progetti It e mantenendo invece altre applicazioni o sistemi sotto un controllo più ravvicinato, grazie all’implementazione di cloud privati”.
In breve, il bisogno di riprendere, con tutti gli oneri del caso, il controllo sul data center e sui processi It risponde all’irrinunciabile bisogno di flessibilità che investe il business in prima battuta e l’It di conseguenza. Una flessibilità la cui affannosa ricerca in una situazione semi-permanente di crisi sta diventando prioritaria anche rispetto ai piani, necessariamente di medio-lungo termine, di evoluzione del data center in chiave di efficienza e versatilità. Si devono, insomma, trovare soluzioni che siano subito efficaci con investimenti dal ritorno più rapido (e rapidamente dimostrabile) possibile. Senza però, ed è questo il punto, precludersi uno sviluppo più organico e ‘meditato’ coerente alla funzione strategica di cui si è detto.
Se questo è, in sintesi il feed-back del mercato raccolto dai vendor intervistati, per Lorenzo Gonzales, Innovation senior Consultant di Hp, “La strada per uscire da questo dilemma sta nel lavorare sui due fronti della strategia e della progettualità, costruendo una roadmap d’evoluzione i cui elementi siano ordinati in modo che alcuni si possano ottimizzare per portare risultati nel breve termine, ma avendo presente che le relative azioni dovranno essere allineate a una visione di medio-lungo termine”. Il caso più classico è quello dei progetti di virtualizzazione, che, osserva Gonzales, si possono fare semplicemente consolidando e virtualizzando l’esistente, avendone subito un vantaggio e un Roi verificabile nel giro dell’anno, “…oppure aggiungendo, con un piccolo sforzo in più, alcuni elementi di standardizzazione, di automazione dei servizi, di self-service e di quant’altro si ritenga opportuno per cambiare il modo di utilizzare l’ambiente tecnologico”. Si tratta, insomma, di lavorare evitando la trappola del “quick and dirty” e, raccomanda Gonzales, focalizzandosi non sul costo dell’oggetto tecnologico ma su quello della componente di servizio cui è destinato, da considerare nel suo intero ciclo di vita.
Integrazione o convergenza?
La virtualizzazione delle risorse costituisce, come sappiamo, l’imprescindibile punto di partenza per il percorso che porta alla ricercata flessibilità; se estesa a tutte le risorse (server, storage, networking e magari anche appliance di sicurezza), i suoi vantaggi sono moltiplicati (è il caso dove l’insieme supera la somma delle parti). Tuttavia, la roadmap verso la virtualizzazione nelle nostre imprese (ma anche altrove, in verità) procede a diverse velocità. Acquisita e diffusa per i server, lo è meno per lo storage e ancora meno per il networking. Pertanto, se il modello del cosiddetto ‘Software Defined Data Center’, quello dove diventa possibile riconfigurare, gestire il provisioning, il ciclo di vita e i livelli di servizio d’ogni componente con la stessa flessibilità e le stesse modalità con cui vengono gestite le applicazioni, è abbastanza chiaro ai Cio, la strada per arrivarvi è lunga e soprattutto incerta.
Tutto sempre più integrato, ma attenti ai lock-in
Secondo Dario Regazzoni, Strategy & Technology Director di Emc Italia, il motivo di tale incertezza sta nella mancanza, a parte l’area server, di una tecnologia di virtualizzazione che si sia imposta come standard di fatto: “Non esiste una VMware per lo storage, come non c’è per il networking”. In altre parole, non ci sarebbe ancora un player in grado di facilitare la transizione verso la virtualizzazione integrata delle risorse e di rassicurare gli utenti sulla convenienza di questo passo. “Diciamo – prosegue Regazzoni – che Emc, che controlla e possiede VMware, vuole porsi in questo ruolo, indirizzando la sua ricerca e sviluppo nel creare questo layer di astrazione e poi di sfruttamento delle risorse hardware, separando la fisicità del data center dal mondo applicativo. Diciamo anche che questo si può cominciare a fare. A livello storage Emc ha già tutta la tecnologia necessaria, mentre a livello rete ne abbiamo una che ci viene da VMware. Bisogna però che il cliente faccia una scelta di piattaforma di riferimento”.
La scelta dell’utenza verso un fornitore-chiave viene implicitamente sottintesa anche da Chiesa, nell’esporre il proprio punto di vista. “Le aziende intraprendono in modo sempre più deciso percorsi di consolidamento delle risorse del data center, con l’obiettivo di ottenere maggiore flessibilità dalle infrastrutture. Noi supportiamo tali percorsi con una proposta unica nel suo genere, gli Engineered Systems, che consentono di consolidare le risorse hardware (server, storage, networking) e software in sistemi progettati per conseguire eccellenti livelli prestazionali. Disponendo della proprietà intellettuale di tutte le componenti, queste sono integrate già in fase di progetto in modo che ciascuna lavori al meglio con l’altra”. Oltre alle prestazioni, il modello Oracle semplifica, come ovvio in una soluzione nativamente integrata, la gestione del data center riducendo il Tco dei sistemi, che sono realizzati in versioni specializzate: Exadata per gestire grandi database consolidati, Oltp e data warehousing, Exalytics per ottimizzare le performance analitiche e di BI nella gestione dei Big data, mentre Exalogic è la macchina middleware per far girare al meglio applicazioni Java e non-Java anche nel cloud. Esiste poi un sistema ‘general-purpose’ su tecnologia Sparc, Sparc Supercluster, per consolidare su un unico sistema sia workload database che applicativi.
L’integrazione è tratto caratterizzante anche per l’offerta Ibm, ma con una differenza. Come osserva Cereda: “Gestire un data center diventa sempre più complesso. Quindi l’integrazione delle componenti server, storage e networking è una richiesta che sempre più spesso ci giunge dalle aziende. Ciò in quanto un ambiente integrato è evidentemente più facile da gestire, ma anche perché permette di formare nello staff degli skill, tra virgolette, ‘integrati’ che superano le specializzazioni per silos e creano efficienza presso le persone, che sono il costo maggiore nella gestione dell’It”. Queste istanze sono state colte da Ibm, che vi ha risposto con una serie di soluzioni culminate con l’annuncio dei PureSystems, che integrano server storage e networking in un unico telaio. Ma il layer di virtualizzazione adottato, ed è questo il differenziale, per quanto proprietario usa standard aperti e può quindi operare anche in ambienti eterogenei. “All’interno dei PureSystems si possono gestire – prosegue Cereda – anche server non-Intel: Unix, Linux e As400, nonché vari tipi di storage, anche dei nostri concorrenti, e lo stesso vale per la rete”.
Automazione e risorse umane
Virtualizzate le risorse infrastrutturali, il passo successivo verso il già ricordato Software Defined Data Center è l’automazione delle operazioni di gestione delle medesime. Come ricorda infatti Garrone, la base sulla quale costruire il nuovo data center si appoggia, come un tavolo a tre gambe, su tre punti che devono necessariamente coesistere. “Il primo è l’unificazione su tecnologie standard [cioè Intel x86, da sempre il perno della strategia Dell – ndr]; il secondo è la semplificazione dell’infrastruttura, con la massima riduzione dei management point, il che si fa con una massiccia virtualizzazione che porti anche alla predisposizione ai servizi cloud. Il terzo pilastro è infine l’automazione, per velocizzare i tempi di risposta dell’It alle richieste del business”. Un pilastro, prosegue Garrone, che è ancora in costruzione: “A fronte di un’ampia base d’aziende italiane che hanno virtualizzato il data center, quelle che l’hanno fatto in vista dell’automazione delle operazioni sono ancora molto poche”. La percezione che ciò sia necessario è però diffusa per cui è solo una questione di tempo. Come afferma Cereda: “Esiste, e aggiungo che si tratta anche di un nostro differenziale d’offerta, una sempre maggiore integrazione fra l’hardware e le componenti software e di servizio, il che consente di automatizzare certe attività”. Con un percorso, prosegue il manager per Ibm, “che si porta dalla semplice automazione del ‘ferro’ all’automazione, controllo e gestione delle applicazioni e dei processi aziendali, in modo indipendente dalle piattaforme tecnologiche coinvolte”.
Ciò comporta una evoluzione delle capacità richieste alle risorse umane, che devono acquisire delle competenze trasversali agli ambienti tecnologici implementati in modo da poter pensare, come dice Gonzales “…a come utilizzare bene le tecnologie per il business piuttosto che al loro buon funzionamento”. Questo viene appunto delegato in buona parte a sistemi automatici, oggi capaci non solo “di controllare che la macchina funzioni, ma che il servizio fornito risponda ai livelli richiesti dal business”. Insomma, per concludere con quanto dice Chiesa “con l’automazione delle attività di start-up e gestione delle infrastrutture vengono a liberarsi risorse e professionalità che possono essere re-impiegate in nuovi progetti. In sostanza, un’evoluzione che permette ai professionisti It di potersi concentrare sull’analisi delle esigenze dell’azienda e mettere a punto risposte concrete tramite lo sviluppo di soluzioni innovative e l’adozione di nuove tecnologie che avvicinino l’It al business”.