Nelle ultime settimane le previsioni degli analisti, dei Ceo, dei Cmo e dei Cio delle grandi aziende, degli esperti di società di consulenza sugli scenari 2016 si sono susseguite ad un ritmo così intenso che non si riescono più a contare. Ma c’è sicuramente un fil rouge che accomuna tutte: la digitalizzazione sempre più massiva del business da cui deriva la richiesta esponenziale di potenza di calcolo e lo sviluppo di nuove tecnologie dirompenti. Elementi che stanno già impattando significativamente sull’evoluzione dei data center aziendali e dei service provider. In particolare, cinque sembrano essere i trend di maggiore impatto nel corso del 2016, così come annunciato dagli analisti di Gartner durante la recente conferenza sul tema tenutasi a Las Vegas e riportato in un recente articolo del Data Center Knowledge [Five Data Center Trends to Watch in 2016 – ndr]. Vediamo quali sono.
1. Il data center sfrutta l’IoT
Incorporando tecnologie smart (oggetti connessi ed intelligenti, sensori che comunicano tra loro e con i sistemi It, ecc.) all’interno di data center, i facility manager saranno in grado di tracciare il reale status dei componenti, di misurare lo ‘stato di salute’ degli ambienti e di gestire gli interventi operativi con più efficacia. Sensori che misurano temperatura, umidità ed elettricità potranno integrarsi in un unico network con tool di misura e controllo che diverranno sistemi di autodiagnosi e autoriparazione oppure di allerta in grado di abilitare, per esempio, interventi di manutenzione preventiva e, più in generale, di assicurare più elevati livelli di uptime del data center. Ci saranno sempre più piattaforme di gestione dei data center che integreranno sistemi Internet of Things ‘collegando’ in un unico punto di controllo dati provenienti da molteplici fonti.
2. Software driven infrastructure
Non è una novità, ma man mano che le infrastrutture saranno sempre più diffusamente ‘definite’ dal software, le operation saranno sempre più automatizzate (verranno quindi meno le configurazioni manuali dei componenti hardware). Questa tendenza porterà ad una maggiore agilità nel modellamento delle risorse data center con minori errori e minori costi operativi. Soprattutto, aiuterà i professionisti It ad avere una vista unificata dei componenti infrastrutturali, delle risorse di connettività, della capacità di calcolo o delle risorse storage incrementando così provisioning ed efficienza di governo (se tutti i componenti sono monitorati in una sorta di unico database aggiornato in real-time, allora diventa più semplice anche gestire eventuali interventi di recovery sia sugli elementi It virtuali sia su quelli fisici).
3. Building-block scalability
Le aziende guardano con particolare interesse ai giganti quali Amazon, Google, Facebook per replicare in qualche modo ciò che questi grandi player hanno saputo fare a livello infrastrutturale disegnando ambienti It altamente ‘responsive’, ossia agili e dinamicamente riconfigurabili a seconda delle ‘oscillazioni’ che arrivano dal mercato dei consumatori/clienti o dalle richieste di business. Riuscire a raggiungere un tale risultato partendo da architetture legacy, eterogenee, cresciute troppo in termini di complessità non sarà affatto semplice ma la via è tracciata: sono sempre più le aziende che puntano alla scalabilità ‘building-block’ (pacchetti di risorse pre-configurati) mantenendo affidabilità, ridondanza e resilienza sotto controllo attraverso l’approccio software-defined.
4. Automazione a supporto dell’efficienza
Un data center agile e modellabile rapidamente dovrà contare su elevati livelli di automazione di tutte le operation. Per perseguire tale risultato si diffonderanno con maggior frequenza nuovi tool per la gestione e distribuzione delle ‘istruzioni’ (le regole che definiscono l’automazione dei processi) così come strumenti di supporto basati su Ip (per esempio per il discovery delle procedure necessarie alla validazione automatica di una operazione). Tale evoluzione avrà un significativo impatto sulle persone: saranno necessarie nuove competenze lungo tutto il data center il cui dominio di esperienza non potrà più limitarsi ad un unico ambito ma dovrà coprire l’intero stack infrastrutturale con focus su automazione dei processi, integrazione tecnologica tramite Api, performance e user experience.
5. Il futuro dell’iperconvergenza
Le infrastrutture iperconvergenti saranno le assolute protagoniste dell’evoluzione dei data center nei prossimi anni. A dirlo è in prima battuta la società di analisi e ricerche americana Gartner, secondo la quale l’iperconvergenza è oggi uno dei metodi per il deploy It nei data center con il più alto e veloce tasso di crescita: secondo gli analisti, infatti, si passerà dallo zero di mercato del 2012 [prima del 2013, infatti, non si parlava ancora di sistemi iperconvergenti e non esisteva nulla sul mercato che potesse rientrare in questa categoria – ndr] ad un giro di affari di oltre 5 miliardi di dollari entro il 2019, diventando così il sistema leader, per reddito, nella categoria delle infrastrutture full-stack pre-integrate.
Il motivo di tale crescita, stimano gli analisti, è dovuto prima di tutto alle caratteristiche di questi sistemi che si differenziano dai cugini (i sistemi convergenti) perché costruiti su hardware standard x86 e con un unico sistema operativo e di gestione che consente di governare tutte le risorse come se si trattasse di un semplice Pc. Quello che serve per riuscire a configurare l’intero sistema It in modo agile, come da tempo chiede il business.