L’architettura dei data center del futuro sarà sempre più orientata alle tecnologie di ultima generazione: cloud e virtualizzazione, containerizzazione, ma anche nuove modalità di sviluppo del software. Un importante contributo all’evoluzione più illuminata dei data center arriva anche dall’intelligenza artificiale. Tra risorse virtuali e software di gestione i CIO dovranno destreggiarsi in un centro dati molto diverso rispetto a quanto hanno conosciuto fino ad ora. Per farlo, dovranno comprendere le basi di un ambiente in cui l’implementazione, il funzionamento, la risoluzione dei problemi e l’aggiornamento delle impostazioni IT ibride impongono nuove specifiche sollevando nuovi problemi.
Data center del futuro: una guida in 5 punti
Gli esperti sottolineano come nell’implementare l’architettura dei data center del futuro saranno necessarie nuove competenze per gestire non solo rinnovati requisiti hardware ma anche tutti i temi legati alla risoluzione della sicurezza e della raccolta dei dati. Su quali tematiche dovranno focalizzarsi, dunque, gli amministratori nel corso del 2019 (e oltre)?
1. Selezione e gestione del cloud
L’adozione del cloud è un indicatore in costante crescita tra le aziende. Gli amministratori dei data center, di conseguenza, devono imparare bene come funziona tutta l’infrastruttura che sta dietro le logiche dell’As a Service. Soprattutto quando si parla di PaaS, infatti, è fondamentale comprendere tutti i vantaggi e gli svantaggi associati alle impostazioni del cloud pubblico, privato e ibrido. Anche perché è necessario scegliere la tipologia di hardware necessario a supportare il cloud.
Gli amministratori dovrebbero selezionare un ambiente cloud adeguato alla loro organizzazione, ragionando nel lungo termine. L’orizzonte dell’offerta è molto variegato, da Microsoft ad Amazon, da IBM a Salesforce, da SAP a Oracle. Il processo di valutazione richiede del tempo, ma l’analisi è fondamentale.
Se gli amministratori vogliono un cloud robusto, devono assicurarsi che la tecnologia supporti l’implementazione corretta degli snapshot, la gestione delle interfacce e delle varie architetture di riferimento nonché API aperte come, ad esempio, possono essere le API di Simple Storage Service proposte da AWS.
A livello base, gli amministratori devono sapere come utilizzare il software di gestione del cloud per:
- migrare le applicazioni;
- gestire correttamente le immagini delle macchine virtuali;
- risolvere la configurazione dei sistemi;
- effettuare il monitoraggio delle prestazioni;
- governare la sicurezza.
Con il ricorso alle tecnologie cloud, infatti, gli amministratori devono capire in che modo questo tipo di architettura si inserisce nel proprio data center e come beneficiarne dal punto di vista delle prestazioni dal punto di vista dello storage e delle applicazioni.
2. Evoluzione delle applicazioni
Il cloud sta cambiando anche il modo in cui gli amministratori forniscono, monitorano e gestiscono le applicazioni. I data center del futuro saranno incentrati su applicazioni sempre più modulari che invece di essere installate su singoli server lavoreranno in pool. Gli It manager dovranno prendere familiarità con tutti i concetti che stanno alla base dei microservizi. Un caso emblematico è la containerizzazione: attraverso un criterio di memorizzazione particolare dei dati, infatti, le applicazioni vengono virtualizzate, lasciando la maggior parte del workflow in un container accessibile in base a criteri prestabiliti, che possono essere governati da una unica consolle (sgravando così il carico della virtualizzazione).
Capire in che modo la containerizzazione differisce dalle macchine virtuali e come utilizzare l’orchestrazione come strumento di automazione per assicurare un funzionamento continuo e sicuro delle applicazioni sarà la chiave della governance. È possibile orientarsi su una containerizzazione basata su Docker, con LXC / LXD come alternativa per certe distribuzioni Linux (specialmente Ubuntu).
Gli amministratori dovrebbero anche cercare degli specialisti Kubernetes per la gestione della containerizzazione. Sviluppato dal team di Google, Kubernetes è uno strumento open source di orchestrazione e gestione di container. Tra i tool più utilizzati, Kubernetes in fase di rilascio permette di eliminare molti dei processi manuali, garantendo non solo la scalabilità delle applicazioni containerizzate ma anche la gestione in maniera semplice ed efficiente dei vari cluster di host su cui vengono eseguiti i container.
In generale, l’avvento dei microservizi e delle tecnologie dei container nei data center del futuro porterà gli amministratori a familiarizzare con l’hardware di ultima generazione, capace di supportare questo tipo di architettura. Gli osservatori consigliano non solo di ripassare le regole base del software di automazione, ma anche di:
- imparare a costruire un’infrastruttura a bassa latenza;
- dimensionare correttamente le risorse;
- individuare il modo migliore per organizzare le API;
- calcolare lo spazio di archiviazione.
3. Quella sicurezza che viene prima dei dati
La sicurezza di apparecchiature, applicazioni e database viene dopo la sicurezza delle informazioni. Nei data center del futuro la protezione dei dati sale in cima alle agende dei CIO. Questo indipendentemente da dove gli amministratori archiviano i dati e/o se li affidano a partner esterni.
Valutare il quadro di protezione dei dati e porre la sicurezza delle informazioni in prima linea richiede una base di sicurezza consolidata, ma anche obiettivi di controllo definiti. In tutto questo avere un software di protezione dei dati installato correttamente diventa un requisito fondamentale di una buona strategia. La combinazione di un software per la prevenzione della perdita di dati con i programmi di gestione dei diritti digitali può aiutare gli amministratori a creare strutture informative di primo livello da utilizzare su una o più organizzazioni.
Se gli amministratori vogliono essere coinvolti più direttamente con le tematiche della sicurezza possono sviluppare test di rete e del software ed effettuare un’analisi dei rischi per andare a dettagliare tutta la documentazione sulla sicurezza. Tra gli obiettivi di una buona gestione, gli amministratori di sistema devono:
- maturare una capacità di intervento proattiva;
- gestire le patch;
- stabilire un framework per la sicurezza dei dati in vista delle possibili minacce esterne.
4. Supporto DevOps
A livello DevOps gli amministratori dovranno aumentare sia il supporto che la collaborazione per migliorare le loro competenze nel data center. I sistemi DevOps mal implementati, infatti, possono causare l’anarchia in un ambiente di produzione. I controlli basati sul software dovrebbero servire a rilevare le criticità eventuali in modo che le prestazioni e i problemi di runtime non si propaghino poi in tutto l’ambiente operativo. Attraverso un approccio Agile, gli amministratori possono valutare tutte le procedure operative per determinare se queste sono in grado di supportare flussi di lavoro agili: quando si tratta di supporto applicativo e ambiente di produzione, infatti, è importante poter contare su software costantemente aggiornato e non penalizzato da bug.
Gli amministratori dovrebbero anche conoscere l’infrastructure As a Code (IaC),che offre agli utenti un linguaggio di livello superiore, più versatile e descrittivo per il provisioning e l’implementazione dei processi software all’interno dei data center. Questo perché gli amministratori dei data center del futuro si troveranno a gestire la maggior parte dello stack tecnologico utilizzando il software invece dell’hardware fisico. La gestione software-defined garantisce data center più scalabili, ma richiede una fase più spinta di test oltre che una risoluzione dei problemi basata su codice per garantire la compatibilità dell’hardware. Più gli amministratori familiarizzano con i data center software-defined e la gestione delle macchine virtuali, più sarà facile per loro supportare il codice e l’infrastruttura DevOps.
5. Preparare i data center all’Intelligenza artificiale
L’intelligenza artificiale (AI), l’apprendimento automatico, il deep learning diventeranno protagoniste nei data center del futuro. Molte organizzazioni utilizzano già l’apprendimento automatico nell’ambito della produzione, il che richiede maggiori capacità di archiviazione e di elaborazione oltre a un corretto monitoraggio. L’Intelligenza Artificiale impone agli IT manager di capire bene in che modo questi sistemi possono aiutare il business: è necessario identificare alcuni motori di base che soddisfano gli obiettivi desiderati. Se un’organizzazione utilizza l’AI senza un obiettivo definito, infatti, il ritorno sull’investimento sarà molto basso.
Qualsiasi applicazione potenziata dall’Intelligenza Artificiale richiede una revisione anche dell’architettura del data center: gli amministratori devono assicurarsi di avere l’hardware adeguato in termini di GPU, ma anche a livello di consumi. L’esecuzione di queste applicazioni ad alte prestazioni, infatti, può essere utile per un’organizzazione, ma i server basati su GPU richiedono più energia. Gli amministratori devono installare l’hardware GPU in modo da evitare di mandare in stallo i server ma anche di vedersi recapitare bollette energetiche stratosferiche.