LONDRA – Tra i trend tecnologici dei quali già nel corso del 2016 si vedranno interessanti, ma soprattutto concreti, effetti c’è l’evoluzione delle cosiddette ‘architetture a container’, soprattutto sull’onda del progetto open source al quale tutti grandi vendor It si stanno ‘adattando’. Stiamo parlando di Docker, architettura che consente il deployment delle applicazioni all’interno di container software grazie ad un livello di astrazione aggiuntivo rispetto alle Virtual Machine, ossia la virtualizzazione del sistema operativo. Docker, in sostanza, è uno strumento grazie al quale è possibile ‘pacchettizzare’ un’applicazione e le sue dipendenze (integrazioni e connessioni con le altre risorse Ict) in un software (il container virtuale) che può essere eseguito su qualsiasi server Linux [il progetto open source è nato e si sta sviluppando attorno al kernel Linux – ndr]. A differenza di una Virtual Machine, il container non ha un sistema operativo separato ma sfrutta le funzionalità di isolamento del kernel Linux per accedere alle risorse di cui necessita (Cpu, memoria, rete, I/O, ecc.), così, sullo stesso sistema operativo possono coesistere container indipendenti (grazie ai container ciascuna applicazione vede ed utilizza, del sistema operativo, solo ciò di cui realmente necessita).
Che le architetture a container rappresentino una delle strade più promettenti per la trasformazione dell’It, soprattutto verso ambienti ibridi, ne è convinto Martin Fink, Enterprise Vice President e Cto di Hewlett Packard Enterprise (HPE), che durante il suo intervento all’HPE Discover lo scorso dicembre a Londra, la convention dedicata a clienti e partner, ha precisato: “molte aziende pensano che questo nuovo approccio architetturale presenti dei limiti, soprattutto in termini di sicurezza, isolamento e gestione su larga scala”.
Soprattutto su quest’ultimo punto, Fink ha invitato a riflettere sugli effetti della digital economy sul business e sull’It: “le aziende continueranno a chiedere insights più rapidi e da sempre più fonti di dati; altri dati, significherà in sostanza più applicazioni; più dati e più applicazioni richiederanno più infrastrutture… a cascata, serviranno più sviluppatori, più amministratori, più energia – descrive il Cto -; se tutto questo viene gestito separatamente, nessuna di queste cose scalerà mai abbastanza per risultare efficace al business”.
La risposta infrastrutturale HPE si chiama Synergy, sistema ‘componibile’ che integra risorse ibride (fisiche, virtuali, cloud) gestibili da un unico punto come se fosse un semplice codice applicativo [leggi anche l’articolo: Hpe: l’infrastruttura diventa unica, sinergica e gestibile come un codice – ndr], ma ciò su cui riporta l’attenzione Fink sono le architetture a container che, ribadisce, “sono il cuore pulsante delle nuove infrastrutture ibride: anziché ‘dettare’ agli enterprise architetct quali componenti, risorse o servizi cloud utilizzare per supportare l’evoluzione It e la crescita del digital business, HPE sta focalizzando l’attenzione sulla gestione e la ripetibilità dei servizi infrastrutturali che specifici set applicativi richiedono per il loro funzionamento, anche laddove questo cambia nel tempo”.
Ed è proprio su quest’ultimo fronte che, secondo Fink, i software container possono esprimere al meglio le loro potenzialità e dove HPE sta investendo gli sforzi per automatizzarne l’utilizzo, la gestione, la scalabilità con un focus strategico sulla sicurezza. Il palcoscenico di Londra è stato infatti occasione per il Cto di presentare HPE ContainerOS, strategia (e attività di ricerca) attraverso la quale “intendiamo migliorare i container integrandone i benefici delle virtual machine”, spiega Fink. “HPE ContainerOS risolve due dei principali problemi dei container, la sicurezza e la gestione. Nei nostri laboratori e attraverso le community open source stiamo lavorando al miglioramento del kernel Linux per poter utilizzare le stesse funzionalità delle macchine virtuali in termini di sicurezza ed isolamento: già oggi siamo in grado di fornire sistemi di protezione e isolamento a livello di container senza alcun sovraccarico delle Vm ma stiamo lavorando per migliorare il nostro file system in modo da poter dare un unico namespace globale attraverso decine di migliaia di contenitori [il namespace di un sistema operativo è una funzionalità che consente di isolare ciò che un’applicazione può vedere dell’ambiente operativo, incluso l’albero dei processi, la rete, gli Id utente ed i file system – ndr]. Infine, stiamo sviluppando nuove capability operative e di gestione destinate alle It operation per poter facilitare il governo di decine di migliaia di container”.
In realtà a Londra il Cto ha lasciato intendere anche quali potrebbero essere le potenzialità di HPE ContainerOS per The Machine, il più grande progetto di ricerca degli Hewlett Packard Labs [un nuovo modello di memory driven computing che intende utilizzare elettroni per il calcolo computazionale, fotoni per l’infrastruttura di communication e ioni per lo storage – ndr]. Ciò che serve a The Machine è un ‘pacchetto di codice’ in grado di gestire e astrarre tutti gli strati hardware di basso livello che funzioni però, al tempo stesso, come un vero e proprio sistema operativo. Quello che potrebbe presto presentare HPE è dunque un ‘unico prodotto’ che consente di gestire l’intera infrastruttura come una ‘single-system image’ [forma di calcolo distribuito che utilizza un’interfaccia comune per la gestione delle risorse: i programmatori utilizzano il cluster di risorse come fosse un singolo sistema – ndr]; se il sistema operativo attuale di The Machine già esiste – si chiama Carbon – ciò che Fink lascia trapelare dalla sua presentazione a Londra è che tale sistema operativo unico potrà essere meglio gestito attraverso HPE ContainerOS (contenitori per l'utilizzo efficiente e la gestione delle risorse all'interno di un singolo sistema operativo). Probabilmente ne sapremo di più nel corso dell’anno, dato che il primo prototipo di The Machine dovrebbe vedere la luce proprio quest’anno.