Secondo autorevoli osservatori, nei prossimi anni aumenterà in modo esponenziale la mole di dati che saranno generati ed elaborati all’esterno dei data center tradizionali e delle infrastrutture cloud. Fra i propulsori di questo tipo di evoluzione ne spiccano due in particolare: l’aumento e la diversificazione dei dispositivi utilizzati dagli utenti finali, che diventano anche sempre più potenti e in grado di far girare moltissime applicazioni tradizionali e innovative, e la crescita della digitalizzazione spinta lungo il perimento degli ecosistemi aziendali. Quest’ultimo fenomeno, noto anche come edge computing, ha molte sfaccettature: da quella dell’IT tradizionale implementato negli uffici delle filiali aziendali (branch), a tutto quello che oggi viene incluso nel concetto di Internet of Things (IoT). Fra gli esempi di ciò a cui ci si riferisce con questo “termine ombrello”, possiamo citare i macchinari industriali con i loro sensori e sistemi di controllo (le Operational Technology) e i device consumer cosiddetti “smart”.
Una connettività sempre più diffusa
Un aspetto che emerge da questo quadro – sicuramente incompleto (in futuro dovremo includere, per esempio, i sistemi per la guida autonoma) – è l’immensa pervasività di reti necessarie per supportare tutte le interazioni fra diversi tipi di utenti, device, applicazioni, infrastrutture enterprise in cloud e on-premise. Parliamo di reti che utilizzano diverse tecnologie (rame, fibra, onde radio), ma anche differenti protocolli di comunicazione e metodi di configurazione dei servizi di rete e della sicurezza nei loro vari nodi.
In questo contesto, i responsabili di business e quelli dell’IT, devono prendere atto che la competizione sul mercato sia gioca sempre di più con la capacità di creare prodotti e servizi innovativi con il minore time-to-market possibile, che queste nuove offerte richiedono l’esistenza di applicazioni specifiche, e che, infine, accade sempre più spesso che prodotti, servizi e applicazioni introdotti devono essere modificati, arricchiti e dismessi in tempi rapidi. Di conseguenza diventa indispensabile poter creare e gestire processi agili ed end-to-end, coinvolgendo un sempre maggior numero di attori appartenenti a diversi domini. Questi processi non possono essere gestiti efficacemente in modo manuale, ma neanche con il supporto di un IT tradizionale basata su silos hardware, applicativi e di dati. Occorre essere in grado di sfruttare al massimo l’eterogeneità delle reti e gli ambienti in cui possono essere implementate e migrate applicazioni – sia legacy, sia di nuova generazione – senza però venire meno alla necessità di garantire sempre la sicurezza delle infrastrutture IT (data center, reti, applicazioni, dati, dispositivi e persone) ed evitare violazioni di compliance.
Sfruttare l’esistente, preparandosi al futuro
Un assessment del networking e delle soluzioni per la sicurezza esistenti rivelerà quasi sempre un elevato livello di eterogeneità tecnologico, conseguente assenza di un approccio unico e coerente alla gestione, gap negli skill necessari per affrontare ogni tipo di problema, e una gran quantità di lavoro manuale da svolgere, con conseguente sottrazione di risorse umane ed economiche all’innovazione.
Come già si è visto nei mondi del compute (i server) e dello storage, la virtualizzazione si presenta come l’approccio più pragmatico e ottimale per modernizzare il networking e la sicurezza, sia ai fini gestire al meglio le esigenze attuali, sia per creare un humus più pronto per accogliere le novità future. Un esempio di piattaforma che consente oggi di virtualizzare le reti (e, considerato il ruolo chiave svolto ormai dal Cloud, di creare Virtual Cloud Netowkring) è VMware NSX. Virtualizzare consiste nel creare uno strato di astrazione rispetto all’hardware che consente prima di tutto di avere una visibilità globale delle infrastrutture, dei dati, delle applicazioni e degli utenti che le utilizzano. In secondo luogo permette di integrare a livello software tutte le funzionalità di gestione delle tecnologie già esistenti. In terzo luogo la virtualizzazione di network e security rende possibile iniziare a gestire tutto in modalità Software Defined, via programmazione, riducendo al minimo gli interventi manuali on site. Last but not least, una piattaforma di questo tipo consente di “spostare” via software – e sempre più con l’automazione (che garantisce rapidità e riduzione degli errori umani) – i servizi di rete e di sicurezza più vicini possibile alle applicazioni. E questo è reso possibile anche attraverso la micro-segmentazione virtuale delle reti fino al livello di singoli carichi di lavoro.
Diventa così possibile passare da un approccio in cui prima si creano le infrastrutture, e poi si installano il software e i dati, ad uno in cui si possono migrare in modo flessibile dati, applicazioni e policy di rete e sicurezza senza dover intervenire sull’hardware. Sempre da un punto di vista della security, questo significa poter adottate il concetto di zero-trust network, in cui diventa sempre meno rilevante suddividere le reti in affidabili e non affidabili, ma si può considerarle tutte non affidabili per default e quindi, grazie alla virtualizzazione, arrivare a proteggerle tutte al meglio in modo coerente.