Governance delle infrastrutture nell’era omnicanale significa saper lavorare sulle architetture di rete con una visione estremamente allargata e dinamica rispetto alle soluzioni da innestare e presidiare. Garantire la massima continuità operativa rimane un fondamentale. Come riuscirci è tutto un altro discorso.
Il tema è duplice. Da un lato bisogna continuare a gestire i processi, interpretando i protocolli associati a una molteplicità di livelli per agganciare e far funzionare soluzioni, aprendo nuovi canali di comunicazione finalizzati ad abilitare tutti i nuovi servizi richiesti dalle LoB che, ormai, hanno capito che non c’è business senza una strategia omnicanale. Dall’altro bisogna continuare a garantire la business continuity che, con l’evolversi delle tecnologie di ultima generazione, ormai tende a rientrare in quel macrocapitolo chiamato Cybersecurity. Secondo una ricerca condotta da Accenture, ad esempio, 7 aziende su 10 confermano come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione.
Il problema è collettivo: gli analisti hanno infatti evidenziato come, nel mondo, le organizzazioni nel 2015 abbiano speso 84 miliardi di dollari sulla sicurezza e da qui ai prossimi quattro anni la cifra lieviterà a quota 125 miliardi. Sono un sacco di soldi, è vero, ma i costi che le aziende dovranno sostenere entro il 2030 in seguito ai cyberattacchi sono stimati da Accenture nell’ordine dei 90 miliardi di dollari.
Governance delle infrastrutture nell’era omnicanale, distribuita anzi troppo distribuita
Che si tratti di abilitare un nuovo server, avviare un servizio di streaming, includere tra gli accessi alla rete i dispositivi mobili non solo dei dipendenti ma anche degli ospiti o implementare qualsiasi altro touch point che la Internet of Things ha reso più smart (dal sistema di videoconferenza all’e-board, dal chiosco interattivo in reception al tavolo intelligente in show-room), la governance deve cosiderare sempre e comunque che la connettività alla rete porta con se nuovi margini di rischio che vanno analizzati, capiti, prioritizzati e gestiti. Dall’azienda estesa all’azienda distribuita tra le decine di utenti che lavorano da cellulare, da tablet, da pc portatile ma anche da tutta una serie di dispositivi associati a una Collaboration supportata da tutte le derive tecnologiche della Unifiend Communication significa prevedere una quantità di software di riferimento inenarrabile. Il tutto considerando come il cloud abbia cambiato ulteriormente gli equilibri, spostando una parte delle infrastrutture nell’etereo universo dell’As a Service.
Il problema, spesso, è che nelle aziende le figure di riferimento per gestire i servizi sono diverse. Il CIO è spesso un senior cablato nella gestione dei fornitori e del suo staff IT mentre il network manager, che conosce la rete come le sue tasche difficilmente si occupa di Security, dal momento che questa è stata associata anche alla gestione della proprietà dei dati, della proprietà intellettuale, della Privacy, della Compliance e di tutta un’altra serie di task che sono stati spostati su altre figure professionali. Il risultato è che ognuno fa il suo ma le architetture di rete continuano a crescere in maniera discontinua e pericolosa. Serve una centralizzazione delle attività e serve un sistema di supervisione condiviso tra i manager che aiuti l’azienda a capire in fretta cosa sta succedendo e perchè, al di là di tutti gli strumenti di controllo puntuali di cui è stata costellata l’infrastruttura.
Per gestire prodotti multipli e tutto il profluvio di applicazioni oggi le aziende inziano a utilizzare nuove piattaforme che, attraverso un unico cruscotto centralizzato, consentono di presidiare le reti e di rilasciare servizi in tempo reale. L’obbiettivo? Gestire le infrastrutture a 360 gradi.
Ieri architetture di rete. Oggi ecosistemi estesi
«Le architetture dei data center – ha spiegato Stefano Mainetti, Responsabile Scientifico Osservatorio Cloud & ICT As a Service della School of Management del Politecnico di Milano – si stanno muovendo da soluzioni on-premise basate su server fisici (o blade server) in cui servivano skills specifici (tipicamente skills sistemistici) verso soluzioni più semplici da gestire in cui l’hardware sottostante è sempre più nascosto e gestito esternamente. Questo aumenta da un lato le performance e l’affidabilità delle infrastrutture (si pensi alle capacità di investimento che hanno i provider nei confronti dei loro data center) e dall’altro il livello di scalabilità (che non si poteva ottenere prima con le soluzioni on-premise basate su sistemi fisici). Il punto di arrivo è il software defined data center che, attraverso meccanismi di integrazione, può dare vita ad architetture ibride capaci di accedere dinamicamente a ulteriori risorse computazionali, come il cloud pubblico. Operativamente, si parla quindi di un modello architetturale basato sulla condivisione di risorse, che supera il concetto tradizionale di silos e si muove verso un data center programmabile come un software. Alle aziende, dunque, sono richieste nuove vision e una nuova governance».
In ambito industriale, soprattutto, i mondi IT e OT convergeranno su una soluzione interclouding e la differenza la farà la flessibilità e interoperabilità di quanto disponibile, da cui la strategicità dei partner tecnologici con i quali si andrà a collaborare su tutti i livelli dei processi aziendali. Questo comporterà una revisione profonda a livello di organizzazione, ruoli e responsabilità rispetto alle figure IT e OT oggi presenti in azienda.
Le indicazioni degli esperti? Abbandonare il concetto di architettura e sposare quello di ecosistema esteso, che cambia e cresce costantemente. Solo in questo modo le organizzazioni potranno essere in grado di adattarsi e riallinearsi per proteggere la propria continuità operativa avendo ben chiare le priorità aziendali secondo una nuova logica evolutiva.
Secondo Accenture, con un’economia digitale in rapida espansione, molte organizzazioni dovrebbero valutare più seriamente le falle che potrebbero crearsi nelle proprie infrastrutture di rete, soprattutto considerando come ormai la sicurezza sia partizionata tra più partner a cui è stata terziarizzata la complessità.
Un suggerimento importante degli analisti alle aziende è di non dare più per assodato quanto si è costruito: ogni giorno arrivano nuove istanze e nuove tecnologie, nuove minacce e nuove soluzioni da analizzare, portare in azienda, interfacciare e integrare, controllare, aggiornare, proteggere, insomma gestire. La Governance 4.0 va rifondata su un concetto di massima trasparenza informatica, non su un addizione di strumenti diversi: è ora di razionalizzare e passare a piattaforme di controllo capaci di gestire in modalità convergente l’eterogeneità di sistemi e applicazioni in modo dinamico e cybersicuro.