Il Risk Management è una disciplina molto ampia che copre diversi ambiti sia applicativi sia tecnologici, coinvolge sia aspetti di business che operativi, e interessa, a vario livello, tutte le industry di mercato. Dalla prospettiva IT può avere duplice valenza: gestione del rischio operativo; disponibilità dei dati verso applicazioni, servizi digitali e linee di business. Quest’ultimo aspetto è forse il più critico, soprattutto oggi, nell’era dei Big Data, dove i task applicativi sono sempre più “data intensive”. Ecco perché diventa sempre più importante “investire sui dati” per modellare soluzioni e strategie di Risk Management trasversali che trovino nelle infrastrutture l’adeguato supporto.
L’incremento in quantità e qualità dei dati conservati o accessibili dalle aziende (Big Data, strutturati o non strutturati che siano), la sempre maggiore crescita del valore dei dati (che rappresentano ormai un asset fondamentale d’impresa), la confidenzialità che spesso li caratterizza, la diffusione di normative nazionali e internazionali (trasversali ai diversi settori o verticali che richiedono alle aziende sistemi di sicurezza, di tutela della privacy e di business continuity/disaster recovery) impongono alle aziende una gestione dei dati e delle informazioni che, oltre a metterli in sicurezza, garantiscano un adeguato Risk Management.
Risk Management: disponibilità e protezione dei dati
Infondo, quando si parla di sicurezza, prima ancora che di rischio, la “mente informatica” va subito a due concetti fondamentali:
1) disponibilità e integrità dei dati: il concetto di disponibilità del dato, dalla prospettiva del Risk Management, si traduce in accessibilità e usabilità dei dati (da parte dei sistemi IT, delle applicazioni, dei task “data intensive” come quelli dei Big Data Analytics o dell’Intelligenza Artificiale); il concetto di integrità va invece inteso come garanzia che l’informazione non subisca modifiche o cancellazioni a seguito di errori o di azioni volontarie, ma anche a seguito di malfunzionamenti o danni dei sistemi tecnologici;
2) protezione dei dati: in questo caso il connubio con il Risk Management è ancora più forte perché la protezione del dato si traduce in mitigazione dei rischi connessi all’accesso o all’uso dei dati in modo improprio o non autorizzato (dalle perone ma anche dai sistemi e dalle applicazioni).
Due concetti che assumono un connotato “critico” se analizzati alla luce dell’attuale scenario all’interno del quale si muovono le aziende. L’innovazione digitale non ha solo portato sul mercato nuove tecnologie come il Cloud, l’Internet of Things o l’Intelligenza Artificiale, ma ha consegnato ai manager di qualunque impresa un nuovo “petrolio” monetizzabile: i dati.
La sfida per le aziende non sta nella loro archiviazione quanto, piuttosto, nella loro disponibilità, accessibilità, usabilità per poter essere analizzati, valutati, sfruttati a più livelli, da più persone, con strumenti, servizi e applicazioni sempre più avanzate. Dalla prospettiva del Risk Management, è decisamente una “bella” sfida!
Lo storage come investimento sui dati in ottica Risk Management
Il tema dei dati e del loro valore per il business è tra le prime voci di delle agende dei leader aziendali che stanno delineando e concretizzando attraverso progettualità che vanno dai Big Data Analytics all’IoT, dal Machine Learning all’Intelligenza Artificiale. Visioni, strategie, programmi che hanno in comune “il dato” come asset sia per accelerare questi progetti sia per farlo in sicurezza, con un corretto disegno di Risk Management.
Dal punto di vista infrastrutturale, ciò che accomuna i vari singoli aspetti della Digital Transformation aziendale è lo storage perché di fatto, è lo spazio dove “vivono” i dati e rappresenta il layer tecnologico grazie al quale distribuirli, rendendoli disponibili secondo la velocità e le prestazioni (nonché l’affidabilità e la sicurezza) ideali per ciascuna tipologia di business o workload. Se si vuole massimizzare il valore del dato non è più possibile ricorrere a meccanismi di memorizzazione a livelli in funzione della storia del dato e del suo utilizzo nell’immediato. In altre parole l’esigenza di avere i dati sempre disponbili (anche per esigenze di sicurezza e compliances) rende necessaria una revisione dei processi di memorizzazione, spostamento e archiviazione.
La pianificazione legata allo storage potrebbe rappresentare, per le aziende che stanno cavalcando l’onda dei Big Data o dell’Intelligenza Artificiale, un rischio: trattandosi di task “data intensive” è necessaria un’adeguata infrastruttura a supporto ma la sua programmazione potrebbe risultare insufficiente per i più avanzati workload, con conseguente rischio operativo derivante dalla non disponibilità dei dati; di contro, anche una pianificazione sovrastimata apre le porte a dei rischi, da quello economico a quello della gestione dei sistemi.
L’over provisioning degli array per distribuire e proteggere i workload, oggi non ha più senso: l’intelligenza delle tecnologie di Machine Learning consentono di gestire al meglio i rischi legati alla disponibilità del dato perché consente di prevedere le esigenze legate alla capacità e alle prestazioni nel tempo dello storage e persino di modellare e aggiornare i sistemi hardware di conseguenza. Ecco allora che il Risk Management, in quest’ottica, diventa esso stesso un elemento di valore.
Big Data, Intelligenza Artificiale, Risk Management: investire sui dati puntando sul self-driving storage
Se l’investimento sui dati è la via strategica per accelerare la Digital Transformation delle aziende, è sempre sui dati che si concentra l’investimento tecnologico necessario con Big Data, Intelligenza Artificiale e Risk Management che possono confluire non solo in soluzioni applicative per il business ma anche in nuovi paradigmi infrastrutturali come quello del self-driving storage.
Il principio base è l’eliminazione delle operazioni manuali, risultato oggi possibile grazie alle tecnologie come il Cloud, l’Intelligenza Artificiale, il Machine Learning e l’IoT che consentono alle aziende di raccogliere e analizzare dati da qualsiasi fonte, di qualsiasi dimensione e natura e in qualunque luogo. Tutti dati che rappresentano il patrimonio attraverso il quale risolvere in modo dinamico i problemi e l’ottimizzare dei carichi di lavoro, consentendo allo storage di diventare “adattivo” e persino predittivo. Si passa da un modello esperienziale per la definizione delle necessità future ad uno che legge i comportamenti della propria infrastruttua e aiuta a capire in quale punto adoperare cambiamenti e anche simulare gli effetti degli stessi ad ampio spettro.
I dataset raccolti da sensori, macchine e dispositivi, le performance applicative, l’utilizzo dei servizi digitali e tutto ciò che “incide” in qualche modo sullo storage, viene analizzato attraverso avanzate tecnologie di Analytics, Machine Learning e Intelligenza Artificiale allo scopo di innescare un meccanismo di auto apprendimento ed auto adattamento degli array (con l’ottimizzazione automatica dei caricihi di lavoro) in funzione delle informazioni raccolte, allertando preventivamente i vari responsabili in caso di “anomalie” che potrebbero generare malfunzionamenti o incidere sulle prestazioni dello storage (e quindi dei workload).
Pure Storage, sul fronte del self-driving storage, parla addirittura di “DNA dei workload” ovvero profili dei workload basati su un’analisi approfondita di migliaia di caratteristiche di performance. Da questo set di profili, che viene continuamente perfezionato, è possibile fornire alle aziende importanti informazioni sui requisiti relativi alle performance e alla capacità dei workload, relegando il Risk Management legato alla pianificazione dello storage a semplice “attività gestita” e supportata da veri e propri modelli di Machine learning.