Qualsiasi progetto di big data prevede la presenza di una mole significativa di dati che possono includere anche contenuti sensibili o di identificazione personale. Affrontare la sicurezza dei big data nel cloud computing richiede quindi l’applicazione di diverse best practices.
Ogni azienda che memorizza i dati deve occuparsi di alcuni aspetti specifici che possono avere un impatto su:
- Data Security. Il set di dati è protetto contro lo spionaggio o il furto? Cosa succede all’azienda se i dati entrano in possesso di persone non autorizzate?
- Data integrity. Il set di dati è protetto da alterazioni o cancellazioni? Cosa succede all’azienda se qualche dato viene modificato, portando ad un risultato inaspettato o impreciso nella big data analysis?
- Data processing. Il set di dati è protetto all’interno dell’infrastruttura informatica? Qualsiasi parte dell’infrastruttura informatica può essere violata esponendo potenzialmente i dati o i risultati?
Questi tre temi possono tutti impattare sulla sicurezza dell’organizzazione, sulla governance aziendale e sulla compliance normativa. La sicurezza del cloud pubblico è una responsabilità condivisa, che richiede che gli utenti del cloud adottino misure per garantire che qualsiasi implementazione di big data sia adeguatamente protetta, configurata e distribuita.
Come proteggere i big data nel cloud
Ci sono diverse best practices comuni per la sicurezza dei big data nel cloud computing finalizzate alla protezione dei set di dati e delle infrastrutture di big data.
1. Prestare attenzione all’architettura
Progettare l’infrastruttura di calcolo e di servizi di big data con attenzione e capire come i dati e il traffico di rete fluiscono nell’infrastruttura limitando anche il numero di punti che gli hacker potrebbero attaccare. Documentare l’infrastruttura e impostare la sua configurazione utilizzando strumenti di cloud pubblico consolidati, come AWS Config e Azure App Configuration.
2. Adottare il principio del minimo privilegio
Impiegare l’autenticazione completa e l’autorizzazione per tutti i dati e per l’accesso al calcolo, non utilizzare mai applicazioni, strumenti o servizi che non permettono autenticazione o autorizzazione. Applicare sempre logiche di minimo privilegio per limitare l’accesso ai dati e alle risorse. I team IT possono applicare queste strategie sia a livello di gruppo che individuale, a seconda delle necessità.
3. Crittografare i dati
Crittografare i dati anche durante la fase di trasmissione in modo che, se un soggetto non autorizzato riesce ad accedere a un set di dati, essendo crittografati risulterebbero inutilizzabili. Grazie alla crittografia e ad alcune tecniche comuni come Transport Layer Security o Secure Sockets Layer si evitano lo snooping e l’alterazione dei dati. I team IT possono crittografare i dati prima dell’archiviazione, all’interno del database, sui dischi o anche sfruttare una combinazione di strumenti in modo da soddisfare i requisiti aziendali.
4. Monitorare l’ambiente di storage e calcolo
Sviluppare una strategia di monitoraggio del cloud per tracciare l’ambiente di archiviazione e di calcolo. Gli strumenti di monitoraggio nativi del cloud, come ad esempio Amazon CloudWatch, Azure Monitor e la suite Google Cloud Operations, possono raccogliere dati di monitoraggio e operativi per costruire registri e supervisionare metriche ed eventi. Usare dashboard e log di controllo per identificare le attività dannose legate all’implementazione del cloud. Con l’aumento degli attacchi di cyber security man mano che sempre più aziende si spostano verso il cloud, per individuare eventuali attività di hackeraggio è opportuno usufruire di altri strumenti del provider, come i sistemi di rilevamento e prevenzione delle intrusioni.