Westpole Point of View

Dal cloud all’edge computing, le cose da sapere

I dati generati da un crescente numero di dispositivi alla periferia delle reti aziendali, principalmente IoT ma non solo, pongono la sfida di come governarne il flusso e l’elaborazione. La soluzione che si sta affermando è il cosiddetto edge computing che opera vicino al luogo dove i dati vengono generati, essendo troppo complesso convogliarli in forma rozza verso il cloud o ad altro sistema centralizzato. Di fatto l’edge effettua un parziale pre-trattamento dei dati prima di inviarli ai sistemi centralizzati con una divisione dei compiti fra elaborazione locale e centrale. Nell’articolo indicheremo gli aspetti principali di questo approccio e le sfide da affrontare, con l’aiuto di Luigi Capuano, Cloud Development Manager di Westpole

Pubblicato il 19 Set 2019

Foto di Luigi Capuano

Secondo le stime di Gartner, metà delle grandi organizzazioni svilupperanno progetti basati sui principi dell’edge computing entro il 2022, come conseguenza dei crescenti investimenti nella creazione di touch-point digitali per interagire con i clienti e, soprattutto, nella tecnologia IoT. Entro lo stesso anno verranno spesi 2,5 milioni di dollari ogni minuto nell’Internet of Things (IoT) e 1 milione di nuovi dispositivi IoT sarà venduto ogni ora. La società di ricerca prevede anche che, entro il 2021, il 65% dei fornitori globali di servizi di infrastruttura genererà il 55% delle proprie entrate attraverso servizi correlati all’edge computing.

Per rispondere a queste sfide, dovrà aumentare la capacità computazionale locale per assolvere compiti come elaborare e normalizzare i dati del field, prima che siano inviati all’interno del cloud, con tecnologie che dipendono dagli scenari di applicazione.

Field distanti da facility o centri abitati richiedono ad esempio la predisposizione di tecnologie in grado di erogare il servizio anche in assenza di corrente elettrica, rendendo necessario l’utilizzo di sistemi a batteria, alimentati da fonti rinnovabili. In questi casi la trasmissione del dato si dovrà basare su tecnologia mobile e la trasmissione dovrà essere particolarmente efficiente per tenere conto della limitata disponibilità del canale di trasmissione. Anche le logiche applicative dovranno effettuare cicli elaborativi limitati per aumentare l’efficienza e ridurre l’impatto energetico. Un field in condizioni ambientali difficili richiede infine una tecnologia protetta per resistere anche a condizioni meteorologiche avverse.

Un esempio tipico delle condizioni sopra descritte è il monitoraggio strutturale che di seguito descriveremo in dettaglio.

Il futuro sarà ibrido: cloud ed edge svolgono funzioni complementari

Nonostante alcune voci mettano in contrapposizione edge e cloud, andando a riprendere la storica dialettica fra computing distribuito e centralizzato, il mercato e gli analisti prevedono un futuro ibrido. “Ci sarà una distribuzione per capabilities e dunque architetture distribuite all’interno del cloud, dell’edge, on premise per rispondere a diverse esigenze”, dichiara Luigi Capuano, Cloud Development Manager di Westpole, che ci fa da guida nel descrivere l’evoluzione verso l’edge.

Foto di Luigi Capuano
Luigi Capuano, Cloud Development Manager di Westpole

Il cloud da un lato mette infatti a disposizione l’agilità necessaria per erogare servizi e funzioni per trattare il dato ed esporlo, fornendo, ad esempio: microservizi, funzioni e architetture serverless, data ingestion e loro trattamento, data lake per immagazzinare i dati che provengono da sorgenti eterogenee.

L’edge, d’altra parte, rappresenterà nel futuro il modo in cui si reperirà il dato dal field, verrà trattato prima di inviarlo a un repository centralizzato per diminuirne il carico, si metterà in sicurezza la trasmissione nel caso sia sensibile, ad esempio nelle situazioni dove siano presenti dati relativi ad un utente finale. “In questo caso l’edge dovrà assolvere anche al compito di fornire un canale sicuro di trasmissione verso il cloud” commenta Capuano, che sottolinea: “Sicuramente il cloud non è antagonista ma complementare ai paradigmi dell’edge computing che raccoglie i dati, li elabora, li rende disponibili all’interno del cloud per questioni di presentazione. Il cloud (privato o pubblico) integra i requisiti per sviluppare elaborazioni computazionali compatibili alla mole dei dati, ma integra anche nativamente una serie di strumenti per ricevere i dati e arricchirli in modo da essere presentati al business in una logica predittiva”.

I nuovi requisiti di sicurezza

Se sono in gioco dati sensibili è necessario lavorare in modo da utilizzare protocolli di trasferimento che garantiscano da eventuali violazioni della riservatezza. Aumenta al tempo stesso la necessità di immagazzinare i dati all’interno del cloud per averli disponibili in un ambiente che preveda la sicurezza integrata e sia progettato per tutelare dalle violazioni delle infrastrutture edge. Per ottenere questi risultati, Capuano suggerisce:

  • meccanismi di autenticazione dell’edge verso il cloud in grado di sostenere attacchi di forza bruta;
  • la segmentazione logica dei dati all’interno del cloud realizzata in modo da limitare eventuali violazioni dell’edge.

“Dal singolo edge non si devono ‘vedere’ i dati inviati dagli altri edge e immagazzinati nel cloud, una segmentazione che aiuta a gestire un’eventuale violazione” e non permette “azioni laterali”, precisa.Questo ragionamento trova una sua connotazione evidentemente nel mondo dell’IoT, dove i dispositivi (sensori o altro) vanno messi in sicurezza, al riparo da violazioni distribuite che ne fanno il mezzo per attacchi verso terze parti, come spesso la cronaca ha evidenziato.

Riassumendo, alcune soluzioni che Capuano suggerisce per proteggere dal rischio di violazione e quindi preservare autenticità, integrità e riservatezza sono:

  • meccanismi di autenticazione univoca, come chiavi distinte per ogni edge device ed aggiornamento su base regolare delle stesse mediante meccanismi di rotazione automatizzati;
  • soluzioni di crittografia, del dato o del mezzo di comunicazione (VPN);
  • soluzioni basate su intrusion prevention system per evidenziare prontamente se i dispositivi o il network sul campo siano diventati un mezzo per attaccanti che intendono aggredire target specifici, sfruttando le potenzialità computazionali dell’edge e la capacità trasmissiva.

Per meglio spiegare il funzionamento dell’edge computing porteremo come esempio il monitoraggio strutturale che prevede di configurare nel field sensoristica di differente natura per effettuare rilevazioni del vento, delle precipitazioni, delle sollecitazioni, immagini da telecamere…

grafico Monitoraggio Strutturale
Fonte: Westpole

I dati provenienti dai sensori vengono aggregati all’interno della piattaforma edge, presente sul campo, che provvederà ad effettuare un’elaborazione più o meno profonda:

  • al primo livello dovrà normalizzare il dato e poi formattarlo secondo un record funzionale agli scopi di analisi successiva;
  • in secondo luogo, se si potrà disporre di capacità computazionale adeguata,svolgerà funzioni di analytics per segnalare anomalie in merito alle sollecitazioni registrate e alla necessità di interventi immediati o pianificabili;
  • nel caso di informazioni sensibili, provvederà a crittografare il dato prima della sua trasmissione e a rendere sicura la trasmissione;
  • l’ultima fase prevede l’invio dei dati ad una piattaforma di aggregazione centralizzata per ulteriori elaborazioni.

Il cloud, come in precedenza indicato, svolge un ruolo complementare per:

  • mantenere i dati in sicurezza nei repository che saranno definiti per sottoinsiemi di pertinenza ai differenti edge node; ciò permette di mantenere isolati i vari contesti laddove si verifichi una violazione di un singolo edge da un punto di vista logico o fisico;
  • effettuare analisi di Machine Learning e Artificial Intelligence per correlare anomalie che si verifichino nel field (ad esempio con tecniche di image recognition) in modo da ridurre gli interventi manuali necessari per capire l’origine dell’anomalia;
  • offrire in dashboard, schematiche e riassuntive, i dati di sintesi, la capacità di effettuare un’analisi approfondita, al fine di permettere eventuali analisi ulteriori nel corso del tempo; sarà ad esempio utile indicare situazioni di criticità distribuite per geolocalizzazione, dati aggregati o riassuntivi (medie, picchi, …), necessità di manutenzione.
Grafico Architettura Sistema Monitoraggio
Fonte: Westpole

La scelta del partner per il servizio gestito

Da quanto fin qui detto emerge una elevata complessità di integrazione e di gestione dei diversi ambienti, il cui raccordo può configurarsi come servizio gestito, eventualmente erogabile da un system integrator che diventa partner di servizio. Il partner, che può essere anche un fornitore infrastrutturale, dovrà in ogni caso avere competenze in tutti gli ambiti coinvolti dalla soluzione: sensori, edge, cloud, network, sicurezza, gestione. Il partner dovrà, fra l’altro, governare gli skill set professionali necessari, orchestrare hybrid, multicloud e automazione, supportare lo sviluppo basato sui microservizi e la logica devops, garantire la sicurezza e la salvaguardia del dato, supportare lo sviluppo di nuovi modelli di elaborazione legati ad AI e ML,fornire soluzioni edge e IoT utilizzando le piattaforme più adatte, gestire le tematiche di networking a supporto dell’ambiente.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3