Secondo i primi modelli di architettura IoT, i dispositivi alla periferia della rete rappresentavano semplicemente degli strumenti per raccogliere dati, mentre le risorse di calcolo necessarie a elaborare quei dati e analizzarli per trarne informazioni utili al business erano concentrati nei corporate data center oppure nel cloud. Una simile architettura si è tuttavia presto rivelata incapace di far fronte all’aumento esponenziale dei device installati, e dunque dei dati raccolti; è cresciuta la consapevolezza che per gestire ambienti IoT complessi, evitando alti tempi di latenza legati al trasferimento dei dati, sarebbero serviti sistemi in grado di distribuire l’intelligenza anche in periferia, dunque piattaforme IoT concepite seconde le logiche dell’edge computing (nel contesto dell’IoT, un modello di computing in cui le risorse di calcolo sono posizionate e attivate in prossimità delle fonti dei dati, gli oggetti dell’IoT).
Tra le tante caratteristiche che una piattaforma IoT deve avere – sul piano computazionale, applicativo, della connettività, della capacità di analisi e della sicurezza – per essere performante, il corretto posizionamento delle risorse di calcolo nella rete è certamente tra quelle fondamentali.
Dove posizionare la capacità di calcolo?
A partire da questa premessa si sviluppa il report Hpe and IoT Compute at the Edge di Esg, da cui traiamo alcune sottolineature integrando e confrontando i contenuti con altri documenti prodotti dalla stessa società di ricerca sul tema (Hpe Enterprise and IoT Connectivity e How to Choose an IT Platform to Empower Your Internet of Things). Le aziende sono ormai consapevoli che il potenziale di business legato all’IoT è enorme (Figura 1). Tuttavia per raccogliere un reale vantaggio competitivo è necessario affrontare alcune sfide tecnologiche, tra cui appunto quella legata all’edge computing: in quanto incontro tra mondo digitale e mondo fisico, le iniziative IoT richiedono un nuovo modo di pensare insieme l’It e l’Ot-Operational technology [categoria di hardware e software che monitorano e controllano le performance dei device fisici-ndr], creando una convergenza soprattutto ai margini della rete, “il vero punto di intersezione tra It e Ot – dice il report – la giuntura critica dove le informazioni provenienti dal mondo fisico vengono tradotte in dati” (Figura 2). Questi margini non sono più solo “qualcosa che dev’essere gestito”; diventano, ospitando parte della capacità di calcolo, la chiave per massimizzare la velocità degli insights. Ma come scegliere quali dati elaborare nell’edge e quali invece trasmettere al data center o in cloud per una lavorazione successiva?
Ecco secondo Esg alcune domande preliminari per studiare una distribuzione adeguata e di seguito alcuni punti critici da tenere in considerazione:
- What – qual è il processo aziendale su cui si sta cercando di avere un impatto? Che tipo di dati abbiamo bisogno, quali dobbiamo salvare e quali no?
- Why – perché abbiamo bisogno dei dati? Ad esempio, stiamo usando le informazioni per migliorare un processo del mondo fisico o per trovare delle evidenze utili all’azienda su un piano finanziario o di gestione clienti?
- When – con quale frequenza abbiamo bisogno di raccogliere dati e che tempi abbiamo – mesi, giorni, ore, secondi, millisecondi – per elaborarli e trasformarli in evidenze utili al business? Più i tempi sono rapidi più una potenza di calcolo vicina ai punti di raccolta dei dati può risultare fondamentale per ridurre la latenza legata all’invio delle informazioni al data center o all’ambiente di cloud computing.
Solo fatte queste riflessioni sarà quindi possibile rispondere al quesito:
- Where – dove localizzare le risorse di calcolo? Quali collocare nell’edge?
Vanno considerati nel rispondere alcuni elementi di riflessione:
Larghezza di banda: l’invio di grandi quantità di dati, come immagini e video, nel cloud o in un data center aziendale potrebbero richiedere larghezza di banda e velocità di connessione non disponibili o proibitive sul piano dei costi. Spostare le risorse di calcolo al margine rende possibile elaborare e filtrare i dati per non sovraccaricare la banda.
- Profondità d’analisi e velocità: le analisi possono essere rapide (es. una risposta binaria: una certa valvola è aperta o chiusa?) o complesse, che richiedono cioè l’elaborazione di un set di dati molto più ampio (es. misurare l’operatività e le performance finanziarie a lungo termine delle apparecchiature di un ambiente industriale). È necessario stabilire il giusto compromesso tra la complessità dell’analisi e l’immediatezza della stessa: se serve profondità d’analisi, ma la rapidità non è fondamentale, spostare tutta l’intelligenza nel data center o nel cloud può essere più appropriato. Il ricorso all’edge computing diventa necessario quanto più le iniziative IoT diventano sofisticate, ovvero quanto più complessità e immediatezza diventano entrambe imprescindibili.
- Sicurezza e conformità: Più l’edge della rete si fa ricco di endpoint, a maggior ragione se si carica anche di intelligenza, più sono necessarie risorse di sicurezza ai margini della rete. Nessun dato in un ambiente IoT può essere condiviso con altre applicazioni, sistemi o servizi se non si è certi che il device che ha raccolto il dato e la connettività grazie a cui questo può transitare nella rete sono sicuri. Diversamente i rischi sarebbero moltissimi; tra gli altri, la sottrazione di dati sensibili o personali (tema d’attenzione anche in relazione al Gdpr) e, laddove non ci si accorgesse di un’avvenuta compromissione degli stessi, quello di prendere decisioni aziendali basate su informazioni non attendibili. Anche la sicurezza in un sistema IoT deve dunque essere distribuita; è necessario un approccio end-to-end, dai margini sino al cuore dell’architettura aziendale, che includa la sicurezza dei dispositivi, dei sistemi che consentono la distribuzione, la gestione e l’archiviazione dei dati e del network nel suo complesso.