Seco Point of View

Perché Kubernetes è la piattaforma per affrontare le sfide dell’IoT

Nel loro percorso di trasformazione digitale, le imprese si trovano ad affrontare diverse complessità. CLEA, la piattaforma di SECO nativa Kubernetes è la soluzione per costruire applicazioni IoT customizzate sulle proprie esigenze

Pubblicato il 05 Set 2023

iot-platform

Molte organizzazioni, oggi, stanno intraprendendo un percorso di trasformazione digitale. L’obiettivo principale è cambiare la modalità con cui si connettono con clienti, fornitori e partner. Le stesse, inoltre, sfruttano le potenzialità offerte da tecnologie innovative come le piattaforme IoT, la big data analytics e il machine learning per modernizzare i propri sistemi IT e OT.

Al tempo stesso, le aziende sono consapevoli che la complessità dello sviluppo e dell’implementazione di nuovi prodotti digitali richiede un’innovazione di processo strutturale. Le applicazioni moderne vengono sempre più spesso sviluppate con i container, ovvero microservizi inseriti in pacchetti insieme alle relative dipendenze e configurazioni. Quando le applicazioni crescono, occupando più container in diversi server, la gestione diventa più complessa.

Per affrontare questa complessità, servono strumenti di sviluppo e infrastrutture agili come Kubernetes.

La piattaforma open source Kubernetes, oggi, è il framework di orchestrazione dei container Linux più utilizzato negli ambienti di sviluppo del cloud privato, pubblico e ibrido e, più in generale, la scelta primaria dei team di sviluppo che desiderano orchestrare le architetture a microservizi.

Di fatto, container e Kubernetes sono considerati ormai uno standard nello sviluppo delle applicazioni cloud native e le loro tecnologie sono disponibili nell’offerta di tutti i CSP (Cloud Service Providers). Kubernetes, tuttavia, non offre soltanto un approccio per pianificare e distribuire questi contenitori, ma anche la possibilità di ridimensionarli fino allo stato desiderato e gestire i rispettivi cicli di vita. Quindi è possibile usare Kubernetes per implementare le applicazioni basate su contenitori in modo portabile, scalabile ed estendibile.

In effetti, Kubernetes consente di affrontare molte delle complesse sfide che i team di sviluppo si trovano a gestire durante la creazione e l’implementazione di soluzioni IoT.

Le potenzialità di Kubernetes con le procedure DevOps

Le esigenze dei clienti e del mercato richiedono spesso che le soluzioni IoT abbiano la capacità di implementare rapidamente nuove funzionalità e aggiornamenti. Kubernetes fornisce un modello di distribuzione unificato che consente ai team DevOps di testare e distribuire rapidamente e automaticamente nuovi servizi. L’uso delle procedure DevOps per l’integrazione continua (CI) e la distribuzione continua (CD) negli ambienti Kubernetes consente di agire rapidamente su larga scala con sicurezza avanzata.

La piattaforma supporta distribuzioni senza tempi di inattività sotto forma di aggiornamenti continui. Ciò consente di mantenere aggiornate le soluzioni IoT mission-critical senza alcun impatto sugli utenti finali. Gli sviluppatori e i DevOps engineer utilizzano Kubernetes per automatizzare le operazioni di deploy, scalabilità, manutenzione, pianificazione ed esecuzione di istanze dei container.

I vantaggi di Kubernetes per l’IoT

Il crescente impiego di Kubernetes nelle applicazioni IoT è dovuto a una serie di importanti vantaggi che la piattaforma comporta. Grazie all’utilizzo di un’architettura consistente, Kubernetes consente di scalare in modo semplice ed efficiente la propria soluzione dal proof of concept all’intera flotta di dispositivi, indipendentemente dalle scelte di implementazione, permettendo, quindi, di registrare e aggiornare milioni di dispositivi contemporaneamente. Inoltre, la flessibilità di Kubernetes permette di gestire servizi sul cloud privato, pubblico e ibrido.

La portabilità della piattaforma ne fa la soluzione ideale anche per le aziende che decidono di passare ad ambienti multicloud, in cui si combinano più servizi cloud – pubblici o privati – offerti da diversi fornitori. Le soluzioni multicloud sono vantaggiose per vari motivi: dai risparmi sui costi derivanti dall’eliminazione della necessità di inviare i dati a cloud o data center, alla facilità di containerizzazione delle operazioni dell’infrastruttura di rete centrale, al miglioramento dell’esperienza utente e all’aumento delle prestazioni grazie all’avvicinamento delle applicazioni ai consumatori, ai minori tempi di reattività su sistemi safety critical.

La containerizzazione, e nello specifico Kubernetes, permettono di concretizzare le promesse dei nuovi ambienti ibridi e multi-cloud, poiché garantiscono il funzionamento delle applicazioni in qualsiasi ambiente pubblico e privato, senza perdite funzionali o di performance. In questo modo, si riduce anche il rischio di lock-in.

Nello scenario IoT, gli edge server, grazie alla capacità di elaborazione di più dati generati più vicino agli utenti, rappresentano la prossima frontiera dell’innovazione, mentre la containerizzazione è la scelta logica per una varietà di verticali e aziende, come dimostrano già diversi casi di successo nei settori healthcare, oil and gas, manufacturing e Telecommunication.

Scalabilità ed elevata disponibilità

In sintesi, l’architettura di Kubernetes si compone di cluster, a loro volta costituiti da nodi, ognuno dei quali rappresenta una macchina host, cioè virtuale o fisica, chiamata a gestire i pod, cioè gruppi di container che condividono le stesse risorse di calcolo e la stessa rete. I pod rappresentano anche l’unità di scalabilità di Kubernetes.

La scalabilità è un fattore fondamentale per molte soluzioni IoT. La capacità di gestire migliaia o addirittura milioni di connessioni di dispositivi, l’invio di terabyte di dati e messaggi e la fornitura di servizi come l’analisi dei dati in tempo reale richiede infatti un’infrastruttura in grado di scalare verso l’alto e verso il basso.

Kubernetes offre la possibilità di ridimensionare automaticamente i pod nei cluster di rete. Se il traffico verso un container è alto, Kubernetes è in grado di distribuire il traffico su più container, in modo che il servizio rimanga stabile (Load Balancing).

Questo tipo di architettura è altamente compatibile con i microservizi, perché consente di avviare tutti i cluster necessari per automatizzare la gestione di un numero di container anche molto elevato, distribuiti nel cloud, la cui visibilità è fornita all’utente finale attraverso un’unica dashboard con la quale è possibile monitorare il corretto funzionamento dei container e pianificare tutte le operazioni necessarie per sviluppare e mantenere le applicazioni.

Gli elementi principali di Kubernetes sono dunque i cluster – l’insieme di nodi che eseguono i container degli utenti – che vengono implementati secondo la logica della cosiddetta high availability, ossia secondo una disponibilità elevata per garantire la maggior continuità di business possibile.

Molte soluzioni IoT sono, infatti, considerate sistemi business-critical e, in quanto tali, devono essere sempre affidabili e disponibili. Kubernetes fornisce gli strumenti necessari per distribuire servizi a disponibilità elevata. L’architettura ridondante della piattaforma assicura livelli di continuità del servizio con percentuali vicine al 100%, grazie ai quali Kubernetes viene considerato tra le soluzioni in alta affidabilità (HA) con le performance SLA (Service Level Agreement) più elevate.

Distribuzione nell’Edge IoT

Una tendenza chiave nel settore IoT è l’implementazione di servizi IoT direttamente sull’edge.

Sempre di più, oggi, l’edge rappresenta una tecnologia vincente per risolvere problemi di latenza e ampiezza di banda dovuti alla continua crescita del traffico dati e all’elevato numero di dispositivi IoT. Per alimentare l’innovazione, c’è l’esigenza che il computing si sposti dai data center centralizzati verso sedi periferiche, portando l’elaborazione più vicino alla fonte.

L’esecuzione dei servizi IoT in modo distribuito e decentralizzato rappresenta una nuova sfida di gestione per amministratori e sviluppatori di sistema, che Kubernetes consente di superare grazie a funzionalità aggiuntive che aiutano le aziende ad adottare strategie di edge computing basate su un cloud ibrido e aperto. Grazie a queste funzionalità edge, qualsiasi dispositivo IoT, un sensore o un apparecchio, può essere considerato uno strumento di computazione per Kubernetes ed essere visto dalla piattaforma in maniera trasparente, fornendo un modello di distribuzione coerente sia per IoT cloud che per IoT Edge.

Una community di sviluppatori sempre più ampia contribuisce a vario titolo alla crescita tecnologica di Kubernetes e alla diffusione nel mercato delle applicazioni cloud native. I progressi ottenuti stanno rendendo possibile la creazione di soluzioni IoT native per il cloud scalabili, affidabili e distribuite che fanno di Kubernetes una tecnologia chiave per l’abilitazione di soluzioni IoT.

I vantaggi di CLEA, la piattaforma nativa Kubernetes

A differenza di altre piattaforme e sistemi, le infrastrutture IoT costruite con tecnologie basate su Kubernetes permettono di scalare rispetto al numero di device o alla quantità di sensori in uso, e offrono flessibilità elevata nella distribuzione di servizi, dal cloud pubblico o privato fino ai device collocati all’interno del plant industriale dove i dati sono prodotti.

È il caso di CLEA di SECO , una IoT platform per la gestione di dispositivi remoti, l’acquisizione dei dati di campo, la loro “orchestrazione” e il deploy di modelli AI su edge e cloud.

Essendo una piattaforma nativa Kubernetes, CLEA possiede tutte le caratteristiche del prodotto, a partire da elevata affidabilità e scalabilità, e soprattutto garantisce un uptime server significativo e una logica di applicazione as-a-service non necessariamente possibile con altri sistemi o con soluzioni comparabili.

CLEA ha un core completamente Open Source e interamente basato su Kubernetes, che la rende non solo indipendente dal servizio di cloud hosting, ma anche distribuibile in scenari non cloud (on premise).

Essendo basata su una logica che le consente di non legarsi all’infrastruttura fisica sottostante, CLEA offre un controllo completo e un corredo di funzionalità che vanno ben oltre la tipica piattaforma IoT as-a-service (Paas). Possiede, infatti, tutti gli strumenti necessari per scalare ed evolvere nel tempo senza doversi preoccupare di complessità di gestione che hanno un impatto molto forte su tempi e costi di produzione.

CLEA è scalabile a qualsiasi volume di dispositivi connessi e messaggi scambiati, e trasforma i dati raccolti in valore tramite algoritmi di machine learning e modelli di AI, eseguiti sull’edge o in cloud.

Rispetto a sistemi comparabili, CLEA integra una gamma di servizi e soluzioni già pronti che consentono a developer e system integrator di costruire il proprio prodotto in maniera estremamente economica e rapida, offrendo un framework su cui sviluppare o personalizzare il proprio prodotto IoT.

Intorno a CLEA ruota, infatti, un ecosistema di aziende che costruiscono prodotti verticali, piattaforme di piattaforme, che contribuiscono all’allungamento della catena del valore di chi implementa prodotti digitali da immettere sul mercato.

Inoltre, chi sceglie CLEA può ricevere da SECO un valido supporto nella costruzione delle proprie soluzioni sia in ambito software che per l’hardware. Con la sua offerta end-to-end di prodotti e servizi specifici per l’industria 4.0, SECO può affiancare le aziende nel loro percorso di trasformazione digitale ed evoluzione IoT, proponendo gateway e sistemi plug-and-play che una volta installati, rendono i macchinari industriali CLEA-ready e abilitano la gestione intelligente della fabbrica con IoT e IA, integrando un toolset di plug-in e applicazioni di IA appositamente progettato per l’autonomous manufacturing.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4