Open Source

L’edge computing è open e non esiste senza il cloud ibrido aperto

Qualunque sia il carico di lavoro edge, l’esigenza è la stessa: risposte più rapide per servizi più tempestivi. Ma l’edge computing non esiste senza il cloud ibrido e ha bisogno di un approccio “open”. L’opinione di Paul Cormier, Executive Vice President and President, Products and Technologies, Red Hat

Pubblicato il 03 Mar 2020

open-source

Lo scorso anno abbiamo visto un aumento delle applicazioni che spingono l’IT aziendale (letteralmente) al limite, dall’utilizzo di veicoli autonomi guidati dall’intelligenza artificiale (AI) a vaste reti di sensori che si affidano al 5G per connettività e tempi di reazione istantanei in caso di emergenza. Che si tratti dell’Internet delle cose (IoT), del fog computing o dell’edge computing, l’intento è quello di avvicinare le risorse di calcolo e lo storage all’utente finale o alla fonte dei dati per migliorare la scalabilità, la reattività e l’esperienza complessiva del servizio.

L’edge può essere considerato il perimetro IT più recente, un’estensione del data center proprio come il bare metal, gli ambienti virtuali, il cloud privato e pubblico. In un certo senso, l’edge computing è la somma di queste quattro realtà, fondendo elementi di ciascuna di esse per creare un’infrastruttura volta ad affrontare richieste specifiche dei clienti che i modelli IT tradizionali non sono in grado di soddisfare. Ma, a differenza degli altri ambiti, l’edge computing si contraddistingue per due fattori chiave:

  • non esiste senza il cloud ibrido.
  • le sue fondamenta devono essere aperte o fallirà.

Affermazioni forti? Certo, ma dal mio punto di vista sono del tutto accurate. Se l’edge computing sarà uno sviluppo concreto per l’IT aziendale, ha bisogno del cloud ibrido E dell’open source per prosperare.

Perché l’edge computing è “ibrido o morto”

L’edge computing rivoluziona il concetto di cloud computing. Laddove le implementazioni “tradizionali” del cloud si basano sulla creazione di un’unica infrastruttura in grado di crescere in base alle esigenze aziendali, edge si concentra sul “ridimensionamento” geografico.

Si potrebbe trattare di server di piccole dimensioni su cell tower, sensori che monitorano una rete energetica globale o sistemi di automazione di fabbrica di prossima generazione che anticipano le esigenze di manutenzione. Qualunque sia il carico di lavoro edge, l’esigenza è la stessa: risposte più rapide per servizi più tempestivi. eBay, ad esempio, sta adottando il calcolo edge decentralizzando i data center con l’intento di creare un’esperienza utente più veloce e coerente, spostando i dati e i servizi online più vicini agli utenti.

Data la natura eterogenea dell’edge computing, la coerenza è fondamentale: un’implementazione edge potrebbe teoricamente essere costituita da centinaia di migliaia di minuscoli sensori connessi a un data aggregation tier per fornire un feedback in tempo reale rispetto a ciò che i sensori stanno effettivamente monitorando. È praticamente impossibile gestire ciascuna di queste implementazioni se non condividono un control plane più sicuro attraverso l’automazione, la gestione e l’orchestrazione.

Questa coerenza è offerta dal cloud ibrido – dai dispositivi edge alla rete fino al datacenter centralizzato, un’implementazione hybrid cloud assicura coesione a quella che altrimenti sarebbe una pura follia in un ecosistema tecnologico offrendo a questi componenti una base comune su cui poggiare, che si tratti di Linux, Kubernetes o Ansible, consentendo ai team IT di gestire diecimila dispositivi in rete proprio come farebbero con l’IT centralizzato.

Aperto, non chiuso: vero nel datacenter, vero all’edge

L’innovazione può essere facilmente paralizzata dalla frammentazione e, peggio ancora, dall’introduzione di modelli “proprietari” o a nucleo aperto. Si può guardare indietro di 25 anni a UNIX per vedere quanto sia stata dolorosa questa sfida in cui ogni fornitore aveva il proprio sistema operativo che funzionava solo sui loro hardware. L’introduzione di Linux a livello enterprise ha spezzato questa catena, e ha dato il via a un ciclo di innovazione, portando la virtualizzazione, il cloud computing, i container, Kubernetes e, ora, all’edge.

Se questa innovazione è limitata da tecnologie “edge edition” piuttosto che essere guidata da standard comuni e aperti in tutto il settore, la frammentazione torna a presentarsi. Ed è qui dove Red Hat, insieme ai partner, sta portando avanti il concetto di edge – attraverso la creazione di standard nelle comunità upsteam e nei gruppi di lavoro come LF Edge, Kubernetes Edge & IoT, OpenStack Edge, Akraino Edge Stack, OPNFV e altri ancora.

Questo non significa che ogni soluzione edge si baserà su tecnologie open source. L’impegno verso l’open source non si applica solo quando è conveniente o quando arriva qualcosa di nuovo e brillante, come l’edge computing. Allo stesso tempo, inserire funzionalità proprietarie su un “nucleo aperto” è antitetico agli standard dell’open source – mezzo aperto è completamente chiuso, che si tratti di un sistema operativo o di un ambito edge.

La visione edge di Red Hat: innovativo, ibrido e aperto

Red Hat ha contribuito allo sviluppo dei primi standard Linux in azienda, trasformando la piattaforma nella scelta primaria per l’innovazione nei datacenter e i carichi di lavoro in produzione, e abbiamo contribuito ad alimentare l’adozione di KVM come piattaforma di virtualizzazione aperta per il business computing.

Ora, mentre noi e il mondo del business volgiamo lo sguardo verso la periferia della rete, vediamo un’altra ondata di innovazione. La promessa e la potenza dell’edge computing sono reali e Red Hat, insieme alle comunità open source e all’ ecosistema di partner, intende aiutare il mondo delle imprese a cogliere questa opportunità senza temere la frammentazione o il lock in.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5