TECHTARGET

Data center perimetrali: quali sono i problemi dell’edge computing e come affrontarli e risolverli

I data center perimetrali riducono i tempi di elaborazione e migliorare le prestazioni delle applicazioni. L’importante è non dare per scontata questo tipo di architettura. Gli esperti puntano i riflettori sulle 8 sfide a livello di rete poste dall’edge computing

Pubblicato il 28 Gen 2021

data center perimetrale

Data center perimetrali localizzati in prossimità di situazioni elaborative agganciate ad esempio, ai dispositivi IoT o ad altre situazioni in cui serve potenza di calcolo senza rischi di latenza. La dinamica altalenante di un IT centralizzato e di un IT decentralizzato, mostra i limiti del primo sul secondo. Soprattutto quando si tratta di gestire centinaia o migliaia di server che eseguono applicazioni in data center consolidati. Nuovi tipi di carichi di lavoro associati a un’elaborazione distribuita unitamente all’avvento dell’Internet delle cose hanno spostato il calcolo verso i confini della rete.

Data center perimetrali per una governance strategica

Invece di centralizzare tutta la potenza di calcolo nel data center, le aziende stanno scoprendo i vantaggi dell’elaborazione ai margini. I data center perimetrali, infatti, avvicinano il calcolo laddove si accumulano i dati. Il che comporta una nuova serie di sfide a livello di rete.

data center perimetrali

8 sfide dell’edge computing da considerare

Vediamo quali sono le sfide principali da considerare:

#1. Larghezza di banda di rete

La larghezza di banda della rete cambia man mano che le aziende spostano verso il perimetro elaborazione e dati. In genere le aziende assegnano una larghezza di banda maggiore ai data center e una larghezza di banda inferiore agli endpoint. L’edge computing, al contrario, determina la necessità di una maggiore larghezza di banda in tutta la rete.

#2. Calcolo distribuito

Rispetto alla potenza di calcolo è necessario considerare l’edge location come un aspetto aggiuntivo. I modelli computazionali consolidati stanno lasciando alla rete un ruolo chiave rispetto all’elaborazione. L’infrastruttura edge, infatti, deve essere dimensionata in modo appropriato. Il calcolo distribuito in un micro data center perimetrale, ad esempio, può richiedere risorse tanto quanto in un data center centralizzato.

#3. Latenza

Nell’edge computing il calcolo è più vicino ai dati raccolti per cui la latenza dell’applicazione viene ridotta analogamente alla latenza del processo decisionale. Meno movimenti avanti e indietro dal bordo al centro significano risposte più veloci e azioni più tempestive. Tuttavia, con il calcolo situato sia al centro che all’edge, i dati dell’applicazione attraversano la rete in ogni direzione, condividendo i dati e gestendo i diritti di accesso. Il che apre il discorso al tema della sicurezza.

#4. Sicurezza e accessibilità

Con l’elaborazione e le applicazioni centralizzate in un data center, le aziende possono standardizzare sia la sicurezza tecnica che la sicurezza fisica, costruendo un muro virtuale attorno alle risorse. L’edge computing cambia l’impronta di sicurezza, richiedendo ai server remoti ubicati nei data center perimetrali di avere la stessa rete e gli stessi modelli di sicurezza fisica in modo da corrispondere alla posizione e ai modelli di traffico. I team IT dovranno mappare chiaramente l’accesso degli utenti, poiché l’edge computing potrebbe richiedere diritti di accesso per gli utenti su un numero significativamente maggiore di dispositivi.

#5. Backup

Il modello di edge computing è tipicamente guidato dal punto in cui vengono generati i dati. Le aziende necessitano di una strategia di protezione di queste informazioni globale, con una comprensione dei dati, indipendente dalla loro posizione. I requisiti di larghezza di banda della rete saranno tanto critici quanto le valutazioni relative ai supporti di archiviazione. Per proteggere queste risorse, infatti, non ha senso considerare le policy di backup sulla rete.

#6. Accumulo di dati

I dati sono una risorsa aziendale fondamentale e raccoglierli a livello perimetrale porta nuove sfide e può creare passività se non vengono gestiti in conformità con le regole di gestione dei dati esistenti. L’archiviazione e l’accesso ai dati sono fondamentali. Entrambi dovranno includere la rete come parte del ciclo di vita dei dati.

#7. Controllo e gestione

All’interno di un’organizzazione l’edge location può essere flessibile. È possibile includere un cloud privato o un cloud pubblico, ma la gestione e il controllo devono seguire le stesse procedure e protocolli, indipendentemente dalla edge location del data center perimetrale fisico. Idealmente, le aziende utilizzeranno strumenti di orchestrazione di ultima generazione per aiutare a gestire e controllare le applicazioni in modo coerente, indipendentemente dalla locazione.

#8. Scalabilità

L’aggiunta di più dispositivi connessi all’edge aumenta l’economia di scala complessiva su cui lavorano i team IT. L’edge computing non riguarda semplicemente la quantità di server perimetrali ma anche una scalabilità a livello di elaborazione, di rete, di archiviazione, di gestione, di sicurezza, di licenze e via dicendo. Le aziende devono comprenderlo quando spostano le applicazioni sul perimetro della rete. I data center perimetrali, infatti, non prevedono solo più hardware in una posizione remota. L’impatto si estende a tutto l’ecosistema di risorse coinvolto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4