TECHTARGET

Spine-Leaf architecture: che cos’è, come funziona e perché potenzia le connessioni dei data center

Spine-leaf architecture come soluzione che aiuta a tagliare i costi, ridurre l’impronta di carbonio e ottimizzare il traffico di rete per i data center. Gli esperti spiegano come mai questa architettura di networking sta diventando uno standard

Pubblicato il 10 Gen 2023

Spine-Leaf architecture

Spine-leaf architecture che, come topologia di rete, viene utilizzata sempre più spesso nei data center per vari motivi. Oltre a dover supportare le richieste di un traffico dati in continua crescita e tecnologie in evoluzione (come ad esempio la blockchain), i data center devono gestire il loro impatto ambientale. I responsabili del CED per gestire il passaggio da modelli incentrati sui sistemi di archiviazione e una fruizione dei dati asincrona a modelli incentrati sull’analisi in tempo reale e sull’elaborazione dei dati on demand, devono rivedere le proprie architetture di rete. È vero che i data center in colocation offrono la migliore combinazione in termini di scalabilità, disponibilità e controlli ambientali a supporto delle blockchain. Tuttavia, molti data center stanno iniziando ad adottare architetture di networking differenti, come nel caso della Spine-leaf architecture, ovvero una configurazione di collegamento degli switch di tipo dorsale/foglia.

Spine-leaf architecture: che cos’è e come funziona

La Spine-leaf architecture si configura attraverso due livelli di commutazione:

  • Il primo è il cosiddetto livello foglia, costituito da una serie di switch di accesso che aggregano il traffico proveniente dai server e si connettono direttamente alla spina dorsale o al nucleo della rete.
  • Il secondo livello è una dorsale costituita da switch interconnessi a tutti gli switch foglia, secondo una topologia full-mesh.

Scegliere una Spine-leaf architecture significa passare ai server virtualizzati, sostituendo l’hardware vecchio e inefficiente per garantire che i data center possano tenere il passo con tutti i nuovi requisiti aziendali. In questo modo è possibile ridimensionare e semplificare l’operatività, ridurre l’impronta di carbonio e massimizzare l’efficienza.

I limiti dell’infrastruttura del data center tradizionale

Le reti private ospitate all’interno di un data center utilizzano un’infrastruttura e un’architettura ottimizzate per la comunicazione nord-sud tra client e server attraverso switch core, distribuzione, aggregazione e accesso.

La virtualizzazione e altre applicazioni server complesse aumentano le comunicazioni server-server, o comunicazioni est-ovest, che possono sovraccaricare il traffico di comunicazione, comportando colli di bottiglia rispetto alla larghezza di banda e una latenza imprevista a causa del sovraccarico degli switch. Quando un’azienda si caratterizza per un uso intensivo di reti decentralizzate, le infrastrutture tradizionali risultano inadeguate.

Reti decentralizzate e Spine-leaf architecture

Le reti decentralizzate, come nel caso della blockchain, delle connessioni Internet o degli archivi informativi associati alle applicazioni dei Big Data, si affidano a una rete ininterrotta e indipendente dalla locazione. Queste risorse devono sempre rimanere altamente disponibili e l’infrastruttura su cui si trovano deve essere sufficientemente efficiente da poter gestire i picchi di traffico di routine. I data center che gestiscono blockchain e processi ad alto contenuto di dati, infatti, richiedono un’infrastruttura adeguata nel gestire un’elevata larghezza di banda intermittente simultanea.

In questo contesto, i livelli core di aggregazione e di accesso dei data center tradizionali non sono in grado di gestire questi tipi di carichi di lavoro in modo efficiente. Usano protocolli spanning tree per prevenire i loop di traffico, rilevando i loop e bloccando le connessioni o i collegamenti che li formano portando alla creazione di colli di bottiglia ma anche a tempi di latenza o di inattività anche molto significativi.

Modifica dei modelli di traffico nel data center

La Spine-leaf architecture trasforma un data center tradizionale in uno in grado di gestire il traffico omnidirezionale. Superando i limiti del modello di traffico tradizionale, questo approccio orizzontale alla progettazione della rete vede ogni switch raccogliere e consolidare il traffico proveniente dai client per inviarlo attraverso una linea di rete centrale al server. Questa configurazione consolida il traffico di rete in pacchetti e li sposta tra i server in modo più efficiente perché i dispositivi non devono più attendere connessioni server aperte.

Più in dettaglio, nella Spine-leaf architecture orizzontale – o est-ovest – gli host sono equidistanti e ogni singolo host può parlare con un altro host sullo stesso switch foglia. Il traffico si sposta in modo prevedibile attraverso il dorso fogliare, il che è un requisito chiave per:

  • i cluster di elaborazione ad alte prestazioni
  • le applicazioni Web multilivello
  • qualsiasi altro servizio o applicazione dipendente dall’attività in tempo reale e dalla bassa latenza

Gli strumenti di monitoraggio della rete, inoltre, possono aiutare a ottimizzare i modelli di traffico attraverso il dorso fogliare e ridurre ulteriormente la latenza. Tecnologie aggiuntive, come Shortest Path Bridging e Transparent Interconnection of Lots of Links, consentono a tutti i collegamenti tra foglie e spine di inoltrare il traffico. Ciò significa che la rete può ridimensionarsi automaticamente man mano che il traffico aumenta. In più, con queste tecnologie, i proprietari delle strutture possono raccogliere statistiche esatte per la stima dei costi.

Ridurre la spesa tecnologica grazie alla Spine-leaf architecture

Le reti di data center tradizionali utilizzano opzioni di connessione molti a meno tra i livelli di switch, il che può far aumentare i costi. Le architetture più recenti riducono i costi aumentando il numero di connessioni che ogni switch può gestire. I data center richiedono meno hardware perché gli switch più recenti possono trasportare e accettare il traffico da qualsiasi direzione in modo che le organizzazioni non sprechino connessioni e larghezza di banda.

Utilizzando la Spine-leaf architecture, chi gestisce i data center può risparmiare ampiamente sulle spese considerando anche i minori costi di implementazione e manutenzione. La scalabilità e l’efficienza del dorso fogliare significano meno dispositivi da implementare e mantenere, richiedendo meno risorse.

Riduzione dell’impronta di carbonio e del fabbisogno energetico

In termini di business, oggi le aziende hanno hardware che lavorano in maniera intensiva e più a lungo, con un surriscaldamento notevole. Di conseguenza, i data center tradizionali richiedono più raffreddamento e consumano più energia in generale. Rispetto a quelle tradizionali, le architetture più recenti spostano i dati più velocemente, ottimizzano i modelli di traffico e utilizzano hardware che genera meno calore. Pertanto, anche i server virtualizzati che si surriscaldano di più rispetto a quelli non virtuali generano complessivamente meno calore perché possono eseguire lo stesso carico di lavoro con meno server.

La Spine-leaf architecture in questo senso è più sostenibile perché riduce il numero di salti nel design di una rete, richiedendo meno switch di aggregazione e percorsi ridondanti tra gli switch di accesso e di interconnessione. I requisiti di latenza e alimentazione diminuiscono con il dorso fogliare, riducendo notevolmente il raffreddamento complessivo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati