Operations

Come i Big Data possono aiutare a risolvere i problemi di rete

Utilizzando l’analisi dei Big Data è oggi possibile ottimizzare le operazioni del network. La chiave per il successo nell’uso dei grandi dati all’interno delle applicazioni di rete è concentrarsi sui problemi, non sui dati

Pubblicato il 12 Set 2013

data-supply-chain-131017163117

“La conoscenza è potere”, dice il proverbio, ma nessuno lo sa meglio di un amministratore di rete che c’è un’enorme differenza tra “informazione” e “conoscenza”. Questo vale a maggior ragione per i Big Data. Questi possono effettivamente essere visti come una moda dell’industria IT ma è parimenti evidente che la tecnologia può operare effettivamente la trasformazione delle informazioni “critiche” in vera e propria conoscenza.

Fortunatamente, ci sono alcune cose che un amministratore di rete può fare per ridimensionare il volume dei Big Data e sfruttarli come strumento per migliorare le operazioni di rete.

Nel networking, i dati grandi – l’enorme serbatoio di informazioni sul traffico, il trunking e i dispositivi che è disponibile su diversi sistemi di gestione e interfacce standard – sono raccolti da sonde calate all’interno di vari punti della rete, così come dallo strato software delle reti o all’interno di dispositivi client e server . Quando sono esposte all’interno di un framework, dotato di interfacce e sistemi di gestione standard, alcune di queste informazioni possono essere associate alle pratiche di gestione guasti, configurazione, accounting, prestazioni e sicurezza (FCAPS), ma la maggior parte delle aziende non è in grado di correlare i dati recuperati dai dispositivi o dalle sonde client/server con le attività di gestione corrente. Ecco, quindi, che c’è spazio per migliorare, con l’aiuto dei Big Data.

L’elemento più critico nel riuscire a sfruttare i Big Data in ambito networking è assicurare una tempistica dell’evento accurata per tutti gli elementi dei dati. La rete, infatti, è strutturata per essere gestita sulla base delle condizioni momentanee e delle giustapposizioni di eventi.

Una perdita di tempo a livello di sincronizzazione equivale alla perdita completa del contesto delle informazioni oggetto di analisi. Se tutti i dati raccolti sono tarati al rispetto della variabile “tempo” di una fonte comune, allora la sincronia relativamente a questo aspetto può ritenersi adeguata. In caso contrario, potrebbe essere utile introdurre gli eventi di sincronizzazione all’interno dell’analisi dei Big Data, per allineare il tempo di tutte le registrazioni a intervalli regolari.

Mappare per individuare i problemi
Una volta accertato che la “temporizzazione” degli eventi può essere correlata con precisione, il passo successivo è quello di stabilire una corrispondenza tra questa linea temporale comune e i problemi di rete. Informazioni circa le fonti del problema possono essere reperite dalle procedure FCAPS in uso, dalle lamentele degli utenti o dai sistemi di telemetria client/server.

Questi ultimi possono anche essere in grado di recuperare informazioni in merito alle prestazioni della rete quali il tempo di risposta, il tasso di perdita dei pacchetti e i ritardi (ad esempio, attraverso l’analisi delle dimensioni della finestra TCP). Tale mappatura permette di condurre un’analisi a livello di grandi dati, con lo scopo di esplorare la correlazione tra questi elementi “problematici” e le metriche rilevate nel periodo precedente il manifestarsi del problema.

Questo tipo di assessment dei Big Data può rivelarsi prezioso per l’analisi delle cause dei problemi di rete, cosa che spesso è quasi impossibile da fare correttamente con altri mezzi. A causa del fatto che le condizioni della rete cambiano così rapidamente, gli amministratori spesso “inseguono” i problemi da luogo a luogo, ma non riescono mai a sapere se stanno effettivamente guardando il punto giusto della rete quando succede qualcosa.

I Big Data sono in grado di correlare migliaia (o milioni) di dati diversi rispetto ai punti problematici già noti di una rete, in modo da riuscire a formulare delle possibili correlazioni che potranno poi essere rintracciate con il fine ultimo di risalire alle cause.

Le condizioni operative ottimali
Un’altra strategia per l’applicazione dei dati di grandi dimensioni ai problemi di rete è di utilizzarli per fare il baselining (misurazione e valutazione delle prestazioni di una rete in tempo reale) delle normali condizioni del network. Se il passo precedente – mappatura dei punti problematici in una timeline comune all’interno dell’ambiente dei Big Data – è completato correttamente, allora sarà in grado di rivelare anche l’assenza di problemi. L’analisi dei dati di rete raccolti durante questi periodi “buoni” permetterà a un amministratore di stabilire ciò che viene rappresentato come il normale comportamento di un network e di quantificare cosa si intende per “normale” in termini di masse di dati raccolti.
A questo punto, una volta stabilito quale dovrà essere il comportamento normale della rete, questo assunto potrà quindi essere utilizzato per analizzare i periodi di funzionamento della rete che non sono considerati un problema, ma anche quelli che non sono correlati in modo convincente con il normale corso dell’esercizio.

Gli amministratori di rete più esperti sanno che le reti a volte entrano in uno stato “instabile”, ma in realtà non generano necessariamente failure o disturbi. Ci sono anche condizioni della rete, nell’ambito della domanda complessiva di risorse del server, che possono influenzare le operazioni di rete. I dati di base possono aiutare a trovare una qualsiasi di queste situazioni.

L’analisi dei Big Data, inoltre, può aiutare a trovare il modo di porre rimedio a condizioni di rete particolari. Un esempio è dato dal fatto che i sistemi di gestione dei grandi dati sono in grado di scovare i punti del network in cui le analisi indicano una condizione di rete non ottimale, che però non riesce a generare un report sul problema. In questi casi, l’obiettivo è di utilizzare strumenti analitici per esplorare quelle che potrebbe essere le possibili soluzioni di “mitigazione” del problema previsto.

I Big Data potrebbero consentire di raffinare l’analisi della causa principale o suggerire altri modi per porre rimedio alle condizioni non ottimali che si sono create. Un altro componente da esaminare è come le risorse sono interessate da un evento che accade in rete, così come da evento che avviene a livello di applicazione o di server o, ancora, da un cambiamento nel traffico degli utenti. Quando si verifica un cambiamento significativo in una di queste aree, la rete dovrebbe rispondere in modo prevedibile.

Ad esempio, un cambiamento significativo del traffico a livello di un’applicazione generalmente causa un notevole aumento del tempo di risposta, così come un piccolo aumento nel tasso dei pacchetti persi. Tali comportamenti si verificano senza che questo si accompagni a un cambiamento importante a livello di traffico, cosa che invece suggerirebbe immediatamente all’amministratore di rete che le risorse sono sovraccariche.
Allo stesso modo, potrebbe indicare che la rete è sovradimensionata, se un cambiamento significativo che si verifica nel traffico non è accompagnato da un concomitante aumento dei tempi di risposta o di perdita dei pacchetti di dati. In questo caso, sarà auspicabile una riduzione della capacità del network.

Focus sulle sole condizioni attuabili
Alcuni amministratori potranno divertirsi ad andare nel dettaglio dei report ottenuti grazie all’analisi dei Big Data in cerca di modelli insoliti, anche quando non vi è alcuna indicazione che questi possano essere associati a uno qualsiasi dei processi o delle attività di cui sopra.

La chiave per il successo nell’uso dei Big Data allo scopo di sfruttare al meglio le applicazioni di rete è concentrarsi sui problemi, non sui dati. Informazioni sulle condizioni della rete – se sono coerenti allora si può dedurre che tutto procede normalmente, se sono incoerenti allora forse c’è qualche problema – sono rilevanti solo quando possono essere classificate.

Condizioni che non possono essere classificate sono difficili da trasformare in elementi utili a guidare una decisione o un’azione ed è quindi difficile giustificare la spesa necessaria per la loro individuazione e gestione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2