Con la crescente trasformazione digitale da parte delle aziende, si è creata una situazione di vera e propria dipendenza delle stesse dai propri dati: in quest’ottica, è essenziale disporre di sistemi ad alte prestazioni, elevatissima affidabilità e in grado di prevenire malfunzionamenti o interruzioni di sistema per far sì che i dati siano sempre disponibili. Un approccio predittivo in questo senso deve diventare quindi la norma, in quanto la risoluzione a posteriori, anche se effettuata il più rapidamente possibile, non è più sufficiente. I sistemi storage svolgono un ruolo chiave nella disponibilità dei dati ed è quindi essenziale che rimangano sempre attivi e perfettamente funzionanti, rendendo disponibili le informazioni con tempi di risposta molto rapidi.
Soluzioni software defined
Ma come si ottengono questi risultati senza aumentare la complessità delle infrastrutture? Oggi, le infrastrutture storage sono troppo estese e complesse per potersi affidare a controlli manuali ed è quindi poco pratico che il team IT esegua personalmente le configurazioni e il monitoraggio per assicurarsi che tutte le componenti mantengano dei parametri ottimali. L’automazione diventa così la sola strada percorribile.
In questo ambito, algoritmi di artificial intelligence e machine learning possono oggi essere utilizzati sia con lo scopo di ottenere prestazioni sempre più elevate da uno storage attraverso la gestione ottimizzata del caching, sia per l’analisi predittiva dei problemi che si possono sviluppare su un sistema per evitarli prima che si verifichino.
Nel primo caso parliamo di soluzioni software defined in grado di sfruttare le potenzialità di artificial intelligence e machine learning per posizionare nella cache in maniera preventiva i dati maggiormente utilizzati (hot data), sfruttando così le elevatissime prestazioni che offrono le memorie DRAM con cui è composta la cache di primo livello di uno storage.
Tramite algoritmi che vanno sotto il nome di neural cache, lo storage ha a disposizione un meccanismo di archiviazione di dati e metadati in grado di creare una matrice dinamica di correlazioni tra dati per similitudine, relazione temporale e altro, sviluppando efficienze nella loro gestione e quindi consentendo di ottenere prestazioni molto elevate con un’architettura basata su componenti tradizionali in modo da permettere il contenimento dei costi di acquisizione.
Le tecnologie di Artificial Intelligence Operations per la business continuity
L’altro aspetto per cui artificial intelligence (AI) e machine learning (ML) entrano in gioco è la manutenzione predittiva e la prevenzione dei problemi. Grazie ad esse, le aziende non solo sono in grado di rilevare lo sviluppo di potenziali problemi, ma possono individuare anche problematiche non previste dagli sviluppatori (ad es. memory leaks) e quindi non rilevabili controllando le prestazioni dei sistemi rispetto a parametri specifici.
Le tecnologie di Artificial Intelligence Operations (AIOps), cioè gli analytics basati su intelligenza artificiale e applicati alle operations dell’IT, rappresentano il metodo per realizzare una manutenzione predittiva di tutti i sistemi, e le infrastrutture di storage non sono escluse. Con una combinazione di big data analysis e machine learning, le tecnologie AIOps sono in grado di rilevare proattivamente i problemi in modo granulare prima che abbiano un impatto sugli utenti. Inoltre, rappresentano un ottimo strumento per prevedere e pianificare i requisiti dei futuri sistemi di storage.
Le tecnologie di AIOps utilizzano i dati empirici provenienti dall’utilizzo e dall’esperienza maturati dal fornitore a livello globale, ossia da tutti i comportamenti adottati in precedenza, per rilevare i problemi tecnici e i colli di bottiglia prima che influiscano sul business, scongiurando le interruzioni di servizio.
Queste tecnologie analizzano i problemi che si sono già verificati per identificare dei modelli da utilizzare per prevenire in futuro casi analoghi. Un sistema AIOps è molto più flessibile dei sistemi di monitoraggio tradizionali: in passato venivano rilevare solo le problematiche attese, mentre oggi è possibile apprendere continuamente e identificare nuovi malfunzionamenti. Ciò rende le tecnologie AIOps molto più efficaci e precise, con una visione concreta su come prevenire i problemi che consente di garantire continuità al business aziendale.
I sistemi AIOps, ancora relativamente “giovani”, rappresentano una sfida unica per gli algoritmi predittivi, in quanto non dispongono ancora di dati sufficienti per poter effettuare delle previsioni. Per questo motivo, va preferito un approccio AIOps che abbini questo sistema a schemi di utilizzo noti, utilizzando più algoritmi contemporaneamente per identificare quello più adatto a fornire previsioni accurate per ciascun set di dati. Le tecnologie di AIOps, quindi, utilizzano l’algoritmo che meglio rappresenta lo stato attuale del sistema per rendere le proprie previsioni il più possibile allineate allo stato del sistema che progredisce continuamente. Ripetendo periodicamente questo processo, più a lungo il sistema funziona, più l’algoritmo apprende e si adatta in base ai dati operativi effettivi.
Inoltre, è bene che un team di supporto esegua sempre dei test per rilevare eventuali anomalie, analizzando il profilo I/O di ciascun set di dati e cercando anomalie nelle prestazioni che possano indicare un problema di comunicazione verso l’ambiente esterno. A seguito dell’analisi, dopo aver supportato attivamente il cliente a risolvere eventuali colli di bottiglia o configurazioni errate prima che queste impattino negativamente sugli utenti, il team di tecnici trasmette al sistema AIOps le conoscenze acquisite, per far sì che in futuro sia in grado di prevedere autonomamente anche le problematiche non legate direttamente allo storage.
Come l’AIOps può prevedere l’esaurimento della capacità libera sullo storage
Una delle previsioni AIOps più utilizzate è il tempo necessario per l’esaurimento della capacità libera sullo storage (Capacity Planning). In tal senso, esistono, e sono da preferire, soluzioni Capacity On Demand (COD), che invece di richiedere lunghi cicli di acquisizione, della durata di mesi, consentono ai clienti di avere a disposizione fin dall’inizio una capacità superiore a quella necessaria, in modo da poter affrontare senza interruzioni la crescita del proprio business. Quando necessaria, la capacità aggiuntiva viene semplicemente “sbloccata”, come avviene nel cloud pubblico. Il ruolo dei sistemi AIOps nel ciclo di vita di uno storage è quindi duplice: da un lato, rileva i problemi prima che diventino evidenti all’utente e dall’altro è in grado di prevedere in modo affidabile futuri colli di bottiglia, permettendo così all’azienda di ampliare la propria capacità di archiviazione con largo anticipo. Questo significa, inoltre, che si possono pianificare le spese per lo storage, concentrandole laddove strettamente necessarie e limitando così i costi.
Conclusioni
Con queste premesse, la scelta della corretta soluzione di storage può apparire più complessa che mai, ma con una consulenza adeguata, le aziende sono perfettamente in grado di individuare quella più in linea con le proprie esigenze. Nella ricerca di un nuovo sistema di storage, infatti, non bisogna solo prendere in considerazione fattori come il protocollo di rete, il supporto di memoria, l’hard disc, l’SSD, il tape, ma ci si dovrà concentrare principalmente sulla scalabilità, sul modello di consumo (pay as you grow) e sulle capacità predittive.
Donato Ceccomancini, country manager Infinidat Italia