I Big Data per vincere in pista. Arrivare sul podio di una gara di MotoGP non è solo questione di pilota, moto e condizioni meteo. È, soprattutto, una questione di Big Data.
Nella Formula1 l’impatto delle real time analytics è piuttosto evidente: le strategie di gara possono essere definite e ritarate in pochi secondi sulla base dell’analisi dei dati provenienti delle rilevazioni telemetriche. «Nel MotoGP, però – spiega Stefano Rendina, IT Manager di Ducati Corse –, questa pratica è vietata per regolamento. Ciò non toglie che l’analisi dei Big Data rimanga importantissima per noi». Impossibile, quindi, parlare di un Remote Garage come per i bolidi su quattro ruote, ma il setup delle moto e le strategie di gara sono comunque ottimizzate in funzione dei dati rilevati nelle sessioni di prove.
Big Data per creare sapere e condividere la conoscenza
Una sessantina i sensori montati sulle due ruote del team Ducati ufficiale e nel team Pramac Ducati. Durante i
weekend di corse, le moto di Andrea Dovizioso e Jorge Lorenzo generano circa 30 GB di dati: angolo di piega, pressione della frenata, pressione e temperatura delle gomme, apertura della valvola a farfalla… Moltissimi i parametri monitorati.
I dati acquisiti vengono rielaborati dai data scientist della casa di Borgo Panigale per perfezionare le strategie di gara, identificare tempestivamente le anomalie e indirizzare le attività di ricerca e sviluppo. Sensorizzate anche le moto dei 3 team “satelliti” di Ducati, utilizzate come veri e propri “laboratori su pista”, visto che in un weekend di gare si raccolgono circa 90 GB di dati. La gestione di questa mole enorme di dati genera conoscenza e sapere «condiviso all’interno di tutta Ducati Corse, perché da noi non ci sono muri, tutti lavoriamo avendo ben presente che l’obiettivo di migliorare continuamente le prestazioni delle nostre moto». Le moto che scendono in pista oggi e permettono a Dovizioso e Lorenzo di guadagnare il podio sono frutto del lavoro di fine tuning continuo operato sui componenti meccanici e sull’elettronica. Ritocchi e migliorie suggerite dalle performance su pista, certo, ma anche dagli input provenienti dai sensori montati sulle “rosse”.
Ma Rendina non è ancora soddisfatto del tutto: «Il mio sogno da qui a due anni è riuscire ad avere a Borgo Panigale una control room dove analisti e data scientist il venerdì pomeriggio, il sabato o la domenica mattina dopo il warm-up siano in grado di accedere alle rilevazioni dei sensori, al live-timing e alle comunicazioni radio, elaborare questi dati in brevissimo tempo e migliorare il setup delle moto in tempo per le gare della domenica pomeriggio».
Big Data e HPC per migliorare la ricerca
Per raggiungere questi traguardi ambiziosi, Ducati negli ultimi mesi ha avviato un progetto imponente di trasformazione del suo data center. «L’obiettivo era di ampliare la potenza di fuoco per sostenere al meglio le applicazioni di High Performance Computing», puntualizza Rendina. Per avere un’idea più precisa, parliamo di circa 30 nodi di calcolo e una potenza computazionale di 600 core, 4 Terabyte di RAM dedicata e 100 TB di storage. L’HPC si rivela fondamentale in Ducati per tutte le analisi legate alle simulazioni di fluidodinamica e aerodinamica delle moto, oltre che per lo stress-test sui pezzi. «Con l’aiuto di NetApp è stata rinnovata tutta la gestione del dato e, in particolare, è stato potenziato lo storage legato al cluster di calcolo. Questo ci ha garantito un aumento sensibile del throughput di lettura e scrittura/accesso ai dati, che viene messo alla prova soprattutto nelle simulazioni aerodinamiche».
Disaster Recovery con ripristino a caldo
NetApp, dallo scorso febbraio, è anche uno degli sponsor del Ducati Team in MotoGP e il fornitore di servizi di continuità operativa della casa bolognese. «Abbiamo consolidato l’ambiente delle macchine virtuali VmWare su hardware NetApp e contemporaneamente lo abbiamo migrato su un sito esterno, garantendo funzionalità di ripristino a caldo delle sale server per le due fabbriche di Borgo Panigale, vicino a Bologna, e Rayong, in Tailandia. Per quanto riguarda l’infrastruttura, tradotto in pratica parliamo di circa 250 macchine virtuali e oltre 200 TB di storage».
Machine learning e automazione delle analytics
Per il futuro, l’idea è di sfruttare l’infrastruttura realizzata per sostenere nuovi progetti che vertono sempre più sull’analisi dei Big Data, l’automazione delle analytics, i modelli di simulazione e il machine learning perché, conclude Rendina, «anche un decimo di secondo in pista può far perdere il podio». Allo studio anche un progetto di iperconvergenza. «L’idea è di creare un modello, un piccolo datacenter con un’infrastruttura talmente flessibile e compatta da poter essere trasportata sui circuiti ma che ci consenta di fare tutto, dalla simulazione, all’ambiente virtuale, fino al machine learning a bordo pista».