NetApp, un approccio end-to-end ai Big Data, anche nell’automotive

NetApp rifocalizza e si propone come player di riferimento per la data driven economy: dai Big Data ai mercati verticali, dal Machine Learning alle reti neurali. Il caso dell’automotive

Pubblicato il 16 Ott 2017

IMG_1578-scaled

Negli ultimi 18 mesi, NetApp ha intrapreso un percorso di profonda trasformazione, di rivisitazione dei suoi modelli di business e anche del suo portafoglio.
«Siamo partiti dai processi e dalle persone, abbiamo puntato alla diversificazione, per non essere più vissuti solo come NAS player», racconta Marco Pozzoni, country leader di NetApp Italia, pur riconoscendo che forse la portata di questo cambiamento ancora non è stata percepita in pieno.
«Stiamo lavorando per portare al mercato nuovi messaggi e soluzioni. Lo stiamo facendo anche in Italia con l’obiettivo di aumentare la nostra share di mercato, così come sta accadendo in tutta l’area Emea», prosegue, per poi specificare quali siano le tre aree sulle quali la società ha deciso di concentrarsi.
In primo luogo Pozzoni definisce quasi «imperativo» il focus sullo storage Flash, che «impone comunque un cambiamento nella mentalità e negli use case».
Il secondo caposaldo è rappresentato dall’iperconvergenza, con nuove soluzioni in arrivo con la fine del mese di ottobre.
Infine non poteva mancare il Cloud: «Siamo tra le aziende storage che hanno in essere partnership consolidate con i quattro principali hyperscaler», spiega Pozzoni.
A questi tre pilastri, se ne aggiunge un quarto. Ed è probabilmente quello destinato a fare la differenza.
«Parliamo infatti di soluzioni innovative. Sono soluzioni per le quali abbiamo risorse e competenze e nelle quali lo storage probabilmente non è strategico, ma è pur sempre abilitante. Per questo stiamo guardando a quei vertical nei quali lo storage diventa elemento di abilitazione della digital transformation».
L’esempio più classico?
Il mondo dell’automotive, cui però NetApp aggiunge anche l’Healthcare e l’insurance/banking.

NetApp: per l’automotive si lavora su Petabyte di dati

Ed è qui che entra in gioco Stefan Ebner, Innovation & Strategy Manager della società, con competenze specifiche nel mondo dell’automotive.
Assolutamente convinto che questo settore in particolare stia affrontando sfide sempre più importanti, sulla spinta di una crescita esponenziale dei dati necessari allo sviluppo del segmento delle connected car, Ebner parte dai numeri: questo mercato è destinato a raggiungere un valore di 112,6 miliardi di dollari entro i prossimi 4 anni, per un totale di oltre 220 milioni di veicoli connessi in circolazione.
Va dunque affrontato con un approccio mirato.
«In realtà l’approccio che abbiamo deciso di avere verso il mercato automotive è lo specchio di come stia cambiando NetApp: da un approccio prodotto-centrico ci siamo spostati verso un modello che definiamo vertical-specific. Cerchiamo soluzioni e partnership: non si tratta più di dare un pezzo di soluzione ma di parlare la lingua dei verticali e del mercato».
Ebner ha sempre lavorato negli ambiti della Business Analytics e dei Big Data, con un focus sulla gestione e sul processing dei dati.
«Nell’automotive ci muoviamo nell’ordine dei petabyte di dati. Queste sono le grandezze con cui ci siamo confrontati con tutti i player del settore con i quali collaboriamo. E sono dati da gestire».
Il conto è presto fatto: ci sono dati video, i dati provenienti dai sensori, quelli correlati ai sistemi LIDAR, scalare gli ordini di unità è un attimo.
«Dobbiamo renderci conto che la macchina è un dispositivo stupido. L’intelligenza viene dalle reti neurali e dalle elaborazioni fatte nel datacenter e poi trasferite alla macchina in tempo reale», sostiene Ebner, che porta qualche esempio concreto.

Reti neurali: 100 milioni di immagini per identificare 1000 oggetti

Il training su una rete neurale richiede 100 milioni di immagini per identificare mille oggetti. «Parliamo di 800 terabyte solo per l’identificazione degli oggetti».
Nell’ambito delle connected car, le macchine di test producono fino a 15 terabyte di dati al giorno.
«Sono ordini di grandezza necessari se si vuole aumentare la qualità del prodotto».
NetApp lavora proprio sui dati: «Noi proponiamo una nuova modalità di gestione di questi dati, che ricordiamo non sono strutturati, con object storage ed elastic search».
Il punto, secondo Ebner, è che oltre ai dati bisogna tenere conto anche di tutti i metadati: «I metadati descrivono un oggetto, per questo a ogni immagine corrisponde un numero importante di metadati di cui bisogna tenere conto».
Per dare un’idea di quale sia il peso dei dati, Eber cita il caso della DFL, la Deutsche Fußball Liga, la lega calcio tedesca. «La Lega Calcio è anche provider di contenuti: dispone dei video delle partite di calcio degli ultimi 60 anni. Hanno coinvolto 300 studenti per inserire i metadati nei video. Ora stanno cominciando a utilizzare le reti neurali per ridurre il lavoro manuale. Ma bisogna prima chiudere il cerchio, bisogna essere consapevoli di quanto sia affidabile la rete neurale stessa».

Il Machine Learning richiede tempo

L’assioma è chiaro per Ebner: il Machine Learning  garantisce un quick win, ma ci vuole tempo perché questo accada.
«Un sistema di machine learning può dare risultati in sei mesi di buon training. Ma quando parlo di sei mesi parlo di un risultato che garantisca all’utente pochi margini di errori. Per avere risultati poco attendibili non serve investire nel machine learning: tanto vale indovinare o andare a caso», ironizza – ma non troppo – Ebner.

In questo scenario NetApp è partner delle imprese nello sviluppo e nella realizzazione di una data platform che sia realmente in grado di ospitare tutti i dati di cui c’è bisogno e che vengono generati.
«Finora abbiamo sviluppato oltre 2000 progetti in ambito IoT, sempre muovendoci nell’area del data management, con un approccio end-to-end».
Per NetApp si parte dalla creazione del dato per passare subito alla sua raccolta: è importante capire come si raccolgono dalla macchina («Parliamo di retrofitting? Di edge computing?»), come si inviano al datacenter e come i dati tornino di nuovo alla macchina.

La fase successiva è quella del trasporto, nella quale entrano in gioco le reti, il routing, lo switching e dove NetApp interviene con la sua idea di fabric, così da gestire il trasporto in modo sicuro grazie alla cifratura.

La terza fase, quello dello store, è di fatto il terreno di gioco di NetApp, forte della sua capacità di gestione di qualunque tipo di dati.
Si passa poi alla all’analisi e alla visualizzazione: «Noi non abbiamo un’offerta di analytics, ma abbiamo forti partnership con realtà quali Sap, Sas, Teradata e dunque ci muoviamo sul mercato in una logica di ecosistema».
La quinta fase è quella dell’archiviazione: «Serve un processo per gestire i dati che raffreddano e che devono essere gestiti e archiviati così come sono. Ci sono realtà nell’automotive che richiedono l’archiviazione di tutti i dati per 30 anni».

NetApp ritiene di avere una value proposition in tutte queste fasi: «Siamo una data company e diamo risposte alle data driven trasformation. Vogliamo essere il player della data driven economy: il nostro focus è la data management platform: ovunque tu voglia collocare i tuoi dati, noi abbiamo un pezzo di software per prenderli, memorizzarli gestirli. Il data management è un elemento chiave in qualunque progetto IoT ed è qui che noi vogliamo essere».

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2