LAS VEGAS – Di questi tempi, parole come intelligenza artificiale (AI) e machine learning (ML) sono molto di moda, e sembra non esista più alcuna impresa innovativa, in qualunque settore aziendale, che non voglia sfruttare la potenza di tali algoritmi per migliorare la propria attività di business, attraverso una più efficace analisi dei dati. Quali sono però i reali ostacoli che le aziende devono superare per utilizzare queste tecnologie? Lo abbiamo domandato a Ravi Pendekanti, SVP Product Management and Marketing per l’area Server and Infrastructure Systems di Dell, durante un’intervista a margine del recente Dell Technologies World 2018 di Las Vegas, a cui ZeroUno ha di recente partecipato. “Vediamo che la maggioranza dei nostri clienti sta sperimentando tre principali problemi: quello numero uno è assicurarsi di ottenere dati corretti, perché, quando si parla di machine learning e deep learning, senza estrapolare determinati dati non vi può essere apprendimento, training, inferenza. Quindi la prima cosa da fare è raccogliere le disparate tipologie di dati, strutturati e destrutturati, distribuiti ovunque, attraverso tecniche ETL [extract, transform, load – ndr.], in modo da ottenere informazioni omogenee e pronte da usare”.
La seconda sfida per le organizzazioni, continua Pendekanti, è assicurarsi di possedere le corrette competenze: “Queste ultime possono diventare un grande problema, perché per fare ML e deep learning esistono diversi framework, ad esempio TensorFlow, Caffe2, CNTK, e anche diversi modelli di reti neurali: si possono usare le ‘deep neural networks’ (DNN), oppure le RNN (recurrent neural network), o le CNN (convolutional neural network). Inoltre, le metodologie di analisi delle immagini sono differenti da quelle di analisi dei dati, e una persona competente in un ambito non lo è necessariamente in un altro: dunque qui la sfida è abbinare i corretti framework ed elementi tecnologici alle persone giuste, che sanno comprenderli e utilizzarli”.
Who's Who
Ravi Pendekanti
Infine, aggiunge Pendekanti, la terza sfida è che le imprese potrebbero non possedere la corretta infrastruttura hardware per ‘far girare’ le applicazioni di AI, machine learning o deep learning.
“Un’infrastruttura di vecchio tipo potrebbe non supportare il numero di GPU, o FPGA, di cui si ha necessità: e questo è un problema molto concreto”.
Data center: nei server i dispositivi FFGA pronti al decollo
Parlando di infrastruttura, continua Pendekanti, un altro trend, favorito dai continui progressi in microelettronica, è la crescita, nei moderni server dedicati ai data center, del numero di dispositivi GPU (graphics processing unit) e FPGA (field-programmable gate array). Basti pensare, esemplifica il top manager, che il server Dell PowerEdge R740, introdotto nel 2017, mantenendo lo stesso form factor del predecessore R730 (che supportava due GPU) è ora in grado di scalare arrivando fino a tre GPU, ciascuna con un consumo di 300 W. Ma perché gli FPGA? Nei prossimi 18 mesi, prevede Pendekanti, questi device registreranno un decollo, in termini di adozione nei server: le GPU, o le GPGPU (general-purpose GPU), forniscono cavalli di potenza, sono adatte all’elaborazione di tutti i tipi di workload, ma sono costose; e le ragioni per cui gli utenti in futuro tenderanno a scegliere gli FPGA sono essenzialmente due. “Primo, ci si preoccupa dei consumi delle GPU: un server con 4 GPU da 300 W consuma circa 1.200 W. Secondo, gli FPGA consumano meno, e poi sono programmabili, e riprogrammabili, per adattarsi all’elaborazione di workload specifici. Però servono esperienza e le competenze giuste per utilizzarli”.