L’impiego dell’intelligenza artificiale e dei sistemi di deep learning nelle applicazioni d’impresa crea la necessità di disporre di componenti hardware ottimizzate per l’efficace emulazione delle reti neurali, come anche di strumenti software affidabili con cui sviluppare velocemente soluzioni avanzate con componenti open source, senza mettere a rischio dati e sicurezza aziendale.
IBM PowerAI è il frutto dell’impegno di IBM nella creazione di un’offerta di classe enterprise per le esigenze d’implementazione delle soluzioni di deep learning in ambienti distribuiti. Un’offerta costruita attorno ai sistemi hardware IBM Power S822LC per HPC e IBM Power AC922, e ai framework di deep learning open source, come Caffe, Torch, Tensorflow, Theano e Chainer, affiancati dalle librerie di supporto DIGITS, OpenBLAS, Bazel e NCCL.
Lo scopo di IBM PowerAI è quello di creare un insieme hardware/software completo con cui poter avviare velocemente sperimentazioni e applicazioni di deep learning, con la sicurezza di poter disporre delle distribuzioni software open source più solide e adatte ai contesti critici delle imprese. Un compito che IBM ha completato con l’hardware ad alte prestazioni più adatto e un set di strumenti integrati pensati per migliorare la produttività di chi dovrà occuparsi dell’alimentazione dei dati.
IBM PowerAI per il supporto di progetti più veloci e di successo
La disponibilità di un set integrato di componenti è oggi un fattore critico per il successo dei progetti che sfruttano l’AI e il deep learning, fondamentale per poter passare più rapidamente dalle fasi sperimentali all’implementazione. Con IBM PowerAI viene infatti drasticamente ridotta la complessità di costruzione di un’infrastruttura d’intelligenza artificiale che funzioni in modo affidabile, viene inoltre facilitato l’accesso ai framework di deep learning più adatti alle applicazioni. In questo modo il team o il responsabile dei dati possono meglio impegnarsi nel proprio lavoro, senza perdere tempo nel debug di Tensorflow o in altri tediosi compiti operativi.
Con IBM PowerAI diventa possibile installare un ambiente completo per il deep learning in soli 45 minuti, permettendo di dedicare maggiori risorse alle fasi chiave di generazione dei modelli. Un recente aggiornamento ha arricchito le opzioni di supporto per l’intero stack IBM PowerAI, che oggi può partire dal solo hardware per arrivare a comprendere l’intero ambiente di deep learning. Questo supporto full-stack per la piattaforma IBM PowerAI è diretto agli utilizzatori di classe enterprise, che desiderano sfruttare l’AI e il deep learning in ambiente open source senza farsi carico in proprio delle complessità correlate.
L’importanza di un hardware a misura di AI e deep learning
La prima implementazione di IBM PowerAI è stata realizzata sul sistema IBM Power S822LC per HPC, uno dei più potenti hardware in circolazione, utilizzato in due dei più grandi supercomputer al mondo. Power S822LC per HPC è progettato per consentire alti througput dati e accelerazioni dell’elaborazione attraverso GPU. Ogni motore d’elaborazione di cui è dotato il server si avvale di connessioni ad alta velocità NVLink point-to-point.
Le implementazioni più recenti di IBM PowerAI possono avvalersi del sistema Power System AC922, progettato specificamente per i carichi di lavoro di AI. Power AC922 è un server a due socket costruito con interfacce avanzate di I/O e con hardware e software ottimizzati per l’accelerazione dei job di AI con le GPU NVIDIA. Il sistema include varie interfacce estremamente veloci, tra cui PCIe Gen 4, CAPI 2.0, OpenCAPI e NVLink, ideali per i carichi di lavoro più intensivi di dati.
Con il server Power AC922 le connessioni fisiche NVLink diventano parte integrante del chip processore e le GPU risultano meno dipendenti dalle CPU. Questo consente un accesso diretto estremamente veloce e a bassa latenza alla memoria di sistema, permettendo di gestire modelli neurali più ampi, più complessi e set di dati di formazione molto più grandi.
Le due CPU POWER9 hanno ciascuna capacità multithreading a quattro vie per l’elaborazione parallela e da 2 a 6 GPU NVIDIA Tesla V100 con NVLink. Questo consente di ottenere prestazioni estreme nei compiti di HPC, di apprendimento profondo e nei carichi di lavoro AI. Il sistema consente alle applicazioni di utilizzare la memoria di sistema come memoria GPU, superando le limitazioni di memoria da 16 GB o 32 GB delle GPU. Le configurazioni del Power AC922 possono avere un numero di core variabile da 16 a 44.