Molte imprese oggi cercano di definire una strategia per l’intelligenza artificiale (AI). In particolare, l’obiettivo è comporre e implementare una deep learning platform ottimale per la propria attività di business: IT manager, data scientist, sviluppatori, responsabili delle line of business (LOB), lavorano insieme sulla tecnologia AI, ormai consapevoli che restare immobili su questo componente chiave significherebbe perdere preziose opportunità di mercato. Vorrebbe dire lasciar spazio ai concorrenti, alle aziende che già sono in grado di espandere la propria base di clienti, usando l’intelligenza artificiale nell’analisi di dati e nell’estrapolazione di insight.
Notevole interesse si sta sviluppando soprattutto attorno alle applicazioni di deep learning (DL), ma proprio in quest’area le varie organizzazioni devono affrontare le maggiori sfide tecnologiche: infatti, a livello sia hardware sia software, risulta complesso riuscire a realizzare, in maniera rapida, una deep learning platform di classe enterprise, che sia completa, agile e versatile sul piano progettuale, facilmente scalabile in termini di prestazioni, e al contempo pratica da manutenere e supportare, in modo da contenere il più possibile i costi.
Creare una deep learning platform ottimizzata, le sfide
A livello hardware, le difficoltà derivano essenzialmente dai limiti di capacità computazionale dell’infrastruttura server tradizionale, equipaggiata con CPU standard: limiti che diventano tanto più evidenti quanto più cresce l’esigenza di gestire i pesanti carichi di lavoro generati dalle applicazioni di deep learning, caratterizzate da elevati requisiti di elaborazione parallela.
A livello software, la varietà di framework, strumenti, linguaggi di sviluppo disponibili per realizzare la deep learning platform può creare confusione, e condurre a processi d’implementazione disorganici, che rallentano l’installazione del software stesso, la creazione della pipeline di dati, come anche lo sviluppo e l’addestramento dei modelli di deep learning.
Deep learning platform, l’acceleratore di IBM
Per affrontare e risolvere tutte le sfide di potenziamento hardware e integrazione software per la realizzazione della deep learning platform aziendale, IBM propone un’architettura di riferimento chiamata Watson Machine Learning Accelerator (WMLA): essa combina la potenza hardware dei server Power Systems accelerati con diffusi framework open source per il deep learning, e strumenti di sviluppo per l’intelligenza artificiale. Con questa soluzione, il vantaggio per l’impresa è la possibilità d’implementare, fin dal principio, una deep learning platform già completamente ottimizzata, supportata e capace di fornire elevate prestazioni, assieme a caratteristiche di affidabilità e resilienza.
La soluzione per la AI indicata da IBM, commenta la società di ricerche e consulenza IDC, è uno stack software-hardware ottimizzato, composto da framework open source già testati, supportati e ‘ready-to-use’, abbinati a GPU potenti, e storage intelligente, scalabile, ad alte prestazioni e integrato con il cloud. Una soluzione, quindi, in grado di ridurre i tempi d’implementazione dei workload di deep learning, e i relativi costi di supporto, e di ottenere insight e risultati con maggior rapidità.
Potenza e scalabilità per i workload AI
La deep learning platform Watson Machine Learning Accelerator è ottimizzata, ad esempio, per l’uso con configurazioni hardware come i server IBM Power Systems AC922 in abbinamento con GPU Nvidia Tesla V100. In aggiunta, nei casi d’uso in cui occorre supportare modelli più grandi e accurati, WMLA è in grado di sfruttare il Large Model Support (LMS) e il Distributed Deep Learning (DDL), per aumentare al massimo la scalabilità. Infine, con WMLA l’implementazione dei progetti DL si può estendere a molteplici utenti e linee di business, rispettando al contempo la conformità con i criteri e requisiti di sicurezza e privacy.