Megatrend globali, come analisi dei big data, intelligenza artificiale (AI), algoritmi di machine learning (ML) e deep learning (DL), oggi promettono alle aziende di compiere appieno la trasformazione digitale, per evolversi in vere e proprie data-driven company: imprese, quindi, capaci, attraverso un’approfondita analisi delle informazioni e l’estrazione di insight, di ripensare e innovare di continuo i propri prodotti e servizi, per incontrare sempre meglio le esigenze di consumatori e utenti finali. Questa, tuttavia, è un’evoluzione possibile soltanto nel momento in cui CEO, CIO, IT manager, responsabili dei sistemi informativi, diventano consapevoli che gestire le nuove infrastrutture IT, fondate sullo sfruttamento intensivo dei dati, richiede un rinnovamento tecnologico, e l’implementazione di architetture informatiche più potenti e dedicate. Ecco perché ci focalizziamo su come gestire le infrastrutture IT con l’intelligenza artificiale.
Rinnovare l’IT per l’intelligenza artificiale
La ragione di fondo per cui oggi questa strategia di revisione e rinnovamento dell’IT diventa critica è che la maggior parte delle infrastrutture IT convenzionali, attualmente funzionanti nei data center di molte realtà imprenditoriali, non è progettata in maniera specifica (prestazioni CPU, memoria, ampiezza di banda di I/O) per supportare i carichi di lavoro derivanti dalle attività di amministrazione ed elaborazione delle enormi moli di dati tipicamente in gioco con le attività di training degli algoritmi di intelligenza artificiale e machine learning.
Le applicazioni AI, sottolinea la società di ricerche e consulenza IDC, e soprattutto i sistemi di deep learning, che analizzano moli di dati esponenzialmente maggiori, sono estremamente esigenti in termini di capacità computazionale, e richiedono potenti funzionalità di elaborazione parallela. Di conseguenza, più i workload di intelligenza artificiale si evolvono, più appare evidente che, da sole, le CPU standard, su cui sono basate la maggior parte delle architetture server classiche, non saranno più sufficienti per eseguire i carichi di lavoro generati dalle applicazioni di AI.
Scegliere un hardware eterogeneo
La progressiva inadeguatezza delle piattaforme di calcolo tradizionali nella gestione dei workload AI fa sì che nel data center sia consigliabile integrare un hardware caratterizzato da architettura eterogenea, attraverso cui le attività di elaborazione delle CPU possano essere coadiuvate da acceleratori hardware più specializzati nel calcolo parallelo. Acceleratori tra cui si possono selezionare dispositivi ASIC (Application Specific Integrated Circuit), GPU (Ggraphics Processing Unit), FPGA (Field Programmable Gate Array) o processori manycore. La possibilità di combinare tali device in differenti soluzioni architetturali permette di realizzare configurazioni hardware dotate di una potenza computazionale maggiormente scalabile, e adattabile in funzione dei differenti workload di intelligenza artificiale, in modo da accrescere l’efficienza e ridurre i tempi di calcolo.
Al contempo, per non rischiare di trasformarsi in un collo di bottiglia e rallentare l’elaborazione dei dati, anche l’infrastruttura di storage deve evolversi, privilegiando approcci architetturali come quello SDS (Software-Defined Storage), per mantenersi efficiente, intelligente, e altamente scalabile, e riuscire a supportare le voluminose pipeline di dati dell’intelligenza artificiale.
AI software, meglio una piattaforma enterprise-ready
Il processo di selezione della piattaforma software per l’intelligenza artificiale, dovrebbe privilegiare soluzioni costituite da framework software già validati, ampiamente supportati, pronti per l’implementazione, e dotati di un buon grado d’integrazione con l’hardware e lo storage dell’applicazione. Meglio invece evitare approcci disorganici, basati sull’uso di differenti framework e strumenti di sviluppo, che finiscono per allungare sia i tempi di implementazione dell’applicazione di intelligenza artificiale, sia i tempi di sviluppo e perfezionamento dei modelli di ML e DL.