La nuova frontiera tecnologica è l’Intelligenza Artificiale (AI) e tutto ciò che vi ruota attorno (in particolare Big Data Analytics, infrastrutture e sistemi a sostegno) funge da “preparatore e sostenitore dei nuovi modelli di business che avranno nell’AI il cuore tecnologico”.
È questo il motivo per cui “Ibm ha deciso di aprire una nuova divisione dedicata ai Cognitive Systems – spiega in una recente conferenza stampa Marco Utili, Director of Systems Hardware Sales di Ibm Italia – Stiamo facendo evolvere tutte le nostre infrastrutture hardware perché possano essere l’elemento abilitatore dell’Intelligenza Artificiale (sia dal punto di vista dei mainframe sia sul fronte server e storage) con la convinzione che i sistemi debbano essere ripensati perché non più a supporto delle transazioni di business ma degli insights per i quali c’è bisogno di grande potenza di calcolo, elevate performance e affidabilità”.
Ad entrare nel dettaglio della proposta tecnologica targata Ibm sono Andrea Negro e Francesco Casa, rispettivamente Server Solutions Sales Manager e Manager of Storage Solutions Italy di Ibm.
“Ci sono ambiti applicativi come quello della rilevazione delle frodi o dell’analisi delle transazioni bancarie che traggono enormi benefici dall’utilizzo ‘live’ dei dati da parte di sistemi ed ‘engine’ di machine learning – spiega Negro -; per dare una risposta concreta in termini tecnologici ad esigenze di questo tipo abbiamo deciso di ‘portare’ il sistema di machine learning di Watson (oggi disponibile in cloud) all’interno dei mainframe Ibm che diventano quindi i sistemi Ibm Learning Machine for z/OS”.
Nell’ecosistema dei Cognitive Systems di Ibm non ci sono solo sistemi di machine learning ma anche infrastrutture basate su deep learning (dove il motore di Intelligenza Artificiale diventa auto-apprendente, basato su reti neurali che non necessitano di regole predeterminate per l’analisi). “È il caso dei sistemi Ibm Power AI, infrastrutture Hpc – High Performance Computing rese disponibili ‘a pacchetto’ (server con integrazione di Cpu e Gpu grazie al sistema NVLink; High-Speed Parallel File System; Cloud Management) sopra le quali vengono pre-configurate librerie e framework di AI basati su deep learning come Caffe, NVCaffe, TensorFlow, Theano, Torch o IbmCaffe (ogni tipologia di framework permette di creare applicazioni basate su deep learning sfruttando la potenza dell’Hpc delle infrastrutture sottostanti)”, aggiunge Negro.
Lato storage, “l’obiettivo numero uno è fare in modo che il dato venga memorizzato dove più ‘conviene’ non solo economicamente ma anche in termini di performance rispetto alle applicazioni”, spiega Casa. “Lo storage a supporto dell’Intelligenza Artificiale funge da sistema cognitivo in grado di assicurare un’accessibilità più rapida del dato in modo da arrivare prima ad avere gli insights di business”. È in questa accezione, infatti, che sta evolvendo il portafoglio Ibm Spectrum “dove i filoni portanti sono: software-defined, all-flash e cloud”, conclude Casa.