Tech InDepth

Intel pronta alla sfida dell’Intelligenza Artificiale

Grazie ad alcune conversazioni con i ricercatori Intel in occasione del recente Forum ShiftIntel di New York, illustriamo le principali novità della strategia Intel sull’Intelligenza artificiale che si basa su chip di nuova generazione come Neural Network Processor, neuromorfici e quantistici che consentiranno un salto qualitativo nel cognitive computing e nell’intelligenza artificiale anche alle imprese.

Pubblicato il 22 Dic 2017

Intel pronta alla sfida dell’Intelligenza artificiale

Con l’aumentare dei dati che va oltre la capacità degli analisti umani di elaborare e far fronte ai nuovi livelli di complessità, diventa sempre più necessaria l’assistenza di sistemi automatici in grado non solo di elaborare ma anche di apprendere dai dati. Aziende dei più svariati settori, dalle banche alla sanità, dal manifatturiero ai servizi consumer stanno già impiegando l’intelligenza artificiale (Ai) per analizzare i dati e diventare learning company, capaci di comprendere il mercato e competere . È così convinto di questa evoluzione Brian Krzanich, Ceo di Intel, che sta lavorando per fare dell’Ai una parte significativa del proprio portafoglio, ma al tempo stesso utilizzarla al proprio interno per ottimizzare i processi di produzione, la pianificazione strategica, le operazioni IT dei data center.


Intel, come i maggiori protagonisti dell’innovazione tecnologica, da Amazon a Google, da Facebook a IBM (solo per citarne alcuni) sta investendo in ricerca e “rastrellando” aziende sul mercato capaci di contribuire all’innovazione del mondo AI. Così è stato per Nervana Systems, startup acquisita nell’agosto 2016 per circa 400 milioni di dollari, che sembra stia dando i primi frutti: come divisione di Intel ha infatti contribuito allo sviluppo di Nervana, il primo Neural Network Processor (NNP), un processore progettato per applicazioni di Intelligenza artificiale e, in particolare, per ottimizzare i meccanismi di apprendimento profondo (deep learning) tipico delle reti neurali. A differenza di quanto accade nell’IT tradizionale, una rete neurale non viene programmata per eseguire certi compiti ma viene addestrata, attraverso algoritmi di apprendimento automatico basati su una grande quantità di dati reali. Le reti neurali, che operano attraverso neuroni artificiali che si ispirano al funzionamento biologico del cervello umano, richiedono avanzati chip hardware particolarmente evoluti ed efficienti. Intel punta a fare di NNP Nervana il neurone artificiale ideale.

Intel pronta alla sfida dell’Intelligenza artificiale

Intel ha lavorato in stretta collaborazione con Facebook, che avrà i primi diritti sul nuovo chip che sta per essere rilasciato e sui successivi che probabilmente seguiranno nel corso del 2018.

Alcune caratteristiche di Nervana

In occasione di ShiftIntel evento internazionale tenutosi a fine ottobre a New York, abbiamo avuto occasione di approfondire le caratteristiche di NNP Nervana con Amir Khosroshahi, Co-fondatore Nervana Systems e attualmente CTO, Artificial Intelligence Products Group di Intel.


Il team di Intel che sta lavorando al progetto ha messo a punto un’architettura in grado di fornire la flessibilità richiesta per supportare tutte le primitive del deep learning, rendendo al tempo stesso le componenti del nucleo dell’hardware più efficienti possibile grazie a una progettazione che ha superato le limitazioni imposte dall’hardware pre-esistente non progettato ad hoc per l’AI. Le caratteristiche hardware di Nervana separano le attività di accesso per il calcolo da quelle per la gestione dei dati in modo che nuovi dati siano sempre disponibili per l’elaborazione. Questo isolamento della pipeline, associato con la maggior quantità di memoria locale, fa sì che il sistema possa lavorare con la massima capacità per tutto il tempo. Questo risponde alle necessità di una rete neurale il cui successo deriva fondamentalmente dalla sua capacità di apprendimento utilizzando la massima quantità di dati in un tempo dato. A ciò concorrono tre fattori: massimizzare l’utilizzazione del calcolo; scalare facilmente a più nodi di calcolo; fare tutto ciò impiegando la minor potenza possibile. L’architettura di NNP fornisce soluzioni innovative a questi problemi offrendo a chi progetta reti neurali strumenti potenti per risolvere i problemi maggiori e più difficili.

Uno dei meccanismi utilizzato è gestire la posizione dei dati attraverso un sistema software che ne minimizza gli spostamenti attraverso il die (blocco di silicio su cui è costruito il chip), risparmiando potenza e riducendo la congestione sul die. L’aumento della memoria sullo stesso die (oltre 2MB per ciascun elemento di elaborazione per un totale di 30Mb di memoria totale per chip) riduce il numero delle volte che il dato deve essere letto dalla memoria e fa sì che le trasformazioni locali non influiscano sui sottosistemi HBM (High Bandwidth Memory). Questo è solo uno dei “trucchi” smart messi in atto per aumentare l’efficienza del circuito integrato NNP prossimamente disponibile. Inoltre Intel promette un livello di trasferimento bidirezionale e di trasmissione più elevati grazie all’uso del formato numerico proprietario Flexpoint.
Secondo i ricercatori di Intel siamo di fronte a una nuova forma di hardware ottimizzato per il deep learning.

Oltre Nervana, chip neuromorfi e quantici

Sul versante dei chip neuromorfici Intel mette in campo Loihi (dal nome di un vulcano sottomarino nelle Hawai) ancora a livello di ricerca (ne sono stati creati alcuni prototipi) frutto della collaborazione decennale con il California Institute of Technology e la concorrenza di competenze nel campo dei chip, della fisica e della biologia. Il nuovo sistema, che promette di condensare nelle dimensioni di un’unghia 130mila neuroni, dovrebbe consentire in futuro di fornire intelligenza ad auto, telecamere, robot e altri sistemi senza la necessità di connessione attraverso Internet al cloud. I microprocessori neuromorfici imitano il funzionamento del cervello umano, dove i comportamenti intelligenti derivano da interazioni cooperative e competitive fra più regioni e il suo ambiente. I microprocessori neuromorfi dovrebbero aiutare i computer a “comprendere autonomamente” l’ambiente circostante.
Nel frattempo Intel ha annunciato la consegna del suo chip con 17 qubit a QuTech, il partner olandese con cui collabora, un passo in avanti nella realizzazione di un computer quantistico basato sui qubit (quantum bit), l’unità di informazione quantistica. I qubit, a differenza dei sistemi tradizionali, sono unità in grado non solo di assumere i valori 1 e 0, ma diversi valori secondo il principio di indeterminazione di Heisenberg. I computer che opereranno in logica qubit dovrebbero essere in grado di elaborare più soluzioni per un singolo problema nello stesso momento, invece che svolgere calcoli sequenziali a una velocità finora impensabile.
La principale difficoltà deriva però dalla delicatezza di questi sistemi che per funzionare correttamente devono operate a temperature bassissime (dell’ordine di quelle che si trovano nello spazio profondo) rendendo estremamente complessa la lavorazione. Il progetto Intel (a differenza di altri produttori) si basa su una particolare versione, lo “spin qubit” in silicio, simile ai transistor che già conosciamo con il vantaggio di poter essere fabbricato tramite processi già utilizzati oggi su larga scala.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4