“La capacità computazionale oggi rende ancora impossibile emulare il cervello umano; non è economicamente ed energeticamente sostenibile: un cervello umano consuma meno energia per risolvere problemi rispetto a una macchina”: aprono così il dibattito sull’evoluzione tecnologica dei sistemi a ‘sostegno’ dell’Intelligenza Artificiale e del Cognitive Computing, Diego Lo Giudice, Vice President, Principal Analyst di Forrester, Gianluigi Castelli, Professor of Management Information Systems, Sda Bocconi School of Management, Devo Lab Director e Alessandro Curioni, Vice President Europe e Direttore del Research – Zurich Lab, Ibm.
“Se analizziamo la capacità di avere reti neurali più estese e complesse all’interno di un chip, vediamo un percorso evolutivo del tutto simile a quello che abbiamo osservato con le Cpu convenzionali negli anni passati”, fa presente Castelli. “La miniaturizzazione sempre più spinta, la capacità di realizzare transistor che in realtà sono neuroni (raggruppamenti di transistor che si comportano come neuroni e sinapsi), l’abilità di ingegnerizzare questi processi (maggiore è tale capacità superiore è l’intelligenza e quindi l’estensione della rete neurale che possiamo inserire in un singolo componente), sono tutti aspetti che oggi possiamo concretamente vedere all’interno dei nostri smartphone dove ci sono chip integrati, ossia processori che integrano al loro interno una Cpu, una Gpu, un Digital Signal Processing… Si è riusciti a mettere in sistemi miniaturizzati una capacità di elaborazione e un sistema di intelligenza che non hanno precedenti. Bisognerà poi vedere se l’evoluzione di questa complessità segue la legge di Moore, e quindi osserveremo una crescita esponenziale della complessità delle reti neurali all’interno dei chip, oppure se stiamo arrivando a un asintoto della legge di Moore, nel senso che ormai i fattori di scala all’interno dei microprocessori sono tali per cui è difficile proseguire con la stessa velocità a ridurre i componenti inseriti nei circuiti integrati”.
Uno degli aspetti sicuramente più importanti dove sarà necessario intervenire, condividono i tre esperti, riguarda la potenza e le modalità di elaborazione dei sistemi. “Il tempo di comunicazione tra un neurone e l’altro è abbastanza lento, ma siccome ci sono miliardi di neuroni, il cervello umano può essere visto come una macchina parallela con grandissima potenza di calcolo, è in grado di eseguire una quantità elevatissima di operazioni elementari in parallelo”, sono le considerazioni di Castelli. “I calcolatori di oggi fanno esattamente il contrario: sono estremamente veloci nell’eseguire una serie di operazioni anche complesse ma sul fronte del parallelismo esistono ancora notevoli limitazioni”.
GpGpu Computing e Quantum Computing sono due aree dove vedremo certamente enormi miglioramenti già nei prossimi anni, sostiene Lo Giudice. “Con l’ingresso delle Gpu si sono raggiunti negli anni enormi benefici in termini di efficienza e potenza di calcolo [basti pensare al fatto che una Cpu tradizionale è costituita da diversi core ottimizzati per l’elaborazione seriale sequenziale mentre una Gpu è dotata di un’architettura parallela con migliaia di core progettati per la gestione simultanea di più operazioni e che oltretutto sono di minori dimensioni e hanno maggiore efficienza – ndr] – fa presente l’analista di Forrester – ma sarà sempre più il GpGpu Computing ad accelerare lo sviluppo delle reti neurali. La sigla significa ‘General-purpose Gpu Computing’ e indica l’impiego delle Gpu, che storicamente nascono per l’elaborazione grafica, in processi di altra natura, più generali. Tecnicamente, il computing accelerato dalle Gpu esiste dal 2007 (si affianca un’unità di elaborazione grafica a una Cpu per accelerare le applicazioni) ed è già impiegato in svariate piattaforme di Cognitive Computing (droni, robot, automobili, ecc.); l’evoluzione va verso un’ulteriore crescita di performance e scalabilità delle Gpu per accelerare lo sviluppo delle Deep Neural Networks (Dnn)”.
Va invece nell’ottica di memorizzare in spazi molto più piccoli grandissime quantità di dati il Quantum Computing [un computer quantistico per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici della meccanica quantistica, come la sovrapposizione degli effetti per effetto di particelle atomiche e subatomiche che possono esistere in stati quantistici sovrapposti – ndr]. È di questi giorni l’annuncio della realizzazione da parte di Ibm di un processore quantistico a cui gli utenti potranno accedere tramite una piattaforma quantistica, Ibm Quantum Experience, messa a disposizione sul cloud Ibm per qualsiasi dispositivo desktop o mobile. La piattaforma consentirà agli utenti di eseguire algoritmi ed esperimenti sul processore quantistico di Ibm, lavorare con singoli bit quantistici (qubit) ed esplorare attraverso tutorial e simulazioni tutte le possibilità del quantum computing.
“Per decenni, l’aumento della potenza dei computer è andato di pari passo con la miniaturizzazione dei circuiti elettronici”, spiega Lo Giudice. “La miniaturizzazione dei componenti, con la meccanica quantistica ha subìto una battuta d’arresto [in realtà, la meccanica quantistica giunge a risposte di prossime limitazioni legate alla fisica, relative al silicio. Sono infatti in molti a ritenere che la legge di Moore – secondo la quale il numero di componenti di un circuito integrato raddoppierebbe ogni 18-24 mesi – sia ormai stata invalidata: l’incisione del silicio nel 1971 avveniva intorno ai 10 micron (milionesimo di metro), nel 2001 era di 130 nanometri (miliardesimo di metro) e nel 2016 è di circa 22 nanometri. Secondo gli esperti nel 2018 sarà di 7 nanometri e 5 nel 2020, dopodicé si incontreranno problemi perché proseguendo con il silicio nella miniaturizzazione dei componenti, l’elettronica non funzionerebbe più, secondo le leggi della fisica, motivo per cui si parla già di quantistica e di materiali come il grafene a sostituzione del silicio – ndr], ma la sua traslazione nel campo informatico ha permesso di sviluppare infrastrutture con potenza di calcolo superiori rispetto ai sistemi precedenti”.
L’idea di fondo è utilizzare i qubit (stato quantistico di una particella o di un atomo) al posto delle unità d’informazione binaria tradizionali (i bit) che anziché codificare in 0-1 i due stati ‘aperto’ e ‘chiuso’ di un interruttore, possono codificare le informazioni binarie in due orientamenti ‘su’ e ‘giù’; ai fini del calcolo, l’aspetto interessante è che particelle atomiche e subatomiche possono sovrapporsi ampliando così le potenzialità di codifica delle informazioni binarie (condizione necessaria per risolvere calcoli/problemi estremamente complessi come quelli alla base dell’Intelligenza Artificiale). “Su questo fronte c’è ancora molto da fare perché ancora non si riesce ad avere un controllo reale su atomi e particelle e sulla loro interazione/comunicazione che rendono quindi difficile anche stendere algoritmi ad hoc pensati per funzionare su questo tipo di sistemi”, ammette Lo Giudice. “Dove si possono vedere invece già alcuni concreti risultati è sul piano dei cosiddetti chip neuromorfici”.
In questo caso entriamo nella sfera dell’hardware decisamente più vicino alla ‘strong AI’, dato che si tratta di microchip che integrano elaborazione dati e storage in un unico micro componente per emulare le funzioni sensoriali e cognitive del cervello umano. “I chip neuromorfici vanno nella direzione di uno sviluppo hardware che consente di fare elaborazione in modo radicalmente diverso rispetto all’approccio attuale”, spiega Curioni. “Nei modelli di Computing tradizionali, i dati vengono spostati nella Cpu che li elabora in base a quanto richiesto da uno specifico programma e poi vengono nuovamente spostati nello storage (elaborazione e storage stanno ‘in posti differenti’). Qualcosa di dirompente si è fatto con l’in-memory computing per portare la capacità di elaborazione dove stanno i dati (nella memoria volatile) e non viceversa (portare i dati alla Cpu) ma per riuscire a vedere concretamente progetti di ‘strong AI’ serve un approccio diverso: bisogna tenere dati e capacità di elaborazione nello stesso componente (esattamente come fa il cervello umano che li tiene nei neuroni e nelle loro sinapsi)”.
La frontiera ancora successiva è quella del Phase Change Memory (Pcm, memoria a cambiamento di fase, un tipo memoria non volatile a stato solido di nuova generazione): “Una unità di Pcm è in grado di cambiare lo stato del materiale cristallino che c’è in mezzo al passaggio di un segnale; il materiale che c’è nell’unità quando cambia il suo stato, la sua fase, ha una resistività differente rispetto alla condizione precedente [la resistività elettrica, anche detta resistenza elettrica specifica, è l’attitudine di un materiale ad opporre resistenza al passaggio delle cariche elettriche – ndr]”, dettaglia Curioni. “L’idea su cui si basa la ricerca oggi è costruire un nano-circuito che abbia tutte le caratteristiche necessarie in termini di Cpu, Gpu, Signal Processing ecc. e di materiali che generino un cambiamento di fase di tipo ‘continuo’: il materiale non cambia la sua fase tutto in una volta, ma man mano che il segnale passa al suo interno, per cui abbiamo un device con una certa resistività che cambia man mano che viene attraversato dal segnale (la resistività del chip aumenta ogni volta di 1; il device è in grado di tenere la somma di tutti i cambiamenti nonché il risultato di tutti i cambiamenti stessi ed il segnale è encoded nel device stesso)”. In questo caso si aprirebbero le porte per un rimpiazzo delle memorie flash che allo scalare delle dimensioni della tecnologia (come nel caso delle reti neurali complesse) potrebbero dare problematiche in termini di performance ed affidabilità.