Il convegno Intelligenza artificiale: l’Italia s’è desta ha analizzato, fra l’altro, quanto di nuovo è emerso nel campo dell’Artificiale Intelligence (AI) nel 2021, come conseguenza sia della pandemia sia dell’evoluzione tecnologica e della ricerca.
In continuità con quanto evidenziato dall’Osservatorio dell’anno precedente, la pandemia non ha influito particolarmente sull’andamento della ricerca, in crescita costante, se si prende come indicatore il numero di lavori accettati a Neurips, una delle principali conferenze internazionali in ambito AI. È invece cambiata la percezione, evidenziata dalla top rank di Google Scholar, dove fanno la parte del leone i lavori legati a temi Covid. L’unico in ambito AI che risulta fra i più ricercati è orientato all’individuazione di oggetti nelle immagini, uno strumento rivelatosi molto utile, ad esempio, per contare le persone in una scena e verificare che indossassero correttamente la mascherina. In fondo, sempre di Covid si tratta.
Sul versante delle novità correlate alla tecnologia, Manuel Roveri, Responsabile della Ricerca, Osservatorio Artificial Intelligence, individua tre diverse prospettive, riassumibili con tre numeri: 35, come le settimane necessarie in media per l’approvvigionamento di un chip o una scheda ad alte prestazioni, tipicamente usati in ambito AI; 1%, come la quota di informazioni non strutturate utilizzate per generare valore; 26, come Cop 26, per richiamare l’attenzione sull’impatto energetico delle attività in area AI.
La crisi dei chip rischia di rallentare l’AI, ma aguzza l’ingegno
La carenza di chip nel 2021 ha colpito molte aree fra cui l’Intelligenza Artificiale, che si trovava in un momento di forte espansione, mentre la crescita della domanda di dispositivi di elaborazione di fascia alta è stata accelerata dalle nuove abitudini indotte dalla pandemia. D’altra parte, la produzione è stata rallentata anche dalla scarsa disponibilità di materie prime, in particolare le terre rare, che la guerra in corso rischia di accentuare.
Per porre freno alla carenza strategica nella produzione di chip e della dipendenza da produttori statunitensi o del Sud Est asiatico, l’Unione Europea ha lanciato un’iniziativa con l’obiettivo di passare dall’attuale quota di mercato del 9% al 20% nel 2030.
Nel frattempo, però, la scarsa disponibilità delle piattaforme di computazione ha spinto i ricercatori a ripensare alle modalità di utilizzo delle piattaforme esistenti e ha favorito lo sviluppo del concetto di AI computing continuum. Non è una novità, ma nel 2021 il fenomeno ha visto un’accelerazione, con nuove declinazioni. Il mondo cloud si è infatti aperto al machine learning (ML) e Deep learning (DL) as a service, mettendo a disposizione soluzioni pronte per i ricercatori. Un’altra declinazione è l’Edge AI, in grado di sfruttare piattaforme distribuite messe a disposizione per la computazione, anche in connessione con il mondo 5G.
Un ulteriore trend tecnologico, legato alla pervasività del mondo IoT, vede lo sviluppo di soluzioni ML e AI “real time”. In pratica il processo di training del ML, si realizza live con i dati on line, a differenza dell’approccio tradizionale che vede i data scientist costruire off-line il modello in logica batch, basandosi su dati storici di test. Il vantaggio è poter realizzare, anche con pochi dati di partenza, un modello affidabile che si aggiorna continuamente.
Il ritorno della data analytics, in una nuova prospettiva
“Un’interessante ricerca di Cisco ha mostrato che solo l’1% delle informazioni non strutturate viene realmente analizzato per generare valore” ricorda Roveri. “Questa considerazione si lega con uno dei trend indicati da Gartner per l’AI, ossia il ritorno della big data analytics, in una nuova prospettiva”. Come abbiamo visto anche durante la pandemia, è necessario operare con tanti dati, provenienti da differenti sorgenti e in rapida evoluzione, che vanno resi interoperabili in modo efficace.
Dal punto di vista algoritmico, si sono rafforzati paradigmi di computazione già in qualche modo presenti. È il caso del meta learning, sintetizzabile nello slogan “imparare a imparare” per essere più rapidi a reagire. Si tratta di un sottoinsieme del ML, utilizzato per migliorare i risultati e le performance dell’algoritmo di apprendimento, aiutando i ricercatori a capire quale algoritmo generi le migliori previsioni da un certo dataset.
Sono cresciute anche tecniche come la neuro architect search, pensate per automatizzare la progettazione di reti neurali artificiali, che spesso offrono prestazioni superiori a quelle progettate manualmente. “Possiamo immaginare nel futuro, in ambito sanitario, uno scenario in cui per fare previsioni si possano integrare i dati che provengono dal servizio sanitario nazionale con i dati delle ricerche delle persone su Google e i loro sentiment”, ipotizza Roveri. Per evitare rischi in tema di privacy, sono prevedibili meccanismi di ML in grado di garantirla in automatico mentre si stanno affermando ambienti federated learning che offrono la possibilità di costruire modelli globali distribuiti senza dover condividere i dati.
AI responsabile anche in termini di sostenibilità
Il richiamo alla Cop 26 farà aumentare l’attenzione sull’impatto ambientale delle tecnologie digitali che vede l’1% dell’energia mondiale consumata dai data center, di cui l’AI è in gran parte responsabile. “Alcune ricerche hanno mostrato che, per addestrare un rete neurale complessa e profonda, si genera una quantità di CO2 pari a quella prodotta da cinque auto in tutta la loro vita”, ricorda Roveri.
Il problema di sostenibilità va considerato non solo nella fase momento del training ML, più energivoro ma limitato nel tempo, ma anche in quella di inference che sarà ripetuta più volte. Va posta attenzione anche al sovradimensionamento tipico dei modelli di Deep Learning, per ragioni di rapidità di convergenza, che comporterà anche un eccesso di memorie occupate, di computazione e di energia consumata. La sfida per l’AI è dunque di essere responsabile non solo in termini di etici e sociali ma anche in termini di sostenibilità.