Alzando il livello del dibattito sul ruolo che i LLM (large language model) stanno giocando nel mondo IT, va loro riconosciuto il merito di aver fortemente accresciuto la consapevolezza di quello che si può fare con l’intelligenza artificiale. Non è solo una questione di sensazioni: di fatto, grazie a questi modelli, imprese prima complesse o impossibili, sono diventate fattibili, e non solo da una stretta élite di big tech.
A sottolinearlo è Alessandro Curioni, vicepresidente per l’Europa e direttore dell’IBM Research di Zurigo, che, da questo laboratorio, osserva la trasformazione in atto, definendola senza incertezza una vera e propria rivoluzione. A trainarla l’AI, ma anche i progressi nel campo del quantum computing.
AI in azienda: ora ne vale la pena
La creazione di modelli basati su transformer per applicazioni specifiche è allo studio da tempo. Oggi, spiega Curioni, “se si vuole creare valore ma anche proteggere dati e proprietà intellettuale, garantendo trasparenza e openness, serve creare una infrastruttura particolare che permetta di prendere i modelli open e i dati disponibili e usarli opportunamente per creare foundation model per un caso specifico. Questo consente poi di pensare ad ampi set di applicazioni, a seconda delle singole esigenze”.
Quella che Curioni definisce “rivoluzione” consiste proprio in questo meccanismo “basato su foundation model creati con un approccio di self-supervised learning, connessi a modelli transformer, che rende altamente più efficace la creazione di modelli pre-addestrati per una vasta quantità di dati non etichettati. Il modello può imparare la struttura specifica del dominio su cui sta lavorando prima ancora che si inizi a pensare al problema che si sta cercando di risolvere”.
È proprio partendo da questo modello di base che diventa possibile, e anche più semplice, iniziare a risolvere facilmente i problemi di automazione con l’AI e utilizzando pochissimi dati. E se siamo abituati ad accostare il concetto di LLM a stringhe di testo, è il momento di comprendere che tutto ciò può invece adattarsi anche a codice, eventi informatici, serie temporali, dati geospaziali o persino molecole.
Partendo dalle principali attività di digital labor, solo grazie a questo “metodo” comincia a valer la pena di applicare AI e automazione all’interno dei processi aziendali. Non che prima non fosse possibile, ma risultava una scelta decisamente onerosa in termini di tempo, costi, competenze e numero di dati necessario, con l’aggravante che per ogni task, tutto andava rifatto da capo.
IoT e security pronti a creare valore grazie all’AI
I foundation model, quindi, rendono l’integrazione dell’AI significativamente più scalabile, conveniente ed efficiente. Questa, secondo Curioni, è la premessa della grande rivoluzione a cui stiamo per assistere. IBM la vuole spingere e lo fa con Watsonx, un ambiente di sviluppo di modelli di AI con l’accesso a foundation model addestrati e open-source che permette di addestrare e distribuire rapidamente funzionalità AI personalizzate, mantenendo il pieno controllo dei loro dati.
Per un settore come quello dell’IoT, è l’opportunità di vedere finalmente realizzate tutte le promesse che da circa 15 anni aleggiano nell’aria. Promesse “congelate” non tanto dalla tecnologia, quanto dal business: “finora è mancato un ritorno di investimento positivo” spiega Curioni. E aggiunge: “oggi con i LLM e i foundation model c’è un proliferare di nuove modalità di creare modelli AI che impatterà anche il mondo dei real data streams. Qualsiasi informazione fornita da sensori può essere trattata come fosse linguaggio, con la possibilità anche di incrociare flussi di dati diversi per creare un foundation model generativo per un dato processo. Questa modalità di applicare l’Ai all’IoT riduce di 5-6 volte i tempi e aumenta l’efficienza energetica di un fattore 5: fa diventare l’utopia realtà”.
La disruption raggiunge anche l’ambito della cybersecurity nell’IoT, facendole compiere un consistente passo in avanti. Con lo stesso meccanismo, infatti, “si possono prendere tutti i segnali generati dai diversi computer e dai device IoT, integrarli in modo opportuno e creare un foundation model per la sicurezza che permette di interagire con il modello e il suo utilizzo anche in linguaggio naturale”. Gestione più semplice, quindi, ma non solo: aumenta la possibilità di individuare anomalie e, con un grande modello fondativo creato con self-supervised learning, si può poi sviluppare e fare il training di modelli di security più piccoli, mirati a specifici scopi, con pochi dati e poca computazione” spiega Curioni.
Il quantum computing tiene il passo, anche in Europa
Se prima si pensava a un tandem di innovazione composto da IT e AI, ora, secondo Curioni, si deve ragionare in termini di “AI e tutto il resto”. Tale tecnologia è infatti giunta al punto di saper creare davvero valore in modo sostenibile, sbloccando innumerevoli opportunità e dettando tempi e priorità di tutto il settore IT. Non sfugge a tale predominio anche il mondo del quantum computing i cui passi avanti sono in perfetta sintonia con le nuove esigenze di potenza di calcolo dell’AI.
Anche in questo caso, si tratta di progressi che ci avvicinano a realizzare l’irrealizzabile. Curioni è ottimista: ritiene che, “nel prossimo anno, mostreremo di poter ottenere un vantaggio di valore del calcolo quantistico”. La sua rosea visione si nutre dell’ultimo annuncio fatto da IBM, pubblicato in un articolo su Nature. Per la prima volta, anche nell’era dei noisy qubit, sono state presentate tecnologie di noise mitigation che permettono, con un overread limitato, di correggere il rumore dei qubit su applicazioni non triviali. Finché risulta possibile il paragone con la computazione classica, i risultati ottenuti con questa tecnica sono corretti. Poi diventano “non verificabili” e, al momento, non si può ancora parlare di quantum advantage. Secondo Curioni, però, “siamo nella giusta direzione”.
In questo contesto, vale l’idea che “chi creerà valore sarà chi arriva prima degli altri”. È quindi urgente creare un ecosistema di quantum computing europeo che permetta a quest’area di non rimanere esclusa fin da ora da una competizione che sarà mondiale e prioritaria. Un tassello importante del percorso ancora ai suoi inizi può essere rappresentato dal primo data center quantistico europeo realizzato da IBM riunendo più computer quantistici sotto lo stesso tetto.
Una scelta strategica dettata da tre principali ragioni, prima di tutto dalla consapevolezza che la tecnologia di calcolo quantistico sta cominciando a dimostrarsi davvero utile, per lo meno in alcuni circoscritti contesti. C’è poi chi ci deve credere e scommettere, come stanno iniziando a fare imprese, università e governi, incaricate di formare una futura forza lavoro quantistica, facendo leva su una infrastruttura che risponde al bisogno di mantenere i propri dati nel continente. Terzo sostanziale motivo è la necessità (storica) di promuovere in Europa una concreta collaborazione in nome dell’innovazione che includa anche la sua potenza di calcolo.