Attualità

La sfida europea per competere con ChatGPT 

Una qualsiasi alternativa a ChatGPT e ai modelli statunitensi dovrà dimostrarsi più performante, più affidabile, ma soprattutto più sostenibile a livello energetico per poter avere successo. L’Europa, come Unione e attraverso i suoi singoli Paesi, partendo da questa certezza supporta numerose iniziative. In Italia, a coordinarle è la Fondazione FAIR, finanziata dal PNRR per studiare modelli nazionali multimodali e anche personalizzabili. 

Pubblicato il 05 Feb 2024

shutterstock_1172097490 (1)

I Large Language Model stanno diventando l’ennesimo oggetto di dipendenza che relega l’Europa al ruolo di succursale degli Stati Uniti. Il loro evolversi, svelando inimmaginabili capacità e concrete connessioni con settori anche non prettamente digital-friendly, concede ancora spazio di manovra. I singoli Paesi membri e l’Unione tutta, in blocco, hanno poco tempo per organizzarsi e creare alternative. Una missione non banale, ma che può far crescere l’ecosistema dell’innovazione rendendolo sempre più propenso alla collaborazione e alla condivisione. Certe sfide, quella dell’AI generativa soprattutto, non possono essere vinte diversamente.

La pioniera Svezia alle prese con la carenza di dati

Un’anteprima delle criticità che si incontrano nel creare un LLM e addestrarlo ci viene fornito dalla Svezia che, fin dal 2019, ha abbracciato questa impresa. L’accesso ai dati e la loro gestione costituiscono i primi ostacoli del percorso che l’Artificial Intelligence Sweden sta tuttora perseguendo, per la propria lingua ma anche per tutte le altre principali lingue della regione nordica: danese, svedese, norvegese, islandese e faroese. Il suo progetto “Language model for Swedish Authorities” nasce per rispondere al bisogno di sovranità e di sicurezza soprattutto del settore pubblico che, con i suoi tanti dati in lingua madre, sogna un ChatGPT nazionale. Sarebbe più comodo e permetterebbe di non affidare informazioni sensibili ai colossi a stelle e strisce.

Con l’entrata in gioco di GPT-3, e via via delle altre nuove versioni di OpenAI e dei suoi competitor, la Svezia non ha rinunciato al suo LLM. Anzi, guarda e si lascia ispirare, attrezzandosi sempre meglio sia per quanto riguarda la potenza di calcolo che i data set per il training. Grazie all’associazione con Wallenberg, ha ottenuto l’accesso al supercomputer svedese Berzelius e, nel frattempo, ha scelto di usare dati in svedese, norvegese, danese, islandese e anche in inglese, esplorando le opportunità di trasferimento di competenze generali, durante il training, come quella di sintesi e di traduzione. Sogna di passare dal “language” (LLM) al “multimodal” model (LMM) e guarda con attenzione i passi dell’Unione Europea.

Aprendo gli orizzonti allo scenario “continentale”, si intersecano iniziative più acerbe ma concrete, e che aspirano a essere lungimiranti. Alcuni ripongono le proprie speranze sull’azienda tedesca Aleph Alpha, che vende servizi di AI generativa ad aziende e governi e ha già migliaia di clienti paganti. I suoi modelli linguistici di grandi dimensioni sono in grado di svolgere un ruolo “da stagista”, l’obiettivo prossimo e urgente è renderli personalizzabili e declinabili su scala europea, assicurando che le lingue parlate nell’Unione non siano escluse dagli sviluppi dell’AI. Un bisogno sentito sia dal settore pubblico che da quello privato, entrambi preoccupati per la privacy dei dati e per i bias amplificati dall’AI generativa. Due temi su cui l’UE ha una sensibilità molto differente rispetto agli USA. La crescente speranza è che Aleph Alpha o chi per essa, possano presto presentare sul mercato un ChatGPT europeo.

Gli LLM secondo FAIR: multimodali e sostenibili

Parlare di “ChatGPT europeo” non sarebbe propriamente corretto, secondo Giuseppe De Pietro, membro del CNR e presidente della Fondazione FAIR. “Ho seri dubbi sul suo approccio, si è rivelato non sostenibile. Un LLM europeo non può essere una sua replica e la vera competizione si giocherà sull’affidabilità dei risultati. Il nostro modello dovrà essere migliore in prestazioni, più sostenibile e dovremo lavorarci assieme: il buon senso dice che si tratta di uno sforzo che deve essere condiviso, il numero di parametri in gioco lo rende inaffrontabile per un singolo paese”.

Dietro all’acronimo FAIR si nasconde l’iniziativa nazionale chiave sull’AI, finanziata dal PNRR: la Future Artificial Intelligence Research. Si tratta di HUB gestito da CNR in collaborazione con il Laboratorio Nazionale AIIS (Artificial Intelligence and Intelligent Systems), del CINI (Consorzio Inter universitario Nazionale per l’Informatica) per il coordinamento e la gestione delle tante attività presenti e future attorno a questa tecnologia. Si spazia dalle metodologie ai modelli, dalle regole etiche e legali alle tecnologie in senso stretto, ma con una “nuova” e intensa attenzione ai perimetri di sicurezza e fiducia all’impatto ambientale e sociale.

Gli sforzi di FAIR convergono infatti sulla ricerca e sulla costruzione di LLM nazionale, ma soprattutto a minor consumo energetico. “Servono modelli che si possano allenare con meno dati e meno risorse e che parlino la nostra lingua. PA e privati necessitano di LLM in italiano e verticali su settori di interesse come quello giuridico, medico e dei beni culturali” spiega De Pietro. “Lo sviluppo di modelli AI porta anche a un incremento di competenze e know how di cui l’ecosistema italiano ha bisogno. Un altro vantaggio che non possiamo lasciare agli Stati Uniti solamente” aggiunge.

Generalisti europei, verticali nazionali: gli LMM allo studio

Con la ferma idea di “fare meglio” rispetto agli LLM che oggi spopolano, FAIR sta lavorando su nuovi algoritmi e nuove tecnologie Large Multimodal Model sostenibili sia economicamente che dal punto di vista ambientale. “Due sono le strade perseguibili: sviluppare tanti verticali per i settori che lo richiedono, oppure elaborare una grossa iniziativa che poi potrà essere declinata e personalizzata”. In entrambi i casi, le sfide non mancano, a partire dai dati di training e dall’attendibilità delle informazioni ottenute.

De Pietro è ottimista, vede l’impresa fattibile, a una condizione. “Per quanto riguarda il potere di calcolo, abbiamo un accordo di collaborazione con CINECA. Le competenze in materia di AI e LLM non ci mancano. Dobbiamo – precisa – tramutare le nostre potenzialità in progetti concreti, visto che gli ingredienti ci sono tutti. Oggi la comunità scientifica ha cambiato mindset. Soprattutto nel mondo della ricerca si sta comprendendo che certe sfide richiedono una massa critica talmente grande che non bastano piccoli gruppi di menti illuminate. Sta diventando sempre più forte la consapevolezza di dover fare sistema. In Italia e anche a livello europeo”.

L’ideale sarebbe infatti cooperare a livello di UE per lo sviluppo di sistemi generalisti alternativi e competitivi rispetto a ChatGPT &Co e, al contempo, lavorare a sistemi verticali nazionali con le proprie forze, visto che richiedono risorse limitate.

L’ideale sarebbe anche investire maggiormente sulla formazione dei cittadini perché “questi sistemi sofisticati possono generare una sensazione di fiducia rischiosa. Ben venga regolare a monte con l’AI Act, quindi, ma servono anche iniziative educative che, in contrasto con la narrazione terroristica sull’AI che alcuni portano avanti, spieghi che questa tecnologia è uno strumento da imparare a usare. Non deve avvenire come con Internet, di cui le persone hanno iniziato a fidarsi ciecamente annullando il proprio spirito critico”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2