Per non osare smentire la legge di Moore, negli scorsi mesi il numero di transistor sembrava dover raggiungere le centinaia di miliardi. E invece l’open source ha scombinato coraggiosamente le carte, imponendo al mercato dell’hardware un paio di forti cambi di direzione. Bruschi e imprevisti, non da tutti sono stati graditi ma è indiscutibile come abbiano regalato al mondo dell’innovazione apertura, scalabilità e democratizzazione.
La prima crepa aperta da Stable Diffusion
Per contestualizzare meglio la dinamica di questa rivincita del software libero bisogna tornare al 2022. Un secolo fa, per la velocità con cui procede la tecnologia, quando l’informatica aziendale era un ambito ancora tranquillo, quasi statico, visto col senno di poi. Il mercato dei PC risultava in discesa, con gli hardware di tutto il mondo lasciati sottoutilizzati.
Circa un anno fa è poi arrivato DALL-E, il primo strumento di intelligenza artificiale generativa di OpenAI e poco dopo, con simili opportunità, Midjourney. Tutto faceva pensare che la domanda di cloud computing avrebbe subito un’impennata, ma il mondo open source l’ha bloccata sul nascere, lanciando ad agosto Stable Diffusion. Questo database di pesi di diffusione si è infatti mostrato in grado di essere eseguito localmente, “snobbando” le risorse cloud invece essenziali per i suoi competitor.
Con questo strumento più “sostenibile”, e anche più utile ed estendibile, il mondo open source ha iniziato a far assaggiare ciò che sarebbe stato in grado di fare con l’AI, con meno transistor, ma assicurando una velocità competitiva.
ChatGPT vs LlaMA: vincono i semplici PC
Tempo di prenderne atto ed è poi arrivato a dicembre ChatGPT di OpenAI, che ha imposto un nuovo e completo cambio di scenario, riscrivendo le nostre aspettative sull’intelligenza artificiale. Il suo netto successo, sia B2B che B2C, stava portando a un ritorno di “richieste di hardware hard”, ma anche stavolta i paradigmi ispirati all’open source sono entrati a gamba tesa, interrompendo l’azione. Tempo qualche mese, infatti, e Meta ha rilasciato LLaMA, avvicinandosi alle performance di GPT-4 di OpenAI ma con un database di pesi più piccolo e maggior compattezza ed efficienza. Avendo “solo” trenta miliardi di parametri, LLaMA di fatto può funzionare su un PC con 32 GB di RAM e ciascuno può ritoccarlo in ottica migliorativa. Lo ha già fatto l’Università di Stanford, riducendone il costo di addestramento e condividendo il proprio codice.
Questa mossa ha aperto una appassionante gara di innovazione open che vede già entrare in scena una serie di modelli addestrabili ripetutamente, rapidamente ed economicamente. Siamo solo all’inizio, secondo gli esperti, ma una cosa è certa: i PC possono essere e saranno importanti cavalli di battaglia nel campo dell’AI generativa. Chi crede ancora nella Legge di Moore dovrà farsene una ragione, chi crede nell’innovazione, invece, potrà rimboccarsi le maniche ed entrare in gioco senza preoccuparsi di eventuali danni ai modelli di business di qualche big tech.