Si è già occupata dell’abbattimento della barriera della velocità exascale con il supercomputer più veloce del mondo, Frontier. Ora HPE vuole abbattere anche quella tecnologica che rende i large language model (LLM) un privilegio di pochi. È questo l’intento con cui ha creato e presentato a HPE Discover 2023 un servizio di supercomputing basato sul cloud che esegue il suo stack di machine learning.
Si chiama HPE GreenLake for Large Language Models (LLMs), didascalicamente, e mira a rendere più semplice l’addestramento e la distribuzione di LLM e di altri modelli di intelligenza artificiale generativa.
AI generativa per tutti: la promessa di HPE
Chiara ma tutt’altro che banale, è questa la mossa decisa dalla big tech per fare il suo atteso ingresso nel mercato cloud dell’intelligenza artificiale. Ha scelto di portare avanti un’opera di democratizzazione, fornendo lo strumento con cui qualsiasi azienda potrà addestrare, mettere a punto e distribuire privatamente l’intelligenza artificiale su larga scala, investendo di fatto su un servizio cloud, on-demand e multi-tenant.
Il CEO Antonio Neri presenta la novità come “una svolta epocale”, e parla di “un mutamento generazionale nel mercato dell’AI, che cambierà in maniera altrettanto radicale il web, il mobile e il cloud”. Di fatto, fornendo a tutti l’opportunità di “giocare” con l’intelligenza artificiale generativa, si aprono miliardi di possibilità, rendendo questa tecnologia accessibile a tutti.
Non ci sarà più un’élite che la sperimenta e il resto del mondo che la subisce, accontentandosi di difendersi dai rischi, raccogliendo briciole di innovazione. La soluzione combinata di HPE che unisce software AI e una potenza da supercomputer tra i leader di mercato, elimina la necessità di acquistare e gestire un proprio supercomputer, solitamente molto costoso, complesso e che necessita di competenze specifiche.
Per ottimizzare le applicazioni HPC e AI, il tutto sarà poi accompagnato da una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice. Alle aziende non resterà che pensare a cosa fare di tutto questa “improvvisa” potenza di fuoco.
Tecnologia unica e un modello pre addestrato per chi scalpita
Per non rischiare di confondersi sul mercato con altre offerte cloud generiche, HPE ha introdotto elementi tecnologici unici che la differenziano in modo evidente e immediato. Se finora tutte le soluzioni eseguono più carichi di lavoro in parallelo, HPE GreenLake per LLMs si basa su un‘architettura AI-native progettata in modo esclusivo per eseguire un singolo carico di lavoro di training e simulazione AI su larga scala e alla massima capacità di calcolo. Supportando attività di AI e HPC su centinaia o migliaia di CPU o GPU contemporaneamente, si ottiene una performance significativamente più efficace, affidabile ed efficiente per addestrare l’AI e creare modelli più accurati. Per i futuri utenti ciò si traduce in una potenziale accelerazione del percorso che porta da una proof of concept alla produzione, accorciando il time to market.
Grazie a una partnership con Aleph Alpha, startup tedesca impegnata nell’ambito AI, HPE propone anche un LLM collaudato sul campo e ready to use, per casi d’uso che richiedono l’elaborazione e l’analisi di testi e immagini. Si chiama Luminous, è utilizzabile in diverse lingue tra cui inglese, francese, tedesco, italiano e spagnolo, ed è pre addestrato e personalizzato. Le aziende potranno, per esempio, sfruttarlo per ottenere insights in tempo reale basati sulle proprie conoscenze, oppure già per realizzare e commercializzare diverse applicazioni di AI, integrandole nei loro flussi di lavoro per creare valore sia in termini di ricerca sia di business.
I primi settori che HPE immagina interessati sono quelli critici come banche, ospedali e studi legali a cui presenta Luminous come “un assistente digitale per accelerare il processo decisionale e risparmiare tempo e risorse”.
AI e sostenibilità sempre più intrecciate
Anche in HPE GreenLake for LLMs, l’azienda non intende tradire le proprie promesse in termini di ESG. La nuova soluzione funzionerà infatti su supercomputer accessibili e software AI alimentati quasi al 100% da energia rinnovabile. Sempre in ottica di un IT sostenibile, tutto sarà ospitato in strutture di colocation, partendo da QScale in Nord America, la prima infrastruttura a sfruttare un design appositamente studiato per supportare le esigenze di supercomputing, alimentato quasi per il 100% da energia rinnovabile. Ne seguiranno presumibilmente altre, man mano che la novità raggiungerà i diversi mercati geografici. Il suo effettivo lancio è infatti previsto entro la fine del 2023 in Nord America, mentre la disponibilità in Europa è prevista per l’inizio del prossimo anno. Parallelamente a questa roadmap di business, c’è anche quella strategica, più ampia. HPE GreenLake for LLMs, infatti, non sarebbe che la prima di una serie di applicazioni di AI specifiche per vari settori. In futuro, ci si dovrà quindi presto aspettare qualcosa di analogo per la modellazione climatica, la sanità e le life science, i servizi finanziari, la produzione e i trasporti.