L’Intelligenza Artificiale (AI) è probabilmente la tecnologia più dirompente degli ultimi anni, complice il grande interesse suscitato soprattutto dalla Generative AI da quando, a novembre 2022, è stata lanciata la prima versione di ChatGPT. Anche in Italia, come si ricava dall’ultimo Osservatorio Artificial Intelligence del Politecnico di Milano, l’AI sta attraversando una fase di crescita tumultuosa. Secondo i dati dell’Osservatorio, infatti, nel 2023 il mercato del nostro paese ha registrato un aumento del 52% sull’anno precedente, pari a un valore complessivo di 760 milioni di euro. Gran parte degli investimenti si riferisce a soluzioni di analisi e interpretazione dei testi per ricerca semantica, di classificazione, sintesi e spiegazione di documenti o agenti conversazionali tradizionali.
Nonostante questo trend, il livello di maturità delle grandi aziende, il 61% delle quali ha avviato un progetto di Intelligenza Artificiale seppure di natura sperimentale, non è omogeneo. Solo l’11% si può considerare “avanguardista”, secondo i profili di adozione individuati dall’Osservatorio. Il 23% invece è “apprendista”, cioè difficilmente impiega metodologie strutturate o soluzioni standard e pronte all’uso. Nel restante 66% dei casi permangono situazioni eterogenee. Tra queste, vi sono aziende che ancora non percepiscono il tema come rilevante, anche perché non dispongono di un’infrastruttura IT adeguata alla gestione di grandi quantità di dati.
La sfida dell’inferenza AI e come affrontarla
La sfida principale che le organizzazioni alle prese con l’Intelligenza Artificiale si trovano dinanzi è quella dell’inferenza, vale a dire la capacità di ricorrere a modelli di AI addestrati per coprire una serie di casi d’uso in diversi mercati che spaziano dalla sanità ai servizi finanziari fino al manifatturiero. Poiché i carichi di lavoro sono spesso ad alta intensità di calcolo e dati, necessitano di tecnologie di elaborazione accelerata che vanno oltre le capacità dei normali computer. In altri termini, non richiedono soltanto GPU potenti, ma sistemi e software di GPU Computing distribuiti con cui scalare l’elaborazione in verticale e orizzontale su un intero data center. Tra i protagonisti globali che si distinguono in questo ambito non si può non citare NVIDIA che offre soluzioni full stack per svariati settori, aree scientifiche e applicazioni.
Attualmente, più di 450 tra SDK, toolkit, librerie e modelli NVIDIA trovano impiego in contesti quali – per citarne alcuni – climate modeling, healthcare, life science, gaming, design, robotica, auto a guida autonoma, informatica quantistica, supply chain, logistica, cybersecurity, 5G e così via. Sono più di 25 mila le società che oggi utilizzano le tecnologie NVIDIA riferite all’Intelligenza Artificiale. Questa è la ragione per cui un’azienda come HPE ha scelto NVIDIA per i suoi server di ultima generazione, tra cui HPE ProLiant DL380a Gen11.
I risultati della partnership tra HPE e NVIDIA
Progettata come piattaforma ultra-scalabile per carichi di lavoro AI ottimizzati con acceleratori, HPE ProLiant DL380a Gen11 si presta a casi d’uso specifici come, ad esempio, la generazione di animazioni 3D dinamiche e realistiche comprensiva di movimenti dei personaggi, simulazioni fisiche ed effetti ambientali. O, ancora, serve ad alimentare modelli linguistici di grandi dimensioni in virtù della capacità di elaborazione del linguaggio naturale che, a sua volta, può indirizzarsi verso attività quali il rilevamento delle frodi o la manutenzione predittiva.
Acquistabile come server fisico, HPE ProLiant DL380a Gen11 può anche essere utilizzato in modalità as-a-service tramite GreenLake. La piattaforma HPE propone un modello di distribuzione dell’IT consumption-based che non si limita a un singolo server, ma offre un’esperienza d’uso paragonabile al cloud pubblico per i carichi di lavoro on-premise, on edge o in colocation. GreenLake in sostanza semplifica e protegge la gestione dall’edge al cloud, semplificando le modalità di controllo dell’elaborazione aziendale. In più, il suo carattere flessibile e modulare consente di aumentare la capacità in base alle esigenze peculiari dell’organizzazione. A tale scopo, HPE collabora anche con i leader tecnologici del mondo della virtualizzazione in maniera tale da ottimizzare le prestazioni, aumentare la disponibilità, rafforzare i profili di sicurezza e semplificare la manutenzione.
Il programma Pathfinder e il caso Aleph Alpha
La partnership con NVIDIA e altri vendor affermati non è l’unica strada propugnata da HPE per rendere l’Intelligenza Artificiale fruibile da una platea sempre più ampia di imprese. Attraverso il programma Hewlett Packard Pathfinder la multinazionale identifica le startup su cui investire e con le quali creare soluzioni e avviare programmi go-to-market congiunti. Un caso particolarmente interessante, con riferimento al segmento AI/Analytics, è quello di Aleph Alpha. Fondata in Germania nel 2019 da un team di scienziati, ingegneri e innovatori internazionali, la società gestisce uno dei cluster di AI più veloce d’Europa. Le sue soluzioni vertono su un’idea di Sovereign AI che punta a garantire indipendenza e protezione alle imprese e alle istituzioni che se ne servono.
Partendo da queste premesse, nel giugno scorso HPE aveva scelto il modello LLM (Large Language Model) di Aleph Alpha per il suo servizio cloud privato di AI. Una scelta confermata a novembre 2023 dalla partecipazione al round di investimento all’interno di un consorzio con cui erano stati raccolti oltre 500 milioni di dollari. Grazie a queste risorse, la startup tedesca potrà velocizzare il percorso di commercializzazione dell’Intelligenza Artificiale Generativa per le applicazioni più complesse e critiche come quelle implementabili nei settori della sanità, della finanza, della sicurezza e della Pubblica Amministrazione. In realtà, l’alleanza tra HPE e Aleph Alpha non si limita alla parte tecnologica o al sostegno economico. Conferma un approccio in cui l’AI possa esprimere le sue potenzialità mediante soluzioni affidabili, sostenibili e che rispettino la sovranità dei dati. Un obiettivo che si può ottenere non da soli ma, appunto, collaborando insieme.