La progettazione di nuovi prodotti, l’avvio di nuovi processi o di ottimizzazioni delle catene di produzione, logistica e trasporto non possono fare a meno di elaborazioni dati sempre più complesse e sofisticate. Se un tempo molte decisioni potevano essere prese sulla base dell’esperienza e di un foglio elettronico, oggi servono decisioni informate e analisi d’impatto.
Software di simulazione e HPC rappresentano quindi strumenti abilitanti per il cambiamento e per garantire il ROI. Per questo l’high performance computing (HPC) sta oggi entrando nelle imprese di ogni settore a supporto di simulazioni sofisticate, advanced analytics, machine learning (ML) e AI.
Nell’ambito del manufacturing, l’HPC e sofisticati software di simulazione accompagnano l’introduzione di strategie come Lean o JIT, prevedendo gli impatti, permettendo analisi predittive e quindi riduzioni dei costi rispetto ai test svolti sul campo. Le simulazioni consentono d’individuare le risorse necessarie, validare le attività di controllo dei processi e raccogliere i dati utili per risolvere altre situazioni.
HPC: un mercato in grande crescita
Componente chiave per accelerare i cicli di progettazione e il time to market, HPC è oggi in grande sviluppo, spinto anche dalla sempre maggiore accessibilità delle tecnologie hardware e dall’apparire di nuovi servizi as-a-service in cloud. Oltre la metà dei server HPC (51,2% secondo Hyperion Research) è oggi acquistato dalle aziende, sfatando il mito che HPC sia una tema d’interesse solo per enti di ricerca, agenzie governative e grandissime imprese.
Il mercato mondiale dell’HPC è passato dal valore di circa 2 miliardi di dollari del 1990 ai 24 miliardi nel 2017. Il solo segmento dei server HPC ha visto raddoppiare il valore nel periodo 2003-2017 raggiungendo la soglia dei 12,3 miliardi di dollari. Sempre secondo Hyperion, entro il prossimo 2022 il mercato mondiale dei server HPC raggiungerà la soglia dei 19,6 miliardi di dollari, portando il valore dell’intero comparto (comprendente anche storage, software e supporto) oltre i 38 miliardi di dollari.
L’HPC impatta sulla capacità delle aziende di essere competitive, accelerare e migliorare la progettazione dei prodotti. Un’indagine dell’U.S. Council on Competitiveness rivela come per il 97% delle aziende private che vi hanno investito, HPC sia fondamentale per la sopravvivenza stessa dell’impresa. Applicando un modello d’analisi sviluppato negli USA, gli analisti di Hyperion rilevano come per ogni dollaro investito in tecnologia HPC, le aziende del settore manifatturiero possano attendersi aumenti di fatturato pari a 83 dollari e di 20 nell’utile. Per confronto, ogni dollaro speso nell’HPC porta ritorni pari a 1800 dollari nell’ambito dei trasporti, 1200 in ambito governativo e 834 nel settore finanziario.
Breve storia dell’HPC e della simulazione
L’interesse per l’HPC è iniziato negli Anni 60, quando nei centri di calcolo di enti governativi e della ricerca accademica sono apparse le prime applicazioni di simulazione. Solo a partire dagli Anni 70, HPC ha iniziato ad entrare nelle grandi imprese per l’esecuzione di analisi sofisticate in ambito chimico, di resistenza dei materiali, del comportamento dei fluidi e quindi come strumento per migliorare i prodotti e accelerare l’innovazione.
La prima simulazione di cui si abbia traccia riguarda il Progetto Manhattan con cui durante la seconda guerra mondiale è stata messa a punto la bomba atomica. Lo sviluppo successivo delle tecniche di simulazione ha permesso di ampliare le applicazioni in tutti i campi dove è proibitivo o impossibile rappresentare gli stati possibili di un modello: dalla fisica nucleare, alla meteorologia, al comportamento di materiali e reazioni chimiche.
Tra le tappe tecnologiche più significative nello sviluppo dei moderni sistemi di calcolo c’è l’introduzione (con Iliac IV nel 1970) delle architetture parallele massive con cui è stato possibile battere le prestazioni ottenute in precedenza dai computer come Cray-1, tra i primi a utilizzare i moderni semiconduttori al silicio e il raffreddamento a liquido.
Altre architetture innovative messe a punto negli anni Anni ’80 da MIT e poi dall’Università di Osaka hanno consentito la realizzazione di supercomputer con centinaia di processori (540 nel computer LINKS-1), che sono diventati migliaia nel decennio successivo (2048 nell’Hitachi SR2201) grazie all’impiego di reti crossbar switching per scambiare dati ad altissima velocità e allo sviluppo del grid computing.
Le applicazioni della simulazione e dell’HPC nel manufacturing
L’utilizzo della simulazione nell’ambito del manufacturing permette di comprendere come singole modifiche abbiano impatto sull’intero sistema. Un piccolo cambiamento può infatti incidere sui KPI che riguardano, per esempio, il numero dei pezzi prodotti per unità di tempo, il tempo speso per lavorare e trasferire le parti, le code di lavorazione, ecc. A più alto livello l’impatto si propaga su inventari, tempi di consegna, capacità di utilizzazione degli impianti e sul calcolo delle ore lavorate dalle persone.
Nell’ambito del manufacturing, la simulazione trova quindi impiego nel disegno e bilanciamento delle linee di assemblaggio, nel capacity planning, nella gestione del trasporto e inventario, nel “just in time” e reengineering dei processi, nella pianificazione, nel controllo d’inventario, nell’allocazione delle risorse, nella schedulazione, gestione della supply chain e qualità.
Tra le tecniche di simulazione più usate c’è DES (discrete event simulation) tipo d’analisi che permette di conoscere le prestazioni di un sistema riproducendo le interazioni tra le componenti in un periodo di tempo prefissato. Oltre a DES sono impiegate Ie tecniche SD (system dynamics), ABM (agent based modeling), intelligent simulation (con l’uso dell’AI), P/T net (reti di Petri), MCS (Montecarlo simulation) e la realtà virtuale.
Sistemi di manifattura just-in-time possono richiedere simulazioni continue per riuscire a ottimizzare la produzione a fronte dell’arrivo di nuovi ordini e varianti di prodotto, attraverso l’utilizzo contemporaneo di più tecniche di simulazione (simulazione ibrida). La realtà virtuale immersiva trova invece ideale applicazione nell’adozione e nel supporto delle strategie di cellular manufacturing.
Implementazione e sfide nell’impiego dell’HPC
Computer cluster per HPC sono normalmente realizzati mettendo insieme un grande numero di server, cosa che richiede la soluzione di una serie di problematiche d’ordine organizzativo e fisico nel data center, che comprendono spazio, energia ed emissioni di calore. Rispetto a implementazioni comuni, nel caso dei cluster HPC diventano critici i requisiti di velocità nelle interconnessioni tra sistemi e quindi delle componenti usate per il collegamento.
Quelli citati sono i motivi per cui nel passato solo poche grandi realtà hanno potuto dotarsi dell’HPC. Per fortuna le cose stanno cambiando, la crescente domanda di soluzioni HPC ha spinto i vendor hardware a realizzare nuove componenti di sistema modulari e scalabili, sia nella potenza d’elaborazione sia nell’I/O, in grado di rendere più semplice l’implementazione in aziende d’ogni dimensione, oltre che presso gli operatori di servizi di ricerca e Internet.
Una modalità più semplice per accedere a servizi di HPC è oggi rappresentata dal cloud, attraverso applicazioni di simulazione, di ML/AI erogate in modalità Saas o Paas. È inoltre possibile disporre di potenza elaborativa su sistemi bare metal e GPU installati presso i cloud provider. Anche nel caso di implementazioni di tipo on premise, può essere vantaggioso disporre di capacità “on demand” aggiuntiva per le elaborazioni più complesse, avvantaggiandosi dei servizi di terze parti.
Per impostare una strategia HPC che non precluda l’utilizzo immediato o futuro del cloud è necessario seguire alcune buone regole nella progettazione. Gli analisti di Gartner raccomandano di scegliere applicazioni HPC che siano tecnicamente compatibili con l’impiego in cloud; serve inoltre assicurarsi che le licenze siano parimenti elastiche e convenienti nelle differenti modalità di servizio. Altra cosa importante è la scelta di un middleware capace di creare continuità tra implementazioni premise e cloud, oltre che di configurazioni che consentano anche in cloud l’esecuzione di workload intensivi sul fronte dell’I/O.
Evoluzioni future nell’HPC
Le collaborazioni avviate negli ultimi anni tra vendor fa supporre che la prossima generazione di HPC possa portare in dote maggiore standardizzazione a vantaggio delle capacità del software applicativo di fruire delle architetture CPU multi-core e multi cluster, permettendo di liberare preziosi cicli CPU da compiti improduttivi di gestione dello storage, networking e caricamenti di memoria.
Il futuro dell’HPC incrocia l’aumento delle prestazioni, dell’efficienza, della scalabilità dei sistemi e storage adeguato a sempre maggiori quantità di dati. La prospettiva d’evoluzione più prossima è rappresentata dall’exascale computing ossia da sistemi con potenza misurata in exaFLOPS (ossia miliardi di miliardi di operazioni al secondo) che saranno prevedibilmente disponibili a partire dal 2021.
Più a lungo termine, HPC potrà beneficiare degli sviluppi sul fronte del quantum computing e dell’affermazione dei relativi modelli computazionali che promettono prerogative dirompenti in ambiti come la ricerca, la crittografia, la simulazione di processi fisici e chimici.