Le nostre menti e le normative sono costrette a tener testa all’intelligenza artificiale che non accenna a voler cedere il suo ruolo di protagonista della digital transformation. Lo stesso vale anche per hardware, software e infrastrutture: devono dimostrarsi in continua evoluzione, per restare in grado di valorizzare i vantaggi dell’AI.
È in questo contesto che si inseriscono i nuovi trend individuati dagli analisti di Dell’Oro Group per il mercato delle schede NIC Ethernet. Entro la fine dell’anno quelle da 100 Gbps o più veloci saranno responsabili di quasi la metà dei ricavi del segmento, nonostante rappresentino meno del 20% delle schede vendute. Il mondo accelera, la tecnologia anche, e i mercati non possono che metterlo in evidenza, adeguandosi.
ML e chatGPT innescano la voglia di velocità
I principali clienti di questa tipologia di NIC sono storicamente gli hyperscaler e i cloud provider. Gli enormi flussi di dati che gestiscono per i loro clienti richiedono performance decisamente elevate. Ora però il panorama sarebbe destinato a cambiare, a seguito del boom del machine learning, amplificato dai molti entusiasmi registrati attorno ChatGPT. Questo e altri modelli di intelligenza artificiale generativa, infatti, molto probabilmente spingeranno la domanda di network verso velocità sempre maggiori. I workload AI/ML sono inoltre spesso distribuiti su più nodi GPU – e potenzialmente anche su più rack – per cui tendono a domandare una larghezza di banda notevolmente maggiore.
Nelle previsioni di Dell’Oro c’è anche un’impennata dei ricavi delle schede NIC. Il 2023 potrebbe chiudersi segnando un tasso di crescita a doppia cifra, nonostante un calo delle spedizioni del 9% rispetto all’anno precedente. Dati apparentemente controversi, che si spiegano mettendosi dal punto di vista dei provider. A causa del calo della domanda, è molto probabile che stiano dando priorità alle apparecchiature di fascia più alta, con interfacce più veloci, da 100Gbps, 200Gbps o addirittura 400Gbps. Parametri e conseguenti funzionalità, che mantengono alti i prezzi medi di vendita.
NIC costose, quindi, ma con un costo per bit più basso che dovrebbe far riflettere gli utenti. Potrebbe valer la pena di puntare su server in grado di sfruttare le velocità più elevate, piuttosto che risparmiare sulle schede NIC, per poi doverne sopportare la lentezza
NIC più intelligenti alla portata di tutti
Un ragionamento simile può valere nel caso delle smartNIC. L’accelerazione hardware innescata suggerirebbe di utilizzare CPU di fascia più bassa rispetto a quelle che potrebbero essere utilizzate con una NIC standard.
Chiamate anche unità di elaborazione dati o infrastrutture (DPU/IPU), le schede smartNIC combinano reti ad alta velocità e una serie di ASIC a funzione fissa o una FPGA configurabile con core di calcolo generici. Sono in genere utilizzate per alleggerire il lavoro della CPU host e non consumare “inutilmente” cicli di clock.
Secondo Dell’Oro, ci saranno in circolo sempre più schede di questa tipologia, man mano che sapremo trarne dei consistenti vantaggi. È però solo questione di tempo. Finora sono state poco fruibili e costose: per sfruttarle servivano le risorse di un cloud provider o developer esperti che progettassero software ad hoc. Oggi iniziano a spuntare software in gradi di sfruttarne il potenziale senza troppo effort.
Uno dei primi arriva da Vmware, e si chiama Project Monterey. Questa soluzione, come un livello di astrazione, consente di attingere direttamente all’accelerazione hardware per elementi come lo storage, il networking o la sicurezza all’interno di ESXi e vSphere 8. Lato utente, non impone nessun background particolare e nemmeno richiede troppo sforzo. Si riesce a sfruttare l’elaborazione integrata della scheda quasi automaticamente.
Soluzioni del genere mostrano chiaramente la direzione lungo cui si sta procedendo. Alta velocità e alte pretese, tempi stretti e scelta ampia di funzionalità per una tecnologia sempre più al servizio dell’AI.