Più l’intelligenza artificiale (AI) si concretizza in diversificate applicazioni nel mondo aziendale e industriale, e più i responsabili dei sistemi informativi stimano e studiano fino a che punto l’infrastruttura IT esistente nell’organizzazione possa essere sufficientemente solida e potente nella gestione dei nuovi workload data-intensive. Peraltro, occorre dire che nel 2019, nonostante il livello d’interesse suscitato, nel mondo business il tasso d’adozione della AI non ha seguito lo stesso passo; il 2020 sta però mostrando un aumento, non solo di attenzione, ma anche dell’implementazione dell’intelligenza artificiale, come emerge da una survey commissionata da IBM, From Roadblock to Scale: The Global Sprint Towards AI, che ha sondato più di 4.500 decisori tecnologici, per stimare gli stati attuali e futuri delle implementazioni AI negli Stati Uniti, in Europa e in Cina, e comprendere meglio il panorama generale e le sfide da affrontare.
Workload AI, il legame con il cloud
I risultati della ricerca indicano che il tasso d’adozione della AI è più rapido rispetto a quello che vari osservatori del settore avevano previsto: ad esempio, il 45% dei rispondenti che lavorano in grandi aziende (oltre mille addetti) dice di aver adottato la AI; cosa che ha fatto anche il 29% delle piccole e medie organizzazioni (sotto i mille addetti). Un dato interessante riguarda il tipo di infrastruttura scelto dalle organizzazioni che stanno attualmente implementando tecnologie AI, per gestire workload data-intensive e no: nei vari deployment, tali aziende sono più propense a utilizzare il cloud ibrido (il 38% lo ha adottato, il 26% lo sta sperimentando) o addirittura un hybrid multi cloud (il 17% lo ha adottato, l’8% lo sta esplorando).
Workload data-intensive: quali risorse richiedono
Nelle applicazioni che amministrano workload data-intensive, i dataset di big data in gioco possono essere dell’ordine di grandezza dei terabyte o petabyte. Tali dataset sono comunemente esistenti in diversi formati e distribuiti in differenti sistemi e ambienti IT. Inoltre, la maggior parte delle informazioni è reperibile in forma non strutturata, e impone requisiti di capacità di elaborazione più elevati rispetto a quella strutturata. In alcune tipologie di applicazioni AI, i workload data-intensive sono anche particolarmente compute-intensive, e richiedono non soltanto elevate prestazioni nello spostamento dei dati in termini di ampiezza di banda di I/O (input/output) e memoria RAM, ma necessitano anche di una capacità di calcolo parallelo molto sviluppata: è questo il caso, ad esempio, degli algoritmi di deep learning (DL), estremamente compute-intensive e capaci di assorbire fino al 50-60% delle risorse per la gestione del workload AI.
Dimensionare in modo corretto l’infrastruttura hardware
Le limitazioni delle architetture data center classiche, basate su server x86, nella gestione dei workload data-intensive si superano aggiornando la piattaforma hardware: sulla base delle risposte ottenute dalle organizzazioni che hanno amministrato applicazioni AI, la società di ricerche IDC, in un recente white paper, conclude che l’infrastruttura ideale può consistere in un cluster di server single socket, o dual socket (il socket è lo ‘zoccolo’ sulla scheda madre del server che permette l’inserimento del microprocessore, ndr.), dotati di acceleratori hardware, come ad esempio quelli basati su GPU (Graphics Processing Unit). Anche se, precisa, tali acceleratori potrebbero essere aggiunti in un secondo tempo, in funzione dell’aumento delle esigenze di calcolo. Infine, raccomanda IDC, i team IT dovrebbero considerare non soltanto i prodotti server disponibili attraverso i vendor abituali, ma valutare anche altri fornitori di server, soprattutto quelli in grado di offrire uno stack hardware-software completo per la gestione dei workload data-intensive.