Oggi, le moli di dati che organizzazioni e imprese d’ogni genere stanno raccogliendo sui propri prodotti e servizi, su clienti, fornitori sono sempre più grandi. Tuttavia, per metterli a frutto e trasformarli in servizi e applicazioni di reale valore per il business, chi si occupa di data science ha necessità di utilizzare i corretti framework di intelligenza artificiale. Nonostante questa esigenza, l’attuale scenario imprenditoriale appare differente.
Molte aziende, rileva in un recente studio la società di ricerche e consulenza Forrester, non stanno ancora fornendo gli strumenti giusti per consentire ai propri data scientist e analisti di mercato di trovare i dati con rapidità e facilità, e accedere ad essi per costruire modelli predittivi efficaci.
Framework di intelligenza artificiale, obiettivo eliminare le inefficienze
La tendenza dei team di data science a utilizzare tool software e framework di intelligenza artificiale differenti finisce per creare silos tecnologici e flussi di lavoro disorganici, che a loro volta generano operazioni inefficienti e processi manuali, ostacolando la produttività di data scientist, ingegneri e sviluppatori. A causa di questi impedimenti, gli scienziati dei dati perdono più tempo nei processi di acquisizione e preparazione dei dati che nella costruzione dei modelli predittivi.
L’obiettivo delle varie organizzazioni, invece, dev’essere dare la massima priorità all’incremento della produttività dei propri data scientist, per analizzare più dati e creare più modelli in grado di accelerare il raggiungimento di risultati di business positivi.
Framework di intelligenza artificiale: cosa sono
Per facilitare il lavoro di data scientist e sviluppatori, i framework di intelligenza artificiale sono formati da interfacce, librerie, strumenti, risorse di supporto della comunità di sviluppatori, che permettono di costruire modelli predittivi con più rapidità e facilità, senza doversi preoccupare nel dettaglio degli algoritmi sottostanti o di scrivere centinaia di linee di codice. Tutto ciò è possibile grazie a componenti ottimizzati e precostituiti, che forniscono un percorso chiaro per la definizione dei modelli.
Tra le caratteristiche chiave di un buon framework di intelligenza artificiale vi sono le funzionalità di ottimizzazione delle prestazioni, la facilità di comprensione e programmazione, ma anche la disponibilità di un valido supporto tecnico da parte della comunità di sviluppatori, e la capacità di parallelizzazione del calcolo, per distribuire i carichi computazionali.
Framework di AI, esempi applicativi
Tra i principali framework di intelligenza artificiale si possono citare TensorFlow, PyTorch, Keras, Caffe.
Sviluppato dai ricercatori e ingegneri del team Google Brain, TensorFlow è una piattaforma open source completa per il machine learning (ML) e consiste in un ecosistema di tool, librerie e risorse della comunità indirizzato a permettere agli sviluppatori di costruire e implementare con facilità applicazioni aziendali basate sul ML.
Uno dei casi d’uso in cui può essere utilizzato TensorFlow riguarda l’applicazione di visione artificiale, riconoscimento e classificazione d’immagini, basate su deep learning (DL): ad esempio, Airbnb, il portale online per la ricerca di alloggi, ha usato TensorFlow per classificare in maniera corretta le tipologie di camere esistenti in elenchi di fotografie, in modo da ottimizzare l’esperienza utente di coloro che stanno conducendo una ricerca online.
Un altro esempio, in campo medicale, è l’applicazione sviluppata da GE Healthcare, fornitore di attrezzature per diagnostica, finalizzata ad aiutare gli operatori che lavorano usando attrezzature MRI (Magnetic Resonance Imaging). Adottando il framework di AI TensorFlow e l’interfaccia Keras, GE ha potuto implementare un algoritmo di DL e addestrare una rete neurale all’identificazione automatica di specifiche conformazioni anatomiche nell’esecuzione degli esami di risonanza magnetica (MRI) al cervello. Il livello di automazione raggiunto in queste operazioni aiuta i radiologi a semplificare la complessità di preparazione delle immagini per ogni singolo paziente, e a migliorare la velocità e l’affidabilità del processo di imaging.