L’utilizzo crescente dei workload computazionali d’intelligenza artificiale (AI) nelle aziende sollecita i data scientist ad affrontare tematiche d’ordine tecnologico, metodologico e organizzativo del tutto nuove, oltre alla necessità di acquisire competenze specifiche. Saper affrontare correttamente i vari aspetti che riguardano l’impiego di machine learning e deep learning è fondamentale per il successo dei progetti di AI, per evitare che tempi e costi vadano oltre quanto previsto o non vengano ottenuti i risultati sperati.
L’attenzione al dato, all’elaborazione e alla fruibilità da parte degli utenti finali
Tra i consigli per il data scientist che deve affrontare progetti di AI c’è innanzitutto quello di impegnarsi seriamente nella preparazione dei dati. Le applicazioni di AI necessitano della connessione tra fonti dati di diversa natura (preferenze dei clienti, modelli di comportamento su base geografica o stagionale, discussioni su social media…) e di diversa provenienza, sia interna sia esterna all’azienda. Prima di definire algoritmi e modalità d’apprendimento è quindi fondamentale predisporre un’infrastruttura dati efficace con la quale garantire un’alimentazione “di qualità” ai sistemi di learning e AI.
Le applicazioni di AI, in particolare quelle più avanzate che si avvalgono delle tecniche di deep learning, non possono fare a meno d’infrastrutture d’elaborazione specificamente ottimizzate per l’analisi dei dati e i carichi di lavoro. Un valido consiglio per il data scientist è quello di scegliere piattaforme che siano scalabili nella potenza e adatte a operare con i più diffusi framework open source, strumenti come Caffé, Torch, Tensorflow, Theano e Chainer. La possibilità d’impiegare differenti framework permette di velocizzare i deploy dei progetti, sfruttando le componenti che risultano più facili da impiegare.
Tra i consigli per il data scientist c’è inoltre quello di non trascurare il trend che porta le line of business a richiedere sempre più velocità e maggiore autonomia nell’accesso ai report e ai dati utili. L’impiego avanzato dell’AI promette oggi di facilitare l’accesso diretto degli utenti aziendali ai dati d’interesse, senza ritardi e intermediazioni esperte. Questo richiede strumenti più avanzati, facili da usare e intuitivi.
Consigli per il data scientist che voglia aggiornare le proprie competenze
L’evoluzione di nuove tecnologie e servizi nel campo dei dati reclama l’acquisizione di sempre nuove competenze da parte del data scientist che voglia essere d’aiuto nell’introdurre l’innovazione in azienda. Tra le skill del data scientist non possono mancare le capacità di creare algoritmi analitici, programmare nei linguaggi SQL e R, la conoscenza di piattaforme big data come Apache Spark e Hadoop, ma lo scenario è in evoluzione ed emergono nuove esigenze.
Secondo il report “Data Science in the New Economy” pubblicato nello scorso luglio 2019 dal World Economic Forum, nel corso dell’ultimo anno è cresciuta la domanda di competenze nell’ambito dell’elaborazione del linguaggio naturale e della data visualization. Sta inoltre emergendo la figura professionale dello specialista di machine learning (ML), figura a cui molto spesso sono richieste competenze di computer vision, e relative all’impiego dei framework Spark, TensorFlow e Keras (framework che sono supportati da piattaforme come IBM Watson ML).
Tra i consigli per il data scientist c’è quello di continuare ad aggiornarsi, sia sul piano tecnologico sia sulle competenze di settore. Nelle aziende dell’ambito commerciale e finanziario, tra le più impattate dall’evoluzione digitale dei metodi d’ingaggio dei clienti e vendita di prodotti e servizi, al data scientist sono oggi richieste soft skill su CRM, business development e sulle tecniche di prospezione commerciale.
Nell’ambito finanziario risultano oggi apprezzate le conoscenze nell’ambito della visualizzazione dei dati e della programmazione statistica. In questo settore, sono richieste al data scientist maggiori competenze verticali nel business finanziario: contano oggi le capacità d’analisi settoriale, meno quelle (in passato molto gettonate) di valutazione dell’affidabilità di credito, compito che è stato già delegato ai sistemi informatici intelligenti.