Oramai, da qualche anno a questa parte, siamo tutti abituati (chi più, chi meno) a fare i conti con l’intelligenza artificiale e le sue sterminate modalità e fattispecie applicative. E ogniqualvolta si parla – anche informalmente – di intelligenza artificiale saltano fuori i Big data, ossia quell’insieme di dati che vengono rapidamente generati e trasmessi da un’ampia varietà di fonti. In fondo, c’è una ragione ben precisa perché ciò accade: alcune delle scoperte più importanti degli ultimi tempi, nel campo dell’intelligenza artificiale, sono state possibili grazie ai Big data. Ad esempio, la classificazione delle immagini ha fatto passi da gigante nell’ultimo decennio grazie allo sviluppo di “ImageNet”, un dataset contenente milioni di immagini ordinate a mano in migliaia di categorie. Recentemente GPT-3, un modello linguistico che utilizza l’apprendimento profondo (Deep learning) per produrre testi simili a quelli che potrebbe produrre un essere umano, ha beneficiato dell’allenamento (training) su centinaia di miliardi di parole “di testo” contenute in una molteplicità di siti Internet. Quindi, non sorprende vedere l’intelligenza artificiale e Big data strettamente connessi. Ma l’intelligenza artificiale punta anche alla ricerca di approcci “più piccoli” – ossia con gli Small data – che nell’ultimo decennio, soprattutto con il cosiddetto “Transfer learning”, hanno visto un rapido avanzamento a supporto delle tecnologie di ultima generazione.
Small data e Transfer learning
Ma l’intelligenza artificiale punta anche alla ricerca di approcci “più piccoli” – ossia con gli Small data – che nell’ultimo decennio, soprattutto con il cosiddetto “Transfer learning”, hanno visto un rapido avanzamento a supporto delle tecnologie di ultima generazione. Il Transfer learning è utile in contesti in cui si hanno pochi dati sull’obiettivo da raggiungere (es. risoluzione di un problema) e, al contempo, si hanno molti dati su obiettivi/problemi correlati. Il modo in cui funziona è che prima si “addestra” un modello usando un grande dataset e poi lo si “riaddestra” usando un dataset più piccolo relativo al problema specifico da risolvere. Prendendo ad esempio “ImageNet”, i ricercatori della Global Research di Bangalore (India)[1] hanno utilizzato il Transfer learning per addestrare un modello a individuare i reni umani nelle immagini ecografiche usando solo quarantacinque esempi (impensabile con i Big data). Allo stesso modo, un team di ricercatori di Potsdam (Germania), che lavora sul riconoscimento della lingua tedesca “parlata”, ha dimostrato che si possono migliorare i risultati iniziando dapprima con un modello in lingua inglese addestrato su dataset più grandi e poi utilizzare il Transfer learning per “modellare quel modello” verso un dataset più piccolo in lingua tedesca[2].
La ricerca sul Transfer learning è cresciuta in modo impressionante nell’ultimo decennio. In un rapporto dello scorso settembre 2021, il “Center for Security and Emerging Technology (CSET)” della Georgetown University di Washington DC (USA) ha esaminato i progressi attuali e previsti degli Small data nel campo della ricerca scientifica, suddividendo gli stessi in cinque categorie:
- Transfer learning,
- etichettatura dei dati (Data labeling),
- generazione artificiale dei dati,
- metodi “bayesiani”
- apprendimento di rinforzo (Reinforcement learning).
Il Transfer learning si distingue come una categoria che ha sperimentato la crescita più consistente e più alta dell’ultimo decennio. Si prevede che la ricerca sul Transfer learning continuerà a crescere velocemente almeno fino al 2023 tra le categorie di dati sopra citate, con sua inevitabile maggiore utilizzabilità nell’intelligenza artificiale del prossimo futuro. Secondo alcuni ricercatori[3], ben il 70% delle aziende mondiali (interessate al tema) sposterà la propria attenzione dai Big data agli Small data entro il 2025. Come per gli Small data, i Big data si basano su aziende che “legano insieme” i dati che producono attraverso una serie di fonti diverse – come il traffico del proprio sito web, le visite ai negozi, l’utilizzo dei social media e le richieste telefoniche. Ci sono una serie di sfide che derivano dal lavorare insieme su dati di piccole dimensioni, in particolare quando si tratta di gestire le difficoltà nell’ottimizzare un minor numero di dataset, anche se possiamo vedere che ci sono una serie di approcci alla raccolta dei dati che possono aiutare le piccole imprese a sfruttare al meglio le informazioni a cui possono accedere.
Ma Small data significa anche che le aziende possono attingere a fonti di dati più gestibili come Google Analytics e Hotjar, con entrambe le piattaforme che offrono intuizioni complete su come gli utenti interagiscono con i siti web. Gli strumenti analitici possono generare un sano livello di comprensione delle prestazioni del sito web di un’azienda. Questo è significativo per sviluppare Small data e accedere a informazioni che possono aiutare a corroborare le tendenze emergenti dei dati. Google Analytics, per esempio, ha la capacità di raccogliere informazioni preziose sulle interazioni che i siti web ricevono, interpretando i numeri attraverso una intuitiva visualizzazione. Dalle informazioni di base, come le visite e il tempo sul sito, a dataset più avanzati, come lo scroll e le conversioni di obiettivi. Questo esempio di Small data, in pratica, può aiutare le aziende ad agire su alti tassi di rimbalzo tra le pagine di destinazione, per esempio, o sui cali di visitatori “di ritorno”. Per le piccole imprese, le intuizioni sugli Small data che gli strumenti di analisi possono fornire sono in grado di sfruttare livelli molto più elevati di coinvolgimento e campagne di marketing più strategiche.[4]
Small data, quali vantaggi
Gli approcci basati sugli Small data, come il Transfer learning, offrono numerosi vantaggi rispetto ai metodi che richiedono “più dati”. L’utilizzo dell’intelligenza artificiale alimentata da Small data permette di inserirsi in settori nei quali non esistono dati, ovvero ne esistono pochi, come nella previsione di pericoli naturali che si verificano raramente o nella previsione del rischio di malattia per categorie di popolazione che non ha accesso a cartelle cliniche digitali (o a raccolta massiva di dati sanitari). Alcuni analisti ritengono che, finora, l’intelligenza artificiale sia stata applicata con maggior successo a problemi affrontabili con l’uso dei Big data, tralasciando settori con minor numero di dati (o assenza totale dei medesimi). In quest’ultimo contesto, approcci come il Transfer learning diventeranno sempre più importanti man mano che più aziende (ma anche governi) cercheranno di diversificare le aree di applicazione dell’intelligenza artificiale, avventurandosi al contempo verso settori precedentemente inesplorati.
Un altro modo di pensare al valore del Transfer learning è in termini di generalizzazione. Una sfida ricorrente nell’uso dell’intelligenza artificiale è che i modelli hanno bisogno di “generalizzare” oltre i loro dati di allenamento (training data), cioè di dare buone “risposte” (output) a un insieme più generale di “domande” (input) rispetto a quello su cui tali modelli sono stati specificamente addestrati. Poiché i modelli di Transfer learning funzionano trasferendo la conoscenza da un compito a un altro, gli stessi sono molto utili per migliorare la generalizzazione nel nuovo compito, anche se sono disponibili solo dati limitati. Inoltre, utilizzando modelli precedentemente addestrati, il Transfer learning può accelerare il tempo di addestramento e potrebbe anche ridurre la quantità di risorse computazionali necessarie per addestrare gli algoritmi. Questa efficienza è significativa, considerando che il processo di addestramento, ad esempio, di una grande rete neurale richiede una notevole energia e può emettere cinque volte le emissioni di carbonio di un’auto di categoria media (auto del segmento C).
Transfer learning e Machine learning
Naturalmente, usare modelli precedentemente addestrati per nuovi compiti funziona meglio in alcuni casi rispetto ad altri. Se i problemi iniziali e quelli di “destinazione” di un modello non sono abbastanza simili, sarà difficile usare efficacemente il Transfer learning. Questo è problematico per alcuni campi, come la diagnostica per immagini, dove vi sono differenze fondamentali nella dimensione dei dati, nelle caratteristiche e nelle specifiche dei compiti rispetto ai dataset di immagini “naturali” (come ImageNet). I ricercatori stanno ancora imparando come le informazioni utili vengano trasferite tra i modelli e come le diverse scelte di progettazione dei modelli ostacolino o facilitino il trasferimento e la messa a punto di un modello “di successo”. Alcuni esperti del settore hanno sottolineato l’importanza del Transfer learning e hanno persino affermato che l’approccio sarà il prossimo motore del successo del Machine learning (apprendimento automatico) nel mondo industriale.
Tuttavia, ci sono già alcuni primi segni “di adozione” della tecnologia di successo: il Transfer learning è stato applicato per la scoperta di sottotipi di cancro, nel mondo dei videogiochi e nel contrasto allo spam. Nonostante la sua recente “appetibilità”, il Transfer learning riceve ancora poca visibilità al giorno d’oggi. Mentre molti esperti di Machine learning e numerosi Data scientist hanno da anni una certa familiarità con tale tecnica, l’esistenza del Transfer learning non sembra aver ancora raggiunto la consapevolezza da parte delle amministrazioni governative e dalle imprese, così da non prendere alcuna decisione importante sul finanziamento e l’adozione di tale tecnica nell’ambito dell’intelligenza artificiale (ancora “dominata” dai Big data). Solo riconoscendo il successo del Data Transfer e degli Small data – e allocando risorse per sostenere il loro uso diffuso – sarà possibile aiutare a superare alcuni dei malintesi pervasivi riguardanti il ruolo dei dati nell’intelligenza artificiale e promuovere l’innovazione verso nuove direzioni.[5]
Note
- Understanding the Mechanisms of Deep Transfer Learning for Medical Images. Cornell University. https://arxiv.org/abs/1704.06040 ↑
- Transfer Learning for Speech Recognition on a Budget. Cornell University. https://arxiv.org/abs/1706.00290 ↑
- AI focus shifts to ‘small and wide’ data. VentureBeat. https://venturebeat.com/2021/09/07/ai-focus-shifts-to-small-and-wide-data/ ↑
- Leveraging small data for insights in a privacy-concerned world. VentureBeat. https://venturebeat.com/2021/11/22/leveraging-small-data-for-accessible-manageable-and-actionable-business-insights/ ↑
- ‘Small Data’ Are Also Crucial for Machine Learning. Scientific American. https://www.scientificamerican.com/article/small-data-are-also-crucial-for-machine-learning/ ↑