news

L’AI vuole copiare i bambini per minimizzare i dati di training



Indirizzo copiato

Un nuovo studio americano vuole indagare come il cervello dei bambini permette loro di associare parole e immagini, anche con pochi dati di training esperienziale. Se ci riescono loro, possono farcela forse anche i modelli linguistici del futuro, diventando più performanti e meno energivori. È una strada da tentare, e intanto si regalano dati e…

Pubblicato il 8 mar 2024

Marta Abba'

Giornalista



Shutterstock_2101000792 (1)

Quando si guarda ai progressi che un bambino riesce a compiere nel giro di pochi mesi, per esempio nell’apprendimento del linguaggio, si resta stupefatti. Allo stesso tempo, lo si dà per scontato, senza dare troppo peso al magico meccanismo che gli permette di imparare ad associare parole e immagini con un numero di dati relativamente ridotto. Sicuramente una quantità ben lontana da quella richiesta oggi per il training di un modello di intelligenza artificiale come quelli sfruttati da ChatGPT e competitor.

È da queste contrastanti situazioni che nasce l’idea di imparare dai bambini come imparare, e insegnarlo all’AI per rendere i suoi modelli più efficaci ma, soprattutto, meno dispendiosi in termini di tempo ed energia.

Da 6 mesi a 2 anni: la raccolta dati sul campo, su Sam

I più cinici li definiscono “fragili e privi di buon senso”: di certo i modelli linguistici attualmente in voga non mostrano ancora una spiccata capacità di comprendere i significati, rispondere a nuove situazioni e imparare dalle esperienze.

Un gruppo di ricercatori della New York University ha quindi deciso di studiare l’apprendimento dei bambini per trarne degli spunti di miglioramento in ambito LLM e AI.

Il primo passo è stato quello di indagare l’innata e preziosa strategia di apprendimento di un bambino, in particolare quando si tratta di associare le parole agli oggetti che rappresentano. L’unico modo per farlo è stato quello di munire un “esemplare di cucciolo umano” di una telecamera montata sulla fronte e ricavare dati su parole e immagini associate, durante la sua quotidiana attività.

Dai suoi 6 mesi ai suoi 2 anni, Sam, un bambino australiano, si è prestato alla ricerca, regalando 61 ore di video registrate a intervalli regolari per un anno e mezzo, circa l’1% delle sue ore di veglia.

Si tratta di una delle più consistenti raccolte dati su un singolo bambino, continuativi, regolati e specifici. Si tratta di una preziosa miniera di informazioni che potranno essere utilizzate per migliorare ChatGPT ma, prima ancora, per conoscere meglio le capacità dei bambini e come valorizzarle e proteggerle.

Verso un training più umano e meno energivoro

Associando 600.000 fotogrammi video alle frasi pronunciate dai genitori di Sam o da altre persone presenti nella stanza quando l’immagine è stata catturata, il team di ricerca ha selezionato circa 37.500 “enunciati”. Non in tutti l’associazione tra parole e immagini era chiara, in alcuni non esisteva alcun nesso, ma in molti casi sì e questa è stata la prima vittoria, non scontata, ottenuta.

Analizzando il materiale raccolto, infatti, ci si è resi conto – se già non lo si pensava – che far corrispondere le parole agli oggetti che rappresentano non è un fatto banale. E che le parole possono avere molti significati al variare del contesto.

Quello che è emerso dallo studio sui dati di Sam è che alcune parti del linguaggio possono essere apprese da un insieme molto ristretto di esperienze, anche senza avere alcuna capacità innata. Quindi anche i modelli di AI possono e devono riuscirci senza “pretendere” troppi dati di training.

Il prossimo passo sarà quello di capire di cosa hanno bisogno i modelli per far sì che il loro metodo di apprendimento replichi più fedelmente quello precoce del linguaggio nei bambini. Mentre lo si indaga, se ne approfitta per comprendere ancora meglio come funziona il cervello di un bambino, regalando informazioni anche alle neuroscienze e alla ricerca medica.

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2