Quando si guarda ai progressi che un bambino riesce a compiere nel giro di pochi mesi, per esempio nell’apprendimento del linguaggio, si resta stupefatti. Allo stesso tempo, lo si dà per scontato, senza dare troppo peso al magico meccanismo che gli permette di imparare ad associare parole e immagini con un numero di dati relativamente ridotto. Sicuramente una quantità ben lontana da quella richiesta oggi per il training di un modello di intelligenza artificiale come quelli sfruttati da ChatGPT e competitor.
È da queste contrastanti situazioni che nasce l’idea di imparare dai bambini come imparare, e insegnarlo all’AI per rendere i suoi modelli più efficaci ma, soprattutto, meno dispendiosi in termini di tempo ed energia.
Da 6 mesi a 2 anni: la raccolta dati sul campo, su Sam
I più cinici li definiscono “fragili e privi di buon senso”: di certo i modelli linguistici attualmente in voga non mostrano ancora una spiccata capacità di comprendere i significati, rispondere a nuove situazioni e imparare dalle esperienze.
Un gruppo di ricercatori della New York University ha quindi deciso di studiare l’apprendimento dei bambini per trarne degli spunti di miglioramento in ambito LLM e AI.
Il primo passo è stato quello di indagare l’innata e preziosa strategia di apprendimento di un bambino, in particolare quando si tratta di associare le parole agli oggetti che rappresentano. L’unico modo per farlo è stato quello di munire un “esemplare di cucciolo umano” di una telecamera montata sulla fronte e ricavare dati su parole e immagini associate, durante la sua quotidiana attività.
Dai suoi 6 mesi ai suoi 2 anni, Sam, un bambino australiano, si è prestato alla ricerca, regalando 61 ore di video registrate a intervalli regolari per un anno e mezzo, circa l’1% delle sue ore di veglia.
Si tratta di una delle più consistenti raccolte dati su un singolo bambino, continuativi, regolati e specifici. Si tratta di una preziosa miniera di informazioni che potranno essere utilizzate per migliorare ChatGPT ma, prima ancora, per conoscere meglio le capacità dei bambini e come valorizzarle e proteggerle.
Verso un training più umano e meno energivoro
Associando 600.000 fotogrammi video alle frasi pronunciate dai genitori di Sam o da altre persone presenti nella stanza quando l’immagine è stata catturata, il team di ricerca ha selezionato circa 37.500 “enunciati”. Non in tutti l’associazione tra parole e immagini era chiara, in alcuni non esisteva alcun nesso, ma in molti casi sì e questa è stata la prima vittoria, non scontata, ottenuta.
Analizzando il materiale raccolto, infatti, ci si è resi conto – se già non lo si pensava – che far corrispondere le parole agli oggetti che rappresentano non è un fatto banale. E che le parole possono avere molti significati al variare del contesto.
Quello che è emerso dallo studio sui dati di Sam è che alcune parti del linguaggio possono essere apprese da un insieme molto ristretto di esperienze, anche senza avere alcuna capacità innata. Quindi anche i modelli di AI possono e devono riuscirci senza “pretendere” troppi dati di training.
Il prossimo passo sarà quello di capire di cosa hanno bisogno i modelli per far sì che il loro metodo di apprendimento replichi più fedelmente quello precoce del linguaggio nei bambini. Mentre lo si indaga, se ne approfitta per comprendere ancora meglio come funziona il cervello di un bambino, regalando informazioni anche alle neuroscienze e alla ricerca medica.