C’è chi passa il tempo a immaginare e promettere una nuova vita intrecciata col metaverso, c’è chi lavora per renderlo il più immersivo ed efficace possibile. Sia la Cina che gli Stati Uniti sono in prima fila in questa missione, un ennesimo campo di battaglia tra le due potenze, stavolta solo a colpi di articoli e annunci scientifici e di ricerca. Mentre la Cina imbocca la strada multisensoriale, gli USA optano per quella multimodale. Lato futuri utenti, sia B2B che B2C, si può assistere alla loro corsa all’innovazione, immaginando quali benefici trarre dai frutti delle ricerche ora in corso, applicabili al metaverso del futuro o altrove.
Immersioni negli odori per sport, arte e simulazione industriale
Nel nuovo piano per la realtà virtuale cinese, tra le tecnologie per renderla più coinvolgente compare la “simulazione degli odori”. È infatti nelle intenzioni di Pechino inaugurare l’era dell’Internet of Smell per migliorare l’interazione sensoriale. Questo impegno si estende anche all’interfaccia cervello-computer, da far evolvere per ottenere una naturalizzazione e una “situazionalizzazione” migliori.
L’idea è quella di riuscire a ricreare contesti virtuali sempre più realistici e coinvolgenti, stimolando anche l’olfatto. Non si tratta solo di “un senso in più”, ma di un upgrade della VR che in alcuni settori potrebbe segnare una svolta interessante. Nel turismo, nell’arte e nello sport, aprirebbe nuovi orizzonti tecnologici e creativi. Nelle esercitazioni di sicurezza in ambienti pericolosi (miniere), nell’assemblaggio e nelle simulazioni complesse, potenzierebbe le performance e aumenterebbe l’efficacia.
La ricerca sugli odori sarà affiancata anche da un’evoluzione hardware. Sono previsti display 8K con frequenze di aggiornamento di 60 fotogrammi al secondo, display 4K miniaturizzati e smartphone da usare come schermi VR.
Per esplorare le applicazioni dell’Internet of Smell – e di tutto ciò che il nuovo piano intende indagare – la Cina creerà dieci parchi VR e svilupperà almeno 20 scenari in cui la VR verrà utilizzata e 100 “casi pionieristici di applicazioni integrate”. Tutto entro il 2025.
Machine learning per una simulazione acustica più realistica
Senza deadline così precise, ma con analoga volontà di esplorare nuove frontiere della VR, negli Stati Uniti l’attenzione si concentra sull’applicazione del machine learning nell’acustica. L’obiettivo è quello di poter aprire un metaverso multimodale, offrendo nuove opportunità per renderlo più attraente per utenti, brand e investitori.
I ricercatori del MIT e dell’IBM Watson AI Lab hanno unito le forze, creando un modello di apprendimento automatico per prevedere ciò che un ascoltatore potrebbe sentire in diverse posizioni all’interno di uno stesso spazio 3D. Partendo da tecniche simili alla modellazione 3D visiva, le hanno “adattate” al suono e alle sue peculiari caratteristiche fisiche, sviluppando un modello di campo acustico neurale (NAF). Questo strumento matematico permette di campionare casualmente i punti di una griglia spaziale, studiando le caratteristiche acustiche in varie posizioni specifiche. Per esempio, si può capire come influisce sulla percezione del suono la vicinanza di una porta o di un muretto. Oppure cosa cambia se ascoltatore e sorgente di suoni si scambiano di posizione.
“Giocando” con il NAF, si studia la propagazione acustica lasciando che esso mappi in modo continuo tutte le coppie di posizioni di emettitori e ascoltatori in una funzione di risposta all’impulso neurale. L’idea è di applicarla poi a suoni arbitrari, per prevedere la propagazione del suono in qualsiasi luogo, immaginario o reale ma non raggiungibile o non “mappabile”. Un orizzonte di ricerca a cui i settori più propensi a sbarcare nel metaverso guardano con interesse. Si tradurrebbe infatti nella possibilità di creare ambienti immersivi più convincenti, adatti ad accogliere una futura utenza che si aspetta un upgrade di experience significativo.