I videogiochi basati sulla realtà virtuale possono diventare ancora più coinvolgenti, arrivando perfino a interagire con le emozioni dei giocatori: questo grazie a un nuovo algoritmo che riesce a riconoscere le espressioni delle persone decifrando solo la parte inferiore del volto, quella non coperta dal visore per la realtà virtuale. Il sistema, ancora in fase di sviluppo, è stato ideato dai ricercatori dell’Università Yonsei e dell’azienda Motion Device, in Corea del Sud.
Il loro lavoro è cominciato ‘addestrando’ tre algoritmi, ovvero tre reti neurali artificiali (chiamate DenseNet, ResNet e Inception-ResNet-V2) a riconoscere le emozioni espresse dai volti umani: per farlo, hanno utilizzato oltre 8.000 foto di 67 persone, il cui volto è stato coperto nella parte superiore da un rettangolo nero per mimare l’indosso del visore di realtà virtuale.
Dai risultati, è emerso che i tre sistemi di intelligenza artificiale riescono a leggere le emozioni anche se non vedono tratti del volto che sono considerati cruciali nella comunicazione non verbale, come gli occhi e le sopracciglia. La rete neurale DenseNet, in particolare, ha ottenuto i risultati migliori, con un’accuratezza del 90%. La rete ResNet, invece, è risultata più efficiente nel riconoscimento delle espressioni facciali che comunicano paura e disgusto.
Il prossimo passo dei ricercatori sarà ripetere l’addestramento delle reti neurali usando immagini di volti che indossano realmente i visori, in modo da avere risultati più affidabili. Intanto, questi primi risultati aprono alla possibilità di integrare il riconoscimento delle emozioni alle tecnologie già disponibili per la realtà virtuale.