Icono del sitio Tech Espacio

Se ha desarrollado una cara de robot que predice y simultáneamente imita las expresiones faciales humanas

Se ha desarrollado una cara de robot que predice y simultáneamente imita las expresiones faciales humanas.

Un equipo de investigación de la Universidad de Columbia ha desarrollado un robot con forma de rostro llamado Emo que puede detectar y replicar instantáneamente las expresiones faciales humanas. Este robot puede predecir una sonrisa humana con 839 milisegundos de anticipación y replicarla al mismo tiempo. El equipo tiene como objetivo facilitar una interacción más natural entre humanos y robots con esta innovación.

Aunque la comunicación verbal en robótica ha experimentado avances significativos gracias a los grandes modelos de lenguaje, la comunicación no verbal no ha progresado al mismo ritmo. Los robots faciales previos solo podían mostrar expresiones preprogramadas en lugar de comportamientos orgánicos. Con Emo, el equipo se ha centrado en ir más allá y crear expresiones más dinámicas.

Los investigadores destacan la necesidad de diseños de hardware y software complejos para la animatrónica facial. El desarrollo de un rostro robótico presenta desafíos mecánicos, mientras que en el aspecto del software, es crucial activar los motores de manera correcta y oportuna para expresar emociones de manera efectiva.

Tiene 26 actuadores:

Emo, con sus 26 actuadores, supera a su predecesor Eva al ofrecer expresiones asimétricas para aumentar la precisión. Además, utiliza cámaras de alta resolución colocadas en cada ojo para detectar las expresiones faciales de las personas con las que interactúa.

Se emplearon redes neuronales para predecir las expresiones faciales. Emo utiliza un marco de doble red neuronal para predecir tanto sus propias expresiones como las del interlocutor, permitiendo así la generación de expresiones en tiempo real. Con 23 motores para las expresiones faciales y tres para el movimiento del cuello, Emo puede generar comandos de motor cinco veces más rápido.

La primera red neuronal interpreta los comandos del motor para ayudar a Emo a predecir sus propias expresiones faciales. Mientras tanto, la segunda red está entrenada para predecir las expresiones faciales del interlocutor durante una conversación.

Emo puede predecir la sonrisa de una persona aproximadamente 839 milisegundos antes y sincronizar su propia sonrisa en tiempo real con la de la persona.

Yuhang Hu, autor principal de la investigación, destacó la importancia del estudio al afirmar: «Creo que predecir con precisión las expresiones faciales humanas es una revolución en la interacción humano-robot».

Salir de la versión móvil