American Robot Emo puede predecir una sonrisa unos 840 milisegundos antes de que la otra persona sonría y luego sonríe al mismo tiempo.
Los humanos se están acostumbrando gradualmente a robots que son capaces de comunicarse verbalmente con fluidez, gracias en parte a los avances en los principales modelos de lenguaje como ChatGPT, pero sus habilidades de comunicación no verbal, especialmente la expresión facial, aún están muy por detrás. Diseñar un robot que no sólo muestre muchas expresiones faciales sino que también sepa expresarlas en el momento adecuado es extremadamente difícil.
El Laboratorio de Máquinas Innovadoras de la Facultad de Ingeniería de la Universidad de Columbia (EE.UU.) lleva más de cinco años investigando este problema. En un nuevo estudio publicado en la revista Science Robotics , un equipo de expertos presentó a Emo, un robot de inteligencia artificial que puede predecir las expresiones faciales humanas y realizarlas al mismo tiempo que esa persona, informó TechXplore el 27 de marzo. Predice una sonrisa unos 840 milisegundos antes de que la otra persona sonría y luego sonríe al mismo tiempo.
Emo es un robot con forma de cabeza y cara equipada con 26 actuadores que permiten una amplia gama de expresiones. El cabezal del robot está cubierto con una suave piel de silicona con un sistema de enlace magnético, lo que hace que sea fácil de ajustar y rápido de mantener. Para interacciones más vívidas, el equipo integró cámaras de alta resolución en las pupilas de cada ojo, lo que permitió a Emo interactuar con sus ojos, lo cual es importante en la comunicación no verbal.
El equipo de investigación desarrolló dos modelos de IA. El primer modelo predice las expresiones faciales humanas analizando cambios sutiles en la cara opuesta, el segundo modelo genera comandos motores utilizando las expresiones correspondientes.
Para entrenar al robot para que expresara emociones, el equipo colocó a Emo frente a una cámara y le permitió realizar movimientos aleatorios. Después de unas horas, el robot aprendió la relación entre las expresiones faciales y los comandos motores, de forma similar a cómo los humanos practican las expresiones cuando se miran en el espejo. El equipo llama a esto "automodelado", similar a la capacidad de las personas de imaginar cómo se verían al hacer ciertas expresiones.
A continuación, el equipo de investigación reprodujo vídeos de expresiones faciales humanas para que Emo observara cada fotograma. Después de horas de entrenamiento, Emo puede predecir expresiones observando cambios faciales sutiles cuando una persona comienza a sonreír.
"Creo que predecir con precisión las expresiones faciales humanas es una revolución en el campo de la interacción entre humanos y robots. Anteriormente, los robots no estaban diseñados para considerar las expresiones humanas durante la interacción. Ahora aquí, los robots pueden integrar expresiones faciales para responder", dijo Yuhang Hu, un Estudiante de doctorado en el Laboratorio de Maquinaria Innovadora, miembro del equipo de investigación.
"El hecho de que los robots hagan expresiones al mismo tiempo que los humanos en tiempo real no sólo ayuda a mejorar la calidad de la interacción sino que también ayuda a generar confianza entre humanos y robots. En el futuro, al interactuar con robots, observará e interpretará sus expresiones faciales, como las de una persona real", añadió Hu.
Thu Thao (según TechXplore )
[anuncio_2]
Enlace fuente
Kommentar (0)