AI 로봇, 상대방과 동시에 예측하고 미소 짓는다

VnExpressVnExpress28/03/2024

[광고1]

아메리칸 로봇 에모는 반대편 사람이 미소 짓기 약 840밀리초 전에 미소를 예측할 수 있으며, 그 순간 동시에 미소 짓습니다.

AI 로봇, 상대방과 동시에 예측하고 미소 짓는다

이모 로봇은 상대방의 표정을 예측하고 동시에 미소를 지을 수 있습니다. 비디오: New Scientist

인간은 ChatGPT와 같은 대규모 언어 모델의 발전 덕분에 유창하게 구두로 소통할 수 있는 로봇에 익숙해지고 있지만, 특히 얼굴 표정을 활용한 비언어적 의사소통 능력은 아직 크게 뒤처져 있습니다. 다양한 얼굴 표정을 표현할 수 있을 뿐만 아니라, 적절한 시기에 표정을 표현할 줄 아는 로봇을 설계하는 일은 매우 어렵습니다.

컬럼비아 대학교 공과대학의 혁신 기계 연구실에서는 이 문제에 대해 5년 이상 연구해 왔습니다. TechXplore가 3월 27일에 보도한 바에 따르면, Science Robotics 저널에 발표된 새로운 연구에서 전문가 팀은 사람의 얼굴 표정을 예측하고 그 사람과 동시에 표정을 표현할 수 있는 AI 로봇인 Emo를 소개했습니다. 이 알고리즘은 사람이 미소 짓기 약 840밀리초 전에 미소를 예측한 뒤, 동시에 미소를 짓습니다.

에모는 얼굴에 26개의 액추에이터를 장착하여 다양한 표정을 표현할 수 있는 휴머노이드 로봇입니다. 로봇 머리는 자석 연결 시스템이 있는 부드러운 실리콘 피부로 덮여 있어 쉽게 조절하고 빠르게 유지 관리할 수 있습니다. 더욱 몰입감 있는 상호작용을 위해 연구팀은 고해상도 카메라를 각 눈의 동공에 통합해 에모가 눈과 상호작용할 수 있게 했는데, 이는 비언어적 의사소통에 중요한 요소입니다.

이 팀은 두 가지 AI 모델을 개발했습니다. 첫 번째 모델은 반대편 얼굴의 미묘한 변화를 분석하여 사람의 얼굴 표정을 예측하고, 두 번째 모델은 해당 표정을 사용하여 운동 명령을 생성합니다.

로봇에게 감정 표현을 훈련시키기 위해, 연구팀은 에모를 카메라 앞에 두고 무작위로 움직이게 했습니다. 몇 시간 후, 로봇은 얼굴 표정과 운동 명령 사이의 관계를 배웠습니다. 이는 사람이 거울을 보며 표정을 연습하는 방식과 유사합니다. 연구자들은 이를 "자기 모델링"이라고 부르는데, 이는 사람이 어떤 표정을 지을 때 자신이 어떻게 보일지 상상하는 능력과 유사합니다.

다음으로, 연구팀은 에모가 프레임 단위로 관찰할 수 있도록 인간의 얼굴 표정 영상을 재생했습니다. 몇 시간의 훈련만 거치면, 에모는 사람이 미소를 지으려고 할 때 미묘한 얼굴 변화를 관찰하여 표정을 예측할 수 있습니다.

"저는 인간의 얼굴 표정을 정확하게 예측하는 것이 인간-로봇 상호작용 분야의 혁명이라고 생각합니다. 이전에는 로봇이 상호작용 중에 인간의 표정을 고려하도록 설계되지 않았습니다. 이제 로봇은 얼굴 표정을 통합하여 응답할 수 있습니다." Creative Machines Lab의 박사 과정 학생이자 연구팀의 일원인 Yuhang Hu의 말입니다.

"로봇이 인간과 동시에 실시간으로 표정을 짓는 것은 상호작용의 질을 향상시킬 뿐만 아니라 인간과 로봇 간의 신뢰를 구축하는 데 도움이 됩니다. 미래에는 로봇과 상호작용할 때 로봇이 실제 인간처럼 당신의 얼굴 표정을 관찰하고 해석할 것입니다." 후가 덧붙였습니다.

Thu Thao ( TechXplore 에 따르면)


[광고2]
소스 링크

댓글 (0)

No data
No data

Event Calendar

같은 태그

같은 카테고리

같은 저자

No videos available