Driving Animatronic Robot Facial Expression From Speech

2024年03月19日
  • 简介
    这篇论文介绍了一种基于皮肤的方法来驱动动物机器人的面部表情,从而实现自然的人机交互。由于面部生物力学和响应运动综合的复杂性,生成逼真的、与语音同步的机器人表情是具有挑战性的。所提出的方法采用线性混合皮肤(LBS)作为核心表示来指导实体设计和运动综合的紧密集成创新。LBS可以指导驱动拓扑结构,实现人类表情重定向,并允许从语音驱动面部运动生成。所提出的方法能够在动物机器人面部实时生成高度逼真的面部表情,显著提升了机器人复制细致人类表情进行自然交互的能力。
  • 作者讲解
  • 图表
  • 解决问题
    本论文试图解决如何通过语音驱动动画机器人的面部表情,以实现更自然的人机交互。
  • 关键思路
    本文提出了一种基于线性混合蒙皮(LBS)的方法,通过紧密集成的体现设计和动作合成创新来驱动动画机器人的面部表情。该方法具有实时性和高度逼真性。
  • 其它亮点
    本文的实验结果表明,该方法能够从语音中实时生成高度逼真的面部表情,并在动画机器人上实现自然的人机交互。该方法还能够进行人类表情重定向,并且开放了数据集和代码以供使用。
  • 相关研究
    最近的相关研究包括《Facial Performance Synthesis Using Deformation-Driven Polynomial Displacement Maps》、《Real-time facial animation with Kinect》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问