CAGE: Circumplex Affect Guided Expression Inference

2024年04月23日
  • 简介
    理解情感和表情是多个学科的研究兴趣,特别是为了改善用户体验。与普遍看法相反,研究表明情感不是离散的实体,而是存在于一个连续的范围内。由于文化背景、个人经历和认知偏见等多种因素的影响,人们对于离散情感的理解是不同的。因此,大多数表情理解方法,尤其是那些依赖于离散类别的方法,本质上是有偏差的。在本文中,我们对两个常见数据集(AffectNet和EMOTIC)进行了深入比较分析,这两个数据集都配备了情感圆环模型的组成部分。此外,我们提出了一个针对轻量级应用程序的面部表情预测模型。使用小型MaxViT模型架构,我们评估了在训练中使用连续的valence和arousal标签以及离散表情类别标签的影响。我们表明,除了离散类别标签外,考虑到valence和arousal有助于显著提高表情推断的准确性。所提出的模型在AffectNet上表现优于当前最先进的模型,成为推断valence和arousal的最佳性能模型,RMSE降低了7%。可以在此处找到训练脚本和训练好的权重以重现我们的结果:https://github.com/wagner-niklas/CAGE_expression_inference。
  • 图表
  • 解决问题
    本论文旨在解决情感表达识别中离散情感分类的局限性,并提出了一种针对轻量级应用的面部表情预测模型。
  • 关键思路
    论文提出了一种基于连续的情感模型的面部表情预测模型,该模型在训练中同时考虑了离散情感分类标签和连续的愉悦度和唤醒度标签,并在AffectNet数据集上取得了最佳表现。
  • 其它亮点
    论文对AffectNet和EMOTIC数据集进行了深入的比较分析,并提出了一种轻量级的MaxViT-based模型架构。实验结果表明,同时考虑离散情感分类标签和连续的愉悦度和唤醒度标签可以显著提高表情推断的准确性。作者还公开了训练脚本和训练权重,方便其他研究者复现实验结果。
  • 相关研究
    近期相关研究包括:'Facial Expression Recognition using Deep Learning: A Survey','A Survey on Facial Expression Recognition Techniques'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论