
报告主题:AI能听懂你的情绪了?首个共情语音评测基准
报告日期:04月22日(周三) 10:30-11:30
语音大模型在口语理解上进展迅速,但能否同时理解语言内容与语音中的情绪线索并做出共情回应,仍是开放问题。智源Talk 357期邀请了香港中文大学(深圳)周莉线上分享,工作来自ICLR 2026收录论文《EchoMind: An Interrelated Multi-Level Benchmark for Evaluating Empathetic Speech Language Models》。提出了首个用于评估共情型语音语言模型的多层级关联基准,通过相互关联的任务模拟共情对话的认知过程,为系统评估语音模型的情感智能提供了新范式,揭示了当前模型在高表现力语音理解方面的关键挑战。欢迎大家一起讨论交流。
议题详情:
报告嘉宾:

周莉,香港中文大学(深圳)博士后,目前的研究主要聚焦于语音大模型,包括类人语音交互、具备情感智能的对话系统以及语音可控生成。同时,也关注以人为中心的自然语言处理、NLP中的文化因素、大语言模型偏见以及AIGC检测等相关研究问题。


内容中包含的图片若涉及版权问题,请及时与我们联系删除



评论
沙发等你来抢