- 简介在现实世界的临床实践中,精神障碍的鉴别诊断始终是一项基础性挑战,因为多种疾病常表现出症状重叠。然而,目前大多数公开数据集均基于单病种设定构建,且依赖于有限的数据采集范式,因而难以充分捕捉各类疾病的特异性表征模式。本研究探索了一种基于心理学启发的多模态刺激范式,用于开展精神障碍的鉴别检测;该范式旨在依据实验心理学研究成果,诱发被试在情绪、认知及行为等多个维度上的多样化反应。基于这一范式,我们构建了一个大规模多模态心理健康数据集(MMH),覆盖抑郁症、焦虑症与精神分裂症三类常见障碍,所有诊断标签均由持证精神科医师进行临床验证。为有效建模不同诱发任务所引发的异质性信号,我们进一步提出一种“范式感知”的多模态框架:该框架将跨病种差异的先验知识转化为提示引导的语义描述,从而精准捕获各任务特有的情感状态与交互情境,支撑新型精神障碍鉴别检测任务下的多模态表征学习。大量实验结果表明,我们的框架在各项指标上持续优于现有基线方法,有力印证了心理学启发式刺激设计在精神障碍鉴别检测中的重要价值。
-
- 图表
- 解决问题在真实临床场景中,精神障碍的鉴别诊断面临核心挑战:不同疾病(如抑郁、焦虑、精神分裂症)症状高度重叠,而现有公开数据集多为单病种、单一模态、缺乏生态效度,难以支持细粒度的跨障碍区分。本文首次系统性提出并定义‘差异性精神障碍检测’(differential mental disorder detection)这一新任务,强调在统一多模态采集框架下实现临床可解释的鉴别诊断。
- 关键思路提出心理学驱动的多模态刺激范式——基于实验心理学经典范式(如情绪Stroop、工作记忆n-back、社会知觉动态视频任务)设计可复现、可解释的标准化刺激,主动诱发疾病特异性认知-情感-行为响应;并构建首个临床验证的、覆盖三种高共病精神障碍的大规模多模态数据集MMH;进一步提出‘范式感知的多模态框架’(paradigm-aware multimodal framework),将刺激类型先验编码为prompt-guided语义描述,引导模型学习任务上下文敏感的跨模态表征,而非简单特征拼接。
- 其它亮点1)MMH数据集包含2,148名被试(临床确诊:抑郁症723例、焦虑症702例、精神分裂症723例),涵盖语音、面部微表情、眼动、生理信号(EDA/HRV)、键盘/鼠标交互等5类模态,所有标签由≥2名执业精神科医师双盲评估并符合DSM-5标准;2)刺激范式经预实验验证能显著放大组间差异(如精神分裂症在社会知觉任务中注视回避时长比健康对照高3.2倍,p<0.001);3)代码与MMH数据集(脱敏后)已开源(https://github.com/mmh-dataset/mmh);4)未来方向:扩展至双相障碍、PTSD等共病谱系;探索刺激范式与神经机制(如fMRI)的桥接建模。
- 1) 'Multimodal Depression Detection Using Facial Expressions and Speech' (ACM MM 2021); 2) 'Affective Computing for Mental Health: A Survey of Multimodal Datasets and Methods' (IEEE T-AFFC 2022); 3) 'CLPsych 2022 Shared Task: Cross-Domain Detection of Anxiety and Depression from Text' (ACL 2022); 4) 'The DAIC-WOZ Dataset: A Public Resource for Research on Automatic Depression Assessment' (Interspeech 2016); 5) 'SchizConnect: VREX — A Virtual Reality Paradigm for Assessing Social Cognition in Schizophrenia' (JAMA Psychiatry 2023)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流