报告主题:重构多模态对齐:当“深度推理”遇见“长程交互”

报告日期:11月28日(周五)10:30-11:30

报告要点:
本期报告将由主持人北京智源人工智能研究院大模型安全研究中心戴俊韬及嘉宾北京大学元培学院陈博远和北京大学人工智能研究院周嘉懿进行分享。

现有的多模态模型对齐正面临两大痛点:一是奖励模型“只打分不解释”,泛化性差;二是面对真实世界的“多轮图文穿插”交互,模型往往难以维持逻辑连贯性。

本次活动特邀北京大学 PKU Alignment 研究团队的两位成员,为您带来两篇具有范式转移意义的工作解读:

· NeurIPS 2025 Spotlight | InterMT: 它是如何解决多模态对齐“最后一公里”的问题?为何说“教好模型前三步,它就能学会走完后五步”?我们将通过首个多轮图文交错偏好数据集,揭示长程交互中的偏好演化规律。

· NeurIPS 2025 | Generative RLHF-V: 这是一个从“标量回归”向“生成式推理”进化的新框架。研究发现,让奖励模型“像人一样思考和辩论”,不仅能突破传统 RLHF 的天花板,更能利用计算量换取更高质量的对齐效果。

从微观的奖励机制设计,到宏观的长程交互建模,让我们一起探索更懂人类意图的多模态 AI 助手是如何炼成的。

主持人:

戴俊韬,北京智源人工智能研究院大模型安全研究中心研究员,研究方向是大模型安全与价值对齐。在浙江大学取得博士学位、中国科学技术大学取得学士学位。在计算机领域顶级会议和期刊上发表了二十余篇论文,包括四篇口头/亮点论文,谷歌引用三千余次,获奖包括 ACL 2025最佳论文奖、2025年华为火花奖。

报告嘉宾:
陈博远,北京大学元培学院2022级人工智能方向本科生,导师为杨耀东助理教授,主要研究方向为强化学习、大模型对齐、前沿AI安全风险。在NeurIPS、 ACM CSUR等国际顶级会议或期刊累计发表论文9篇,其中一作(含共同)4篇,并被评为最佳论文、口头报告、亮点论文等。谷歌学术引用1500余次,开源数据集在国际社区获逾80万次下载。获首批北京市自然科学基金(启研计划)资助、商汤奖学金(全国仅25位)、北京大学五四奖学金(最高学生荣誉)、北京大学学术创新奖。相关成果与模型被部署于国家网信办 、北医三院、武汉同济等。
周嘉懿,北京大学人工智能研究院2024级博士生,导师为杨耀东助理教授,主要研究方向为强化学习、大模型对齐,致力于大模型在交叉领域的应用落地,累积在人工智能顶级会议与期刊发表论文10余篇,代表性论文获ACL 2025最佳论文奖(唯一大陆机构独立完成),AAAI口头汇报等,谷歌学术引用900余次;在开源方面,作为项目负责人开源大模型全模态训练框架align-anything与分布式安全强化学习框架OmniSafe,累积获得6000+star。相关成果与模型被部署于香港政府、北医三院、武汉同济等,并被OpenAI和图灵奖得主Yoshua Bengio引用。

扫码报名


更多热门报告

内容中包含的图片若涉及版权问题,请及时与我们联系删除