报告主题:NeurIPS 2025 Best Paper|人工蜂群思维:语言模型在开放式任务中的同质化现象及其影响

报告日期:12月23日(周二)10:30-11:30

报告要点:

本期报告将由华盛顿大学姜力炜进行分享。

大型语言模型(LLMs)在生成多样化、具有人类风格的创造性内容方面往往存在困难,这引发了一个重要担忧:在长期反复接触相似模型输出的情况下,人类思维可能逐渐趋于同质化。然而,用于评估语言模型输出多样性的可扩展方法仍然十分有限,尤其是在超越随机数或姓名生成等狭窄任务、或超越对单一模型进行重复采样的情形下。

为填补这一空白,我们提出 Infinity-Chat,一个大规模数据集,包含 26,000 条多样化、真实世界的开放式用户查询。这些查询允许广泛而合理的多种回答,不存在唯一的标准答案。我们进一步提出了首个系统性刻画语言模型开放式提示完整谱系的分类体系,涵盖 6 个一级类别(如创造性内容生成、头脑风暴与构思等),并细分为 17 个二级子类别。

基于 Infinity-Chat,我们开展了一项大规模的语言模型模式坍塌(mode collapse)研究,揭示了在开放式生成场景中显著存在的 “人工蜂群思维(Artificial Hivemind)”效应。该效应主要体现在两个方面:(1)模型内重复性,即同一模型在不同生成中反复产出高度相似的回答;以及更为显著的(2)模型间同质性,即不同模型之间生成的内容高度相似、令人惊讶地趋同。

Infinity-Chat 还包含 31,250 条人工标注数据,涵盖绝对评分与成对偏好判断,每个样本平均由 25 位独立标注者进行评估。这使我们能够系统性地研究人类在开放式问题上的群体偏好与个体特异性偏好。我们的研究发现,尽管当前最先进的语言模型、奖励模型以及 LM 评判器在整体质量上表现相近,但在面对激发出显著个体差异偏好的生成结果时,它们与人类评分之间的校准程度明显不足。

总体而言,Infinity-Chat 是首个用于系统研究语言模型在真实世界开放式查询上的大规模资源,揭示了“人工蜂群思维”所带来的关键现象,并为缓解其潜在的长期 AI 安全风险提供了重要洞见与研究方向

相关论文:
Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) 
🏆 荣获 NeurIPS 2025 Best Paper Award
报告嘉宾:
姜力炜是华盛顿大学保罗·艾伦计算机科学与工程学院(Paul G. Allen School of Computer Science & Engineering at University of Washington)的博士生,师从Yejin Choi教授。她曾是英伟达(NVIDIA)和艾伦人工智能研究所(Ai2)的研究生研究员。她的研究专注于以人为本、多元化和协同演化的人工智能安全与对齐,在语言模型的道德和多元价值推理方面开展了开创性研究,并开发了数据、算法和系统级解决方案,以应对人工智能安全、安保和大语言模型对齐中的社会技术挑战。
她的工作获得了NeurIPS 2025、NAACL 2022和CHI 2024的最佳论文奖,以及EMNLP 2023和COLM 2025 AIA研讨会的杰出论文奖,并被《纽约时报》、《Nature Outlook》、《IEEE Spectrum》、《Wired》等主流媒体报道。她共同组织了MP2(NeurIPS 2023)和SoLaR(NeurIPS 2024; COLM 2025)研讨会,并共同主持ACL 2025的《大语言模型的护栏与安全》教程。

扫码报名


更多热门报告

内容中包含的图片若涉及版权问题,请及时与我们联系删除