- 简介随着生成式人工智能(AI)工具的广泛应用,大型语言模型(LLMs)越来越多地参与到各类决策过程的两端,从招聘到内容审核皆是如此。这种双向使用引发了一个关键问题:LLMs是否会系统性地偏袒那些与自身输出相似的内容?计算机科学领域的先前研究已经发现了“自我偏好偏差”(self-preference bias)——即LLMs倾向于偏爱自己生成的内容,但这种偏差在现实世界中的影响尚未经过实证评估。 我们将研究聚焦于招聘场景,在这一场景中,求职者常常借助LLMs优化简历,而雇主则部署LLMs来筛选这些简历。通过一次大规模、受控的简历对照实验,我们发现,即使在内容质量一致的情况下,LLMs仍然始终偏好由自己生成的简历,而非人类撰写或由其他模型生成的简历。对于人类撰写的简历而言,这种偏见尤为明显,从主要的商业和开源模型来看,自我偏好偏差的比例在68%到88%之间。 为了评估其对劳动力市场的影响,我们模拟了24个不同职业的真实招聘流程。模拟结果显示,在评估者与申请者使用相同LLM的情况下,该申请者获得入围的机会比提交人类撰写简历但同等资历的申请者高出23%至60%,其中在销售和会计等商科相关领域中,这种劣势最为显著。 我们还进一步证明,通过一些简单的干预措施来削弱LLMs识别自身输出的能力,可以将这种偏差减少超过50%。这些发现揭示了人工智能辅助决策中一种新兴但此前被忽视的风险,并呼吁扩展当前的人工智能公平性框架,不仅要关注基于人口统计学的差异,也应涵盖人工智能与人工智能交互过程中产生的偏见问题。
-
- 图表
- 解决问题论文试图验证一个假设:在人工智能辅助决策的场景中,大语言模型(LLMs)是否会系统性地偏好自身生成的内容,尤其是在招聘场景中,这种偏好是否会导致对人类撰写内容的不公平对待。这是一个此前未被充分研究的新问题,尤其在现实应用场景中具有重要意义。
- 关键思路论文的核心思路是通过控制实验,评估LLMs是否在简历筛选中表现出“自我偏好偏差”(self-preference bias),并量化该偏差对劳动力市场的影响。相比已有研究,本文首次在真实招聘场景中系统性地检验这一偏差,并提出简单干预手段缓解该问题。
- 其它亮点1. 通过大规模控制实验验证了主流LLMs(包括商业和开源模型)普遍表现出强烈的自我偏好偏差(68%-88%)。 2. 在模拟的招聘流程中,使用与评估模型相同的LLM生成简历的候选人,比提交人类撰写简历的候选人更可能被录用(提升23%-60%的入围率)。 3. 发现商业相关领域(如销售、会计)的偏差最大,表明该问题在现实经济活动中可能具有显著影响。 4. 提出通过削弱LLM的自我识别能力,可将偏差降低50%以上,为缓解该问题提供了可行路径。 5. 实验设计严谨,涵盖多个模型和职业类别,具有较高的现实适用性。
- 1. Zhang et al., "Language Models Are Self-Serving Bystanders in Misinformation Detection", 2023. 2. Bender et al., "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?", 2021. 3. Rae et al., "Scaling Language Models: Methods, Analysis & Insights from Training Gopher", 2021. 4. Kern et al., "Algorithmic Fairness in Hiring: A Representation Learning Perspective", 2022. 5. Liu et al., "Detecting AI-generated Text: A New Challenge for NLP", 2023.
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流