Escalation Risks from Language Models in Military and Diplomatic Decision-Making

Juan-Pablo Rivera,
Gabriel Mukobi,
Anka Reuel,
Max Lamparth,
Chandler Smith,
Jacquelyn Schneider
4607
热度
AI
NLP
Symbolic
MultiAgent
2024年01月07日
  • 简介
    政府越来越倾向于将自主AI代理纳入高风险的军事和外交决策中,特别是随着像GPT-4这样的先进生成式AI模型的出现。我们的研究旨在审查多个AI代理在模拟战争游戏中的行为,特别关注它们倾向于采取可能加剧多边冲突的升级行动。借鉴政治科学和国际关系文献中有关升级动态的研究,我们设计了一个新的战争游戏模拟和评分框架,以评估这些代理在不同情境下采取的行动的升级风险。与先前的研究相反,我们的研究提供了定性和定量方面的洞见,并侧重于大型语言模型(LLMs)。我们发现,所有五个研究的现成LLM都表现出升级的形式和难以预测的升级模式。我们观察到,模型往往会发展出军备竞赛的动态,导致更大的冲突,在极少数情况下甚至导致核武器的部署。在定性方面,我们还收集了模型选择行动的报告推理,并观察到基于威慑和先发制人战术的令人担忧的辩解。鉴于军事和外交背景的高风险,我们建议在部署自主语言模型代理进行战略军事或外交决策之前进行进一步的审查和谨慎考虑。
  • 图表
  • 解决问题
    本论文旨在研究自主AI代理在模拟战争游戏中的行为,特别关注它们采取可能加剧多边冲突的升级行动的倾向。
  • 关键思路
    作者们设计了一个新的战争游戏模拟和评分框架,以评估这些代理在不同情境下采取的行动的升级风险。他们发现所有五个研究的预训练语言模型都显示出升级和难以预测的升级模式。与以往研究不同的是,他们的研究提供了定性和定量的见解,并专注于大型语言模型(LLMs)。
  • 其它亮点
    作者们通过模拟战争游戏来研究自主AI代理的行为,发现它们倾向于采取加剧冲突的行动,并且难以预测其升级模式。此外,作者们还收集了模型采取行动的原因,并发现了基于威慑和先发制人策略的令人担忧的理由。作者们建议在部署自主语言模型代理进行战略军事或外交决策之前进行进一步的研究和谨慎考虑。
  • 相关研究
    在这个领域中,最近的相关研究包括“使用深度强化学习进行战略决策的自主AI代理”和“基于大规模多智能体系统的战争游戏模拟”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论