Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory

2025年07月03日
  • 简介
    我们的研究结果表明,大语言模型(LLMs)具有高度竞争力,在这些复杂的生态系统中能够持续生存,有时甚至占据优势。此外,它们展现出独特且持久的“战略特征”:谷歌的Gemini模型表现得极具策略性且冷酷无情,善于利用合作型对手并在面对背叛者时予以反击;而OpenAI的模型则始终保持高度合作,这种特质在敌对环境中被证明是灾难性的。Anthropic的Claude则展现出最强的宽容性与互惠性,即使在被利用或成功背叛之后,也表现出显著的恢复合作意愿。通过对模型提供的近3.2万条推理文本的分析,我们发现它们确实会主动思考时间范围以及对手可能采取的策略,并证明了这种思考在其决策过程中起到了关键作用。本研究将经典博弈论与机器心理学相连接,为我们在不确定性条件下的算法决策提供了丰富而细致的新视角。
  • 图表
  • 解决问题
    该论文旨在验证大型语言模型(LLMs)是否具备战略智能,能够在竞争性环境中推理目标并做出决策。具体来说,作者通过迭代囚徒困境(IPD)测试LLMs在不同终止概率下与经典策略对抗时的表现,探索其战略适应性和推理能力。
  • 关键思路
    论文的关键思路是将LLMs置于经典的博弈论场景——迭代囚徒困境中,通过演化锦标赛的方式评估其战略行为,并结合模型生成的推理文本分析其决策机制。相比以往研究仅关注模型的行为输出,本文首次系统地揭示了LLMs在复杂环境下的战略指纹和时间视野推理能力。
  • 其它亮点
    {首次将LLMs引入演化IPD锦标赛,对比其与经典策略的表现,"发现不同公司LLMs展现出显著不同的战略倾向(如Google Gemini的报复性、OpenAI模型的合作性、Anthropic Claude的宽容性)","通过32,000条模型生成的推理文本,证实LLMs能够主动思考时间视野和对手策略",实验设计引入“未来的阴影”(终止概率)变量,模拟现实中的不确定性和复杂性,为连接博弈论与机器心理学提供了新的实证基础}
  • 相关研究
    {"“Emergent Altruism and Rogue Disposability in Multi-Agent Reinforcement Learning” (2022)","“Strategic Reasoning with Large Language Models in Repeated Games” (2023)","“The Evolution of Cooperation in AI Agents: A Game-Theoretic Perspective” (2021)","“Language Models as Behavioral Simulations in Social Dilemmas” (2023)"}
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论