Game-theoretic LLM: Agent Workflow for Negotiation Games

2024年11月08日
  • 简介
    本文研究了大型语言模型(LLMs)在战略决策情境中的理性问题,特别是在博弈论框架下。我们评估了几种最先进的LLM在完全信息和不完全信息游戏中的表现。研究结果表明,随着游戏复杂度的增加(例如更大的收益矩阵或更深的序列树),LLM经常偏离理性策略。 为了解决这些局限性,我们设计了多个博弈论工作流程,以指导LLM的推理和决策过程。这些工作流程旨在提高模型计算纳什均衡和在不确定性及不完全信息条件下做出理性选择的能力。实验结果表明,采用这些工作流程显著提高了LLM在博弈论任务中的理性和稳健性。具体而言,在使用工作流程后,LLM在识别最优策略、实现接近最优的谈判分配以及减少谈判过程中被利用的可能性方面表现出显著改进。此外,我们还探讨了代理是否应采用这些工作流程的元战略考虑,认识到使用或放弃工作流程本身就是一个博弈论问题。 我们的研究加深了对LLM在战略情境中决策能力的理解,并提供了通过结构化工作流程增强其理性的见解。研究结果对于开发更稳健且战略上更为合理的AI代理具有重要意义,这些代理能够应对复杂的互动环境。支持本研究的代码和数据可在以下网址获取:\url{https://github.com/Wenyueh/game_theory}。
  • 图表
  • 解决问题
    该论文探讨了大型语言模型(LLMs)在战略决策制定中的理性问题,特别是在游戏理论框架下。它评估了多个最先进的LLM在完全信息和不完全信息游戏中的表现,发现随着游戏复杂性的增加,LLMs经常偏离理性策略。
  • 关键思路
    论文的关键思路是通过设计多种游戏理论工作流来引导LLM的推理和决策过程,以增强其计算纳什均衡和在不确定性条件下做出理性选择的能力。这一方法在提高LLM的战略决策能力方面显示出显著效果。
  • 其它亮点
    实验结果显示,采用这些工作流后,LLMs在识别最优策略、实现接近最优的谈判分配以及减少谈判中的可利用性方面都有显著改进。此外,论文还探讨了代理是否应采用这些工作流的元战略考虑。研究提供了代码和数据支持,可在GitHub上获取。未来的研究可以进一步探索更复杂环境下的LLM表现。
  • 相关研究
    近年来,关于LLM在战略决策中的应用研究逐渐增多。例如,《Enhancing Strategic Reasoning in Deep Reinforcement Learning Agents》和《Rational Decision-Making in Multi-Agent Systems Using Deep Learning》等论文也探讨了类似主题。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论