CoMM: Collaborative Multi-Agent, Multi-Reasoning-Path Prompting for Complex Problem Solving

2024年04月26日
  • 简介
    大型语言模型(LLMs)已经展现出在传统自然语言任务和基本推理任务中具有很强的解决能力,但是它们在解决复杂的科学问题方面的能力仍然有限。本研究旨在通过提出一种协作的多智能体、多推理路径(CoMM)提示框架来推动LLMs的推理能力的上限。具体而言,我们提示LLMs在解决问题的团队中扮演不同的角色,并鼓励不同的角色扮演智能体协作解决目标任务。特别地,我们发现为不同的角色应用不同的推理路径是在多智能体场景中实现少样本提示方法的有效策略。实证结果证明了所提出方法在两个大学级科学问题上的有效性,超过了竞争基线。我们进一步分析表明,提示LLMs独立扮演不同的角色或专家是必要的。我们在https://github.com/amazon-science/comm-prompt发布了代码。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在通过提出一种协作多智能体、多推理路径(CoMM)提示框架,推动LLMs推理能力的上限,以解决复杂的科学问题。
  • 关键思路
    该论文提出了一种多智能体角色扮演的方法,利用不同的推理路径来实现多智能体场景下的少样本提示,从而提高LLMs的推理能力。
  • 其它亮点
    该论文的实验结果表明了所提出的方法在两个大学级科学问题上的有效性。该论文还开源了代码,并提供了进一步的分析和讨论。值得进一步研究。
  • 相关研究
    最近的相关研究包括使用迁移学习来提高LLMs的推理能力,以及使用不同的提示策略来解决科学问题。其中一些论文的标题包括:“Few-shot Learning with Language Models for Question Answering”和“Learning to Learn from Theory and Experiments with Bayesian Optimization”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问