Scaling Large-Language-Model-based Multi-Agent Collaboration

2024年06月11日
  • 简介
    在大型语言模型驱动的代理中,开创性的进展强调了多代理协作的设计模式,表明集体智能可以超越每个个体的能力。受神经缩放定律的启发,该研究调查了在多代理协作中增加代理是否适用于类似的原则。从技术上讲,我们提出了多代理协作网络(MacNet),它利用有向无环图来组织代理,并通过拓扑排序来简化它们的交互推理,解决方案来自他们的对话。广泛的实验表明,MacNet始终优于基线模型,能够在各种网络拓扑结构中实现有效的代理协作,并支持超过一千个代理之间的合作。值得注意的是,我们观察到了一个小世界协作现象,其中类似小世界属性的拓扑结构实现了卓越的性能。此外,我们还确定了一种协作缩放定律,表明随着代理的扩展,标准化解决方案质量遵循一种逻辑增长模式,协作的出现比以前观察到的神经出现要早得多。代码和数据将在https://github.com/OpenBMB/ChatDev上提供。
  • 图表
  • 解决问题
    研究多智能体协作中智能体数量对协作效果的影响,探索多智能体协作网络的设计模式
  • 关键思路
    提出了一种多智能体协作网络(MacNet),通过有向无环图来组织智能体,通过拓扑排序来优化智能体之间的交互推理,并通过对话得出解决方案,实现智能体之间的协作
  • 其它亮点
    实验结果表明,MacNet模型在各种网络拓扑结构下均能有效地实现智能体之间的协作,支持超过一千个智能体之间的合作。同时,研究还发现了一个小世界协作现象,即类似小世界拓扑结构的网络具有更好的性能。此外,还发现了一种协作扩展定律,即随着智能体数量的增加,归一化解决方案质量呈现出逻辑增长的趋势,而协作出现的时间比以前观察到的神经出现时间更早
  • 相关研究
    最近的相关研究包括《Learning to Communicate to Solve Riddles with Deep Distributed Recurrent Q-Networks》、《Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments》等
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论