Mixture-of-Agents Enhances Large Language Model Capabilities

2024年06月07日
  • 简介
    最近大型语言模型(LLMs)的进展表明,在自然语言理解和生成任务方面具有实质性的能力。随着LLMs数量的增加,如何利用多个LLMs的集体专业知识是一个令人兴奋的开放方向。为此,我们提出了一种新方法,通过混合代理(MoA)方法来利用多个LLMs的集体优势。在我们的方法中,我们构建了一个分层MoA架构,其中每一层包括多个LLM代理。每个代理在生成其响应时,将前一层代理的所有输出作为辅助信息。MoA模型在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超过了GPT-4 Omni。例如,我们使用仅开源LLMs的MoA在AlpacaEval 2.0中领先了GPT-4 Omni,差距很大,得分为65.1%,而GPT-4 Omni为57.5%。
  • 图表
  • 解决问题
    如何利用多个大型语言模型的集体专业知识?
  • 关键思路
    提出了一种混合智能体(MoA)方法,构建了一个多层MoA架构,每层包含多个LLM智能体,每个智能体将前一层中其他智能体的输出作为辅助信息来生成其响应。
  • 其它亮点
    该方法在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超过了GPT-4 Omni。仅使用开源LLM的MoA在AlpacaEval 2.0中领先于GPT-4 Omni,达到65.1%的得分。
  • 相关研究
    最近的相关研究包括GPT-4 Omni和AlpacaEval 2.0。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论