- 简介最近大型语言模型(LLMs)的进展表明,在自然语言理解和生成任务方面具有实质性的能力。随着LLMs数量的增加,如何利用多个LLMs的集体专业知识是一个令人兴奋的开放方向。为此,我们提出了一种新方法,通过混合代理(MoA)方法来利用多个LLMs的集体优势。在我们的方法中,我们构建了一个分层MoA架构,其中每一层包括多个LLM代理。每个代理在生成其响应时,将前一层代理的所有输出作为辅助信息。MoA模型在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超过了GPT-4 Omni。例如,我们使用仅开源LLMs的MoA在AlpacaEval 2.0中领先了GPT-4 Omni,差距很大,得分为65.1%,而GPT-4 Omni为57.5%。
- 图表
- 解决问题如何利用多个大型语言模型的集体专业知识?
- 关键思路提出了一种混合智能体(MoA)方法,构建了一个多层MoA架构,每层包含多个LLM智能体,每个智能体将前一层中其他智能体的输出作为辅助信息来生成其响应。
- 其它亮点该方法在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超过了GPT-4 Omni。仅使用开源LLM的MoA在AlpacaEval 2.0中领先于GPT-4 Omni,达到65.1%的得分。
- 最近的相关研究包括GPT-4 Omni和AlpacaEval 2.0。
沙发等你来抢
去评论
评论
沙发等你来抢