METAREFLECTION: Learning Instructions for Language Agents using Past Reflections

2024年05月13日
  • 简介
    尽管大型语言模型(LLMs)很受欢迎,但为LLMs制定特定提示以执行特定任务仍然具有挑战性。用户通常需要与基于LLM的代理进行多次对话才能完成其预期任务。最近的研究表明,语言反馈,即模型生成的自我反思形式,可以在这些对话中作为强化,从而加快达到预期结果的收敛速度。受这些发现的启发,我们引入了METAREFLECTION,这是一种新颖的技术,可以从训练阶段收集的个体自我反思中学习特定领域的通用提示指令。我们在两个领域中评估了我们的技术:基础设施即代码(IAC)漏洞检测和使用REACT和COT进行问答(QA)。我们的结果表明,METARELECTION的表现显著提高,超过GPT-4 16.82%(IAC),31.33%(COT)和15.42%(REACT),强调了METAREFLECTION作为提高LLMs效率的可行方法的潜力。
  • 图表
  • 解决问题
    METAREFLECTION的目的是通过学习自我反思来提高大型语言模型的效率,尤其是在解决特定任务时,减少用户与模型之间的交互次数。
  • 关键思路
    METAREFLECTION是一种学习通用提示指令的新技术,这些指令来自于在训练阶段收集的个体自我反思。这种方法可以提高大型语言模型的效率。
  • 其它亮点
    METAREFLECTION在两个领域进行了评估:基础设施即代码漏洞检测和问答。实验结果表明,METAREFLECTION的效果比GPT-4提高了16.82%(IAC),31.33%(COT)和15.42%(REACT),这表明METAREFLECTION是一种提高大型语言模型效率的可行方法。
  • 相关研究
    在这个领域中还有其他相关研究,例如使用语言反馈来改进对话系统的研究。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论