Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models

2024年06月06日
  • 简介
    我们介绍了一种新颖而多才多艺的思想增强推理方法——思想缓冲区(BoT),用于增强大型语言模型(LLM)的准确性、效率和鲁棒性。具体而言,我们提出了元缓冲区来存储一系列信息丰富的高层次思想,即从各种任务的问题解决过程中提炼出的思想模板。然后,对于每个问题,我们检索相关的思想模板,并自适应地实例化它,以特定的推理结构进行高效推理。为了保证可扩展性和稳定性,我们进一步提出了缓冲区管理器来动态更新元缓冲区,从而增强元缓冲区在解决更多任务时的容量。我们在10个具有挑战性的推理密集型任务上进行了广泛的实验,并在之前的SOTA方法上实现了显著的性能提升:在“24点游戏”上提高了11%,在“几何图形”上提高了20%,在“一步将军”上提高了51%。进一步的分析表明,我们的BoT具有卓越的泛化能力和模型鲁棒性,而平均仅需要多查询提示方法(例如思想树/图)的12%的成本。值得注意的是,我们发现我们的Llama3-8B+BoT有超越Llama3-70B模型的潜力。我们的项目可在以下链接中找到:https://github.com/YangLing0818/buffer-of-thought-llm。
  • 图表
  • 解决问题
    论文旨在提出一种思维增强的推理方法,以增强大型语言模型的准确性、效率和鲁棒性。具体而言,论文提出了元缓冲区来存储从各种任务的解决过程中提炼出的信息性高层思维模板,然后针对每个问题,我们检索相关的思维模板,并适应性地实例化它以进行有效的推理。
  • 关键思路
    论文的关键思路是使用元缓冲区存储高层思维模板,并针对每个问题检索相关的模板,并适应性地实例化它以进行有效的推理。
  • 其它亮点
    论文在10个具有挑战性的推理密集型任务上进行了广泛的实验,并取得了显著的性能提升。此外,论文提出了缓冲区管理器来动态更新元缓冲区,从而提高其容量。研究还表明,BoT具有优越的泛化能力和模型鲁棒性,而平均只需要多查询提示方法(如思维树/图)的12%的成本。论文的代码已经开源。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《GPT-3》、《Turing-NLG》和《GShard》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论