Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models

B Sel, A Al-Tawaha, V Khattar, L Wang, R Jia, M Jin
[Virginia Tech & Microsoft]

思维算法:提升大型语言模型的思路探索能力

  • 当前的思维链(CoT)方法试图通过将问题分解成线性步骤来提高大型语言模型(LLM)的推理能力,但是在需要广泛探索可能思路的复杂任务上会遇到困难。“思维树”方法利用生成思路和评估的迭代过程来搜索决策树,但需要大量的LLM查询。
  • 所提出的“思维算法”(AoT)方法,通过提供基于DFS和BFS等搜索算法的上下文示例,融合了人类和算法化推理。
  • AoT利用LLM的递归能力,在一个上下文窗口内生成完整的推理路径和解决方案,只需要1-2次查询。
  • 有趣的是,AoT有时超过它演示的算法本身的性能,提示LLM可以通过集成自己的直觉来优化搜索。
  • 在24点游戏和迷你填字游戏等任务上,AoT的表现匹配或超过CoT和思维树等方法,而查询次数远远少于后者。
  • 这种方法代表了一种新的“上下文学习”范式,不仅提供问题-解决示例,还明确演示了搜索过程。
  • 总的来说,AoT展示了通过利用LLM的固有递归性来提高它们在复杂思维空间的查询效率探索的潜力。

动机:当前的大型语言模型(LLM)在推理能力方面常常需要采用外部模式来提高性能,但这会增加查询请求的数量、成本和计算负担。因此,本文的动机是提出一种新策略,通过利用LLM的内在递归动力学,以算法推理路径的方式推动LLM的工作,从而扩展其思路探索能力。
方法:提出一种名为"Algorithm of Thoughts"(AoT)的新策略,通过使用算法示例,利用LLM的内在递归能力,以一到几个查询扩展其思路探索。与早期的单一查询方法和最近的多查询策略相比,该技术表现出更好的性能。
优势:在不增加查询请求数量的情况下,通过利用LLM的递归能力,提高其思路探索能力。与其他方法相比,AoT方法具有更高的效率和性能。


提出一种新策略,通过利用大型语言模型的递归能力,以算法推理路径的方式扩展其思路探索能力,从而提高性能。

https://arxiv.org/abs/2308.10379 


图片
图片

内容中包含的图片若涉及版权问题,请及时与我们联系删除