Tree of Thoughts: Deliberate Problem Solving with Large Language Models
解决问题:该论文旨在解决当前大语言模型在需要探索、策略性前瞻或者初始决策至关重要的任务中表现不佳的问题。
关键思路:为了解决这些挑战,论文引入了一种新的语言模型推理框架——ToT(Tree of Thoughts),该框架可以对文本中的连贯单元(即“思想”)进行探索,从而使语言模型能够通过考虑多条不同的推理路径并自我评估选择来进行深思熟虑的决策,以及在必要时向前或向后跟踪以进行全局选择。
其他亮点:论文的实验显示,ToT显著提高了语言模型在需要非平凡规划或搜索的三个新任务(24点游戏、创意写作和迷你填字游戏)中的问题解决能力。例如,在24点游戏中,GPT-4仅解决了4%的任务,而使用ToT方法的成功率达到了74%。论文作者还提供了包括所有提示的代码库。
关于作者:主要作者包括Shunyu Yao、Dian Yu、Jeffrey Zhao、Izhak Shafran、Thomas L. Griffiths、Yuan Cao和Karthik Narasimhan。他们分别来自多个机构,包括斯坦福大学、谷歌、普林斯顿大学等。这些作者之前的代表作包括“Efficient Neural Architecture Search via Parameter Sharing”(Yuan Cao等)、“Learning to Learn without Forgetting by Maximizing Transfer and Minimizing Interference”(Zhao等)等。
相关研究:近期其他相关的研究包括“Improving Language Understanding with Unsupervised Learning”(Alec Radford等,OpenAI)、“GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding”(Noam Shazeer等,Google Research)等。
论文摘要:语言模型越来越多地被用于各种任务的通用问题解决,但在推断过程中仍然局限于基于标记的从左到右的决策过程。这意味着它们在需要探索、战略前瞻或初始决策起关键作用的任务中可能会有所不足。为了克服这些挑战,我们引入了一种新的语言模型推断框架,Thoughts Tree(ToT),它对提示语言模型的流行思维链(Chain of Thought)方法进行了推广,并允许对连贯文本单元(思想)进行探索,这些思想作为解决问题的中间步骤。ToT允许语言模型通过考虑多个不同的推理路径和自我评估选择来进行有意识的决策,以决定下一步的行动,并在必要时向前或向后跟踪,以做出全局选择。我们的实验表明,ToT显著提高了语言模型在需要非平凡规划或搜索的三项新任务中的问题解决能力:24点游戏、创意写作和迷你纵横填字游戏。例如,在24点游戏中,尽管只有使用思维链提示的GPT-4解决了4%的任务,但我们的方法实现了74%的成功率。所有提示的代码存储库:https://github.com/ysymyth/tree-of-thought-llm。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢