Can Graph Learning Improve Task Planning?

Xixi Wu ,
Yifei Shen ,
Caihua Shan ,
Kaitao Song ,
Siwei Wang ,
Bohang Zhang ,
Jiarui Feng ,
Hong Cheng ,
Wei Chen ,
Yun Xiong ,
Dongsheng Li
2024年05月29日
  • 简介
    任务规划是随着大型语言模型(LLMs)的发展而日益重要的研究课题。它旨在将复杂的用户请求分解为可解决的子任务,从而满足原始请求。在这种情况下,子任务可以自然地视为一个图,其中节点表示子任务,边表示它们之间的依赖关系。因此,任务规划是一个决策问题,涉及选择相应图中的连接路径或子图并调用它。在本文中,我们探索了基于图学习的任务规划方法,这是一种与提示设计的普遍关注方向不同的方向。我们对图学习的兴趣来自于一个理论发现:注意力和自回归损失的偏见妨碍了LLMs在图上有效地进行决策,而图神经网络(GNNs)可以熟练地解决这个问题。这一理论洞见促使我们将GNNs与LLMs集成以提高整体性能。广泛的实验表明,即使没有训练,基于GNN的方法也优于现有解决方案,并且最少的训练可以进一步提高它们的性能。此外,我们的方法补充了提示工程和微调技术,通过改进提示或微调模型可以进一步提高性能。
  • 图表
  • 解决问题
    本篇论文试图解决任务规划中的决策问题,即如何通过图学习将用户请求拆分为可解决的子任务并完成原始请求。同时,论文旨在验证任务规划中图学习的有效性。
  • 关键思路
    本文提出了一种基于图神经网络(GNNs)的任务规划方法,将GNNs与大型语言模型(LLMs)相结合,以提高任务规划的性能。此外,论文发现LLMs的注意力偏差和自回归损失限制了其在图上进行决策的能力,而GNNs可以有效地解决这个问题。
  • 其它亮点
    论文通过实验表明,即使没有训练,基于GNNs的方法也可以胜过现有的解决方案,并且通过最小的训练可以进一步提高性能。此外,本文的方法可以与提示工程和微调技术相结合,通过改进提示或微调模型来进一步提高性能。论文还公开了使用的数据集和代码,为后续研究提供了便利。
  • 相关研究
    最近在任务规划领域,也有一些相关的研究,如《Learning to Plan with Uncertain and Partial Observations》和《Neural Task Graphs: Generalizing to Unseen Tasks from a Single Video Demonstration》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论