All in One: Multi-Task Prompting for Graph Neural Networks (Extended Abstract)

2024年03月11日
  • 简介
    本文是我们在KDD23上发表的原始作品的扩展摘要,我们在该论文中获得了最佳研究论文奖(孙向国、程宏、李佳、刘波和关继红。All in one: Multi-task prompting for graph neural networks. KDD 23)。该论文介绍了一种新颖的方法,用于弥合预训练图模型和它们应用到的多样化任务之间的差距,这种方法受到NLP中提示学习的成功启发。我们认识到将预训练模型与不同的图任务(节点级、边级和图级)对齐的挑战,可能会导致负迁移和性能不佳,因此我们提出了一种适用于图的多任务提示方法。该方法涉及统一图和语言提示格式,使得NLP的提示策略能够适应图任务。通过分析图应用的任务空间,我们重新定义问题以适应图级任务,并应用元学习来改进多任务的提示初始化。实验证明,我们的方法有效提高了模型在不同图任务上的性能。除了原始作品外,在这个扩展摘要中,我们进一步从更大的视角讨论了图提示,并提供了一些最新的工作。
  • 图表
  • 解决问题
    该论文旨在解决预训练图模型与应用于它们的不同任务之间的差距,通过引入多任务提示方法来实现预训练模型与不同图任务之间的对齐。
  • 关键思路
    该论文提出了一种多任务提示方法,将图和语言提示格式统一起来,使NLP中的提示策略适用于图任务,并通过元学习来改善多个任务的提示初始化。
  • 其它亮点
    该论文通过分析图应用的任务空间,重新定义问题以适应图级任务,并在不同的图任务上展示了该方法提高模型性能的有效性。论文的实验设计合理,使用了多个数据集,并开源了代码。值得深入研究的是图提示的更多应用。
  • 相关研究
    最近的相关研究包括:GraphPrompt、GPT-GNN、GraphLMI、GraphBert等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论