- 简介能够在不需要特定训练的情况下执行任何新任务的基础模型已经在视觉和语言应用的机器学习中引起了革命。然而,涉及图结构数据的应用仍然是基础模型的难点,因为每个图都有与之相关联的独特的特征和标签空间。传统的图机器学习模型(如在图上训练的图神经网络(GNNs))无法对具有与训练不同的特征和标签空间的新图进行推断。此外,现有模型学习特定于训练图的函数,无法推广到新图。在这项工作中,我们使用一种名为GraphAny的新基础架构来解决这两个挑战,用于归纳节点分类。GraphAny将对新图的推理建模为LinearGNN的解析解,从而解决了第一个挑战。为了解决第二个挑战,我们学习了每个节点的注意力分数,以融合多个LinearGNN的预测。具体而言,注意力模块被精心参数化为多个LinearGNN预测之间的熵归一化距离特征的函数,以确保对新图的推广。经验证明,仅使用120个标记节点在Wisconsin数据集上训练的GraphAny可以以归纳方式有效地推广到30个新图,平均准确率为67.26%,超过了在受监督的情况下训练的GCN和GAT以及其他归纳基线。
- 图表
- 解决问题本文旨在解决图结构数据在机器学习中的挑战,即每个图都有独特的特征和标签空间,传统的图神经网络模型无法推断出新图的特征和标签空间。同时,现有模型学习特定于训练图的函数,无法推广到新图。
- 关键思路本文提出了一种名为GraphAny的新型架构,用于归纳节点分类。GraphAny模型将新图的推理建模为LinearGNN的解析解,从而解决了第一个挑战。为了解决第二个挑战,我们学习每个节点的注意力分数,以融合多个LinearGNN的预测。
- 其它亮点本文在威斯康星数据集上训练了GraphAny,仅使用了120个标记节点,就可以有效地推广到30个新图中,平均准确率为67.26%,超过了在监督模式下训练的GCN和GAT,以及其他归纳基线。实验结果表明,GraphAny模型具有良好的泛化性能。
- 在相关研究方面,最近的研究包括《Graph Convolutional Networks》和《Graph Attention Networks》等。
沙发等你来抢
去评论
评论
沙发等你来抢