- 简介本文研究了在流行的半监督设置下,用于图神经网络(GNN)的集成学习。集成学习通过结合多个弱学习器的输出,已经显示出在提高传统机器学习的准确性和鲁棒性方面的优越性。然而,采用类似的思路来集成不同的GNN模型是具有挑战性的,因为有两个原因。首先,GNN以其较差的推理能力而闻名,因此简单地组装多个GNN模型会降低推理效率。其次,当GNN模型使用少量标记节点进行训练时,它们的性能受到限制。在这种情况下,传统的集成方法,例如多数投票,可能是次优的,因为大多数基本模型,即GNN,可能会做出错误的预测。因此,本文提出了一种有效的集成学习方法——E2GNN,通过利用标记和未标记节点来以可学习的方式组装多个GNN。具体而言,我们首先根据标记节点在给定的数据场景下预先训练不同的GNN模型。然后,我们不是直接组合它们的输出来进行标签推断,而是训练一个简单的多层感知器(MLP)模型,以模拟它们在标记和未标记节点上的预测。然后,统一的MLP模型被部署来推断未标记或新节点的标签。由于来自不同GNN模型的未标记节点的预测可能是不正确的,因此我们开发了一个强化鉴别器来有效地过滤出那些错误预测的节点,以提高MLP的性能。通过这样做,我们提出了一种有原则的方法来解决GNN集成的推理问题,并保持集成学习的优点:改善性能。在跨不同GNN骨干和8个基准数据集的归纳和传导设置下进行的全面实验证明了E2GNN的优越性。
- 图表
- 解决问题如何通过集成学习提高图神经网络(GNN)在半监督学习下的准确性和鲁棒性?
- 关键思路提出了一种可学习的集成学习方法E2GNN,通过预训练不同的GNN模型,再通过训练一个简单的多层感知机(MLP)模型来模拟它们的预测,并使用强化鉴别器来过滤错误预测的节点,以提高GNN集成的推理效率和性能。
- 其它亮点实验结果表明,E2GNN在不同的GNN骨干和8个基准数据集上的传导和归纳设置中均优于其他方法。论文提出的E2GNN方法具有很高的可扩展性,并且代码已经开源。
- 最近的相关研究包括GNN的其他集成学习方法,如Bagging和Boosting,以及对GNN推理和性能改进的其他方法,如GraphSAGE和GAT。
沙发等你来抢
去评论
评论
沙发等你来抢