Rethinking pooling in graph neural networks

论文链接:https://arxiv.org/abs/2010.11418 代码链接:https://github.com/AaltoPML/Rethinking-pooling-in-GNNs

本文研究了local pooling的作用及其对GNNs性能的影响,并表明大多数GNN架构都采用卷积,可以快速导致平滑的节点表示。代码于23小时前刚刚开源!作者单位:阿尔托大学, 曼彻斯特大学等

Graph pooling是无数图神经网络(GNN)架构的重要组成部分。作为对传统CNN的继承,大多数方法将图池化定义为cluster assignment问题,从而将规则网格中的local patches的概念扩展到图上。尽管广泛遵循此设计选择,但尚无任何工作严格评估其对GNN成功的影响。在本文中,我们以具有代表性的GNN为基础,并引入了变体,这些变体通过使用随机图或在补图上进行聚类来挑战需要保留位置的表示形式。令人惊讶的是,我们的实验表明,使用这些变体不会导致性能下降。为了理解这种现象,我们研究了卷积层与后续池化层之间的相互作用。我们证明了卷积在学习的表示中起着主导作用。与普遍的看法相反,在相关的和广泛使用的基准上,local pooling 对GNN的成功不负责。

内容中包含的图片若涉及版权问题,请及时与我们联系删除