本文是斯蒂文斯理工学院Xinchao Wang老师课题组发表在AAAI2021上的文章“Overcoming Catastrophic Forgetting in Graph Neural Networks ”。

论文链接:https://ojs.aaai.org/index.php/AAAI/article/view/17049
代码地址:https://github.com/hhliu79/TWP
“灾难性遗忘”指的是神经网络在学习新任务时忘记以前学到的知识。之前的方法主要集中在卷积神经网络 (CNNs)上克服这个问题 (图像等输入样本位于网格域),但在很大程度上忽视了处理非网格数据的图神经网络(GNNs)。在本文中,作者提出了一种新的方案,致力于克服灾难性遗忘问题,从而加强GNN中的持续学习。该方法的核心是一个通用模块,称为拓扑感知权值保持 (topology-aware weight preserving, TWP),以即插即用的方式适用于任意形式的GNN。与主流的基于CNN的持续学习方法不同,TWP明确地探索输入图的局部结构,并试图稳定在拓扑聚合中起关键作用的参数。在多个数据集上的评估结果证明了该方法的有效性。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢