图神经网络(GNNs, Graph Neural Networks)作为一种强大的工具,被广泛用于分析图结构数据。无论是在节点分类、链接预测,还是推荐系统和信息检索等,GNNs 都在跨领域的图分析任务上取得了巨大的成功。
目前大多数 GNNs 方法对图结构的质量高度敏感,通常需要一个完美的图结构来学习信息嵌入,以提高 GNN 模型的鲁棒性。
众所周知,深度神经网络容易受到噪声的干扰;甚至噪声还加剧了深度 GNN 模型所产生的表示质量,这无疑对将 GNN 应用到真实世界的愿景提出了极大的挑战,尤其是在某些风险较大、关键紧急的场景中,如医学分析(medical analysis)。
原因在于,GNNs 通过递归地聚合邻区信息来计算节点嵌入,在这种迭代机制下,很容易引发级联效应(cascading effects)。也就是说,图中的小噪声会传播到邻居节点,从而影响许多其他节点的嵌入。
以社交网络为例,其中,节点对应于用户,边代表朋友关系。一旦欺诈账户与真实账户建立虚假链接,很容易将错误信息注入到整个网络中,从而导致账户的可信度变得难以估量。
此外,最近有研究表明,图结构中不明显的、故意的扰动(又称为对抗攻击)很容易引起错误的预测。由此可见,一种用于学习信息表示的完美图结构对弥补 GNN 模型的缺陷,提高其鲁棒性来说是至关重要的。
改善 GNN 模型的鲁棒性关键点之一在于,产生用于学习表示的去噪图结构。
为了解决上述问题,许多研究围绕图结构学习(GSL, Graph Structure Learning)这一中心概念展开,旨在共同学习优化的图结构及其相应的表示形式。不幸的是,这些 GSL 技术已在不同的研究社区中被提及,但从未得到系统的审查。
近期发表的最新图结构学习综述文章 Deep Graph Structure Learning for Robust Representations: A Survey,旨在弥补这一空白:作者 Yanqiao Zhu、Weizhi Xu 和 Jinghao Zhang 等人广泛调查了 GSL 方法在学习鲁棒表示中的最新进展并给出了系统的报告:文章首先是制定 GSL 的一般范式,然后回顾按图结构建模方式分类的最新方法,根据现有工作对图结构进行建模的方式对其进行分类,并突出显示每个模型的关键优点;
其次,团队讨论了将 GSL 理念纳入其他图形任务的应用程序,如可解释性(Explainability)和图池化(Graph pooling);最后,团队指出了当前研究中的一些问题,并讨论了未来的研究方向。
据目前所知,这是第一篇对 GSL 研究的最新进展进行全面综述的可靠文献,感兴趣的可以戳原文或论文链接。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢