论文链接:https://arxiv.org/pdf/2107.06996.pdf

代码:https://github.com/lxiaorui/ElasticGNN

本文在传统GNN的\( l_{2} \)正则的基础上,加入了基于\( l_{1} \)的正则项,并设计了具有新的消息传递机制(EMP)的Elastic GNN,强调了局部的平滑性,实现性能提升的同时也增强了GNN对抗图攻击的鲁棒性。

现有的大多数方法(GCN、GAT、APPNP)都可以看作是基于\( l_{2} \)正则的全局过平滑,这种平滑包括了类内和类间。很明显,这种全局式的平滑对于分类任务十分不友好,那么怎么让类内平滑而类间不平滑呢?

本位作者通过引入\( l_{1} \)正则来解决这个问题,直观上来说:相比与\( l_{2} \)正则,\( l_{1} \)正则约束的是绝对值之和,对较大的值惩罚力度没有那么大;另外\( l_{1} \)正则趋向于特征的稀疏和discontinuity。

内容中包含的图片若涉及版权问题,请及时与我们联系删除