- 简介在时间异构图上进行归纳表示学习对于可扩展的异构信息网络(HINs)的深度学习至关重要,这些网络是时变的,例如引用网络。然而,大多数现有方法不具备归纳性,因此无法处理新节点或边缘。此外,以前的时间图嵌入方法通常是通过训练时间链接预测任务来模拟时间图的链接形成过程,而忽略了时间图上高阶拓扑结构的演变。为了填补这些空白,我们提出了一种在时间 HINs 上的连续时间表示学习(CTRL)模型。为了保留异构节点特征和时间结构,CTRL 将三个部分集成在单个层中,它们是:1)度量节点之间语义相关性的异构注意力单元,2)捕捉异构节点之间时间影响的基于边缘的 Hawkes 过程,以及 3)表示节点动态重要性的动态中心性。我们使用未来事件(子图)预测任务训练 CTRL 模型,以捕捉高阶网络结构的演变。我们在三个基准数据集上进行了广泛的实验。结果表明,我们的模型显著提高了性能,并优于各种最先进的方法。我们进行了消融研究,以证明模型设计的有效性。
- 图表
- 解决问题论文旨在解决如何在时间异构图上进行归纳表示学习的问题,以便于在异构信息网络上进行可扩展的深度学习。
- 关键思路CTRL模型是一个单层模型,它将三个部分集成在一起,以保留异构节点特征和时间结构,这三个部分分别是:1)度量节点之间的语义相关性的异构注意力单元;2)捕捉异构节点之间时间影响的基于边的Hawkes过程;3)指示节点动态重要性的动态中心性。同时,CTRL模型采用未来事件(子图)预测任务训练,以捕捉高阶网络结构的演化。
- 其它亮点论文在三个基准数据集上进行了广泛的实验,结果表明CTRL模型显著提高了性能,并超过了各种最先进的方法。论文还进行了消融实验以证明模型设计的有效性。
- 最近在这个领域中,还有一些相关研究,例如《Heterogeneous Graph Attention Network》、《Temporal Attention-based GCN》和《Heterogeneous Graph Transformer》等。
沙发等你来抢
去评论
评论
沙发等你来抢