- 简介有效学习多元时间序列预测中的序列间关联仍然是一个重大且未解决的问题。传统的深度学习模型主要依赖于Transformer范式来建模长序列,往往无法将多个时间序列的信息整合成一个连贯且普适的模型。为了填补这一空白,我们的论文提出了ForecastGrapher,这是一个框架,将多元时间序列预测重新构想为节点回归任务,为捕捉复杂的时间动态和序列间关联提供了独特的途径。我们的方法基于三个关键步骤:首先,生成定制的节点嵌入以反映每个序列内的时间变化; 其次,构建自适应邻接矩阵来编码序列间的关联; 第三,通过多样化节点特征分布来增强GNN的表达能力。为了增强这种表达能力,我们引入了Group Feature Convolution GNN(GFC-GNN)。该模型采用可学习的缩放器将节点特征分成多个组,并在聚合阶段之前对每个组应用具有不同内核长度的一维卷积。因此,GFC-GNN方法以完全端到端的方式丰富了节点特征分布的多样性。通过广泛的实验和消融研究,我们展示了ForecastGrapher在多元时间序列预测领域超过了强基线和领先的已发表技术。
- 图表
- 解决问题解决问题的问题是如何有效地学习多元时间序列预测中的系列间相关性,这是否是一个新问题?
- 关键思路ForecastGrapher框架将多元时间序列预测重新构想为节点回归任务,通过生成自定义节点嵌入来反映每个系列内的时间变化,构建自适应邻接矩阵来编码系列间相关性,以及通过引入Group Feature Convolution GNN增强节点特征分布的多样性,从而提高了预测性能。
- 其它亮点论文通过实验和消融研究表明,ForecastGrapher在多元时间序列预测领域优于强基线和领先的已发表技术。论文使用了多个数据集,并提供了开源代码。
- 在这个领域中,最近的相关研究包括:1)Multivariate Time Series Forecasting with Graph Neural Networks (ICLR 2019);2)A Comprehensive Survey on Graph Neural Networks (IEEE Transactions on Neural Networks and Learning Systems 2021);3)Temporal Graph Networks for Deep Learning on Dynamic Graphs (ICLR 2019)。
沙发等你来抢
去评论
评论
沙发等你来抢