TDT Loss Takes It All: Integrating Temporal Dependencies among Targets into Non-Autoregressive Time Series Forecasting

2024年06月07日
  • 简介
    学习目标序列的时间依赖关系(TDT)有助于更好地进行时间序列预测,其中目标指的是预测的序列。虽然自回归方法递归地模型化TDT,但它们受到低效推理和误差积累的影响。我们认为将TDT学习整合到非自回归方法中对于追求有效和高效的时间序列预测至关重要。在本研究中,我们介绍了差分方法来表示TDT,并提出了一种无参数、即插即用的解决方案,通过一种优化目标,即TDT Loss。它利用预测和地面真实TDT之间不一致符号的比例作为自适应权重,动态平衡目标预测和细粒度TDT拟合。重要的是,TDT Loss几乎不会增加额外的成本,仅增加$\mathcal{O}(n)$的计算和$\mathcal{O}(1)$的内存需求,同时显著提高非自回归模型的预测性能。为了评估TDT loss的有效性,我们在7个广泛使用的数据集上进行了大量实验。将TDT loss插入6种最先进的方法的实验结果表明,在168个实验中,75.00\%和94.05\%在MSE和MAE方面表现出改进,分别最高达24.56\%和16.31\%。
  • 图表
  • 解决问题
    本文试图解决时间序列预测中目标之间的时间依赖关系(TDT)建模问题,提出了一种集成TDT学习的非自回归方法,以提高预测性能和效率。
  • 关键思路
    本文通过差分方法表示TDT,并提出了一种基于TDT Loss优化目标的参数-free、即插即用的解决方案,通过自适应权重平衡目标预测和TDT拟合,显著提高了非自回归模型的预测性能。
  • 其它亮点
    本文在7个广泛使用的数据集上进行了大量实验,将TDT Loss嵌入6种最先进的方法中,其中75.00%和94.05%的实验在MSE和MAE方面都有所改进,最大改进幅度分别为24.56%和16.31%。TDT Loss的计算成本很小,仅增加了O(n)的计算量和O(1)的内存需求。
  • 相关研究
    最近的相关研究包括:'DeepAR: Probabilistic Forecasting with Autoregressive Recurrent Networks','Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting','Probabilistic Forecasting with Temporal Dependence using a Transformer-based Autoregressive Model'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论