- 简介Transformer-based和MLP-based方法已成为时间序列预测(TSF)中领先的方法。虽然Transformer-based方法擅长捕捉长期依赖关系,但它们计算复杂度高且容易过拟合。相反,MLP-based方法具有计算效率和建模时间动态的能力,但它们在有效捕捉复杂的时间模式方面存在困难。为了解决这些挑战,我们提出了一种新颖的基于MLP的自适应多尺度分解(AMD)框架用于TSF。我们的框架将时间序列分解为多个尺度上的不同时间模式,利用多尺度可分解混合(MDM)块以残差方式分解和聚合这些模式。结合双依赖交互(DDI)块和自适应多预测器综合(AMS)块,我们的方法有效地建模了时间和通道依赖关系,并利用自相关性来优化多尺度数据集成。全面的实验表明,我们的AMD框架不仅克服了现有方法的局限性,而且在各种数据集上始终实现了最先进的长期和短期预测任务的表现,展示了卓越的效率。代码可在\url{https://github.com/TROUBADOUR000/AMD}上找到。
- 图表
- 解决问题提出一种新的基于多层感知器(MLP)的自适应多尺度分解(AMD)框架,用于时间序列预测,旨在解决Transformer-based和MLP-based方法的局限性
- 关键思路将时间序列分解为多个不同的时间模式,并使用多尺度可分解混合(MDM)块在残差的基础上分析和聚合这些模式,同时利用双重依赖交互(DDI)块和自适应多预测器合成(AMS)块有效地模拟时间和通道依赖关系,并利用自相关性来优化多尺度数据集成
- 其它亮点实验结果表明,AMD框架在长期和短期预测任务中均取得了最先进的性能,并展示了卓越的效率。代码已经开源并可用于GitHub
- 最近的相关研究包括使用深度学习方法进行时间序列预测的许多工作,例如利用LSTM,GRU和Transformer等模型。
沙发等你来抢
去评论
评论
沙发等你来抢