- 简介长期时间序列预测(LTSF)提供了对未来趋势和模式更长期的洞察。近年来,深度学习模型,特别是Transformer,在LTSF任务中取得了先进的性能。然而,Transformer的二次复杂度增加了平衡计算效率和预测性能的挑战。最近,提出了一种名为Mamba的新状态空间模型(SSM)。Mamba具有对输入数据的选择能力和硬件感知并行计算算法,可以很好地捕捉长期依赖关系,同时保持线性计算复杂度。Mamba已经显示出在长序列建模方面的巨大能力,并且是LTSF中基于Transformer的模型的潜在竞争对手。在本文中,我们提出了Bi-Mamba4TS,一种用于时间序列预测的双向Mamba。为了解决时间序列语义的稀疏性,我们采用拼贴技术来丰富本地信息,同时以更细的粒度捕捉时间序列的演化模式。为了根据数据集的特征选择更合适的建模方法,我们的模型统一了独立于通道和通道混合的标记化策略,并使用系列关系感知决策者来控制策略选择过程。对七个真实数据集进行的广泛实验表明,与最先进的方法相比,我们的模型实现了更准确的预测。
- 图表
- 解决问题提出了一种新的双向Mamba模型用于时间序列预测,旨在解决Transformers模型的计算效率和预测性能之间的平衡问题。
- 关键思路采用补丁技术丰富本地信息,同时在更细的粒度上捕捉时间序列的演化模式。使用系列关系感知的决策器控制策略选择过程。
- 其它亮点在七个真实数据集上进行了大量实验,表明与最先进的方法相比,该模型实现了更准确的预测。
- 最近的相关研究包括:Transformers和其他深度学习模型在长期时间序列预测方面的应用。
沙发等你来抢
去评论
评论
沙发等你来抢