- 简介近年来,基于transformer的模型在多元长期时间序列预测(LTSF)中变得越来越受关注,尽管面临高计算需求、难以捕捉时间动态和管理长期依赖等挑战,但它们仍然取得了显著进展。然而,LTSF-Linear的出现,以其简单的线性结构,显著优于基于transformer的对手,促使重新评估transformer在时间序列预测中的实用性。为此,本文提出了一种最近的架构扩展LSTM(xLSTM)的LTSF适应方法。xLSTM结合了指数门控和具有更高容量的修订记忆结构,对LTSF具有很好的潜力。我们采用的xLSTMTime架构超越了当前的方法。我们将xLSTMTime的性能与多个真实世界数据集上各种最先进的模型进行比较,展示了优越的预测能力。我们的研究结果表明,在LTSF任务中,精细的循环体系结构可以提供与基于transformer的模型相竞争的替代方案,可能重新定义时间序列预测的格局。
- 图表
- 解决问题本论文旨在解决多元长期时间序列预测中使用transformer-based模型面临的挑战,如高计算需求、难以捕捉时间动态和管理长期依赖性等问题,并验证xLSTM在LTSF中的可行性。
- 关键思路本论文提出了一种适用于LTSF的xLSTMTime架构,该架构采用指数门控和具有更高容量的修订记忆结构,优于当前各种LTSF模型,为LTSF任务提供了一种竞争性的替代方案。
- 其它亮点本论文使用多个真实世界数据集,与多种最先进的模型进行比较,证明了xLSTMTime具有卓越的预测能力。论文还提到,精细的循环神经网络架构可以在LTSF任务中提供与transformer-based模型相媲美的替代方案。
- 最近在这个领域中,还有一些相关的研究,如《Multivariate Time Series Forecasting with Hybrid Deep Learning》、《A Hybrid Method for Multivariate Time Series Forecasting Based on Deep Learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢