- 简介传统的循环神经网络结构,如长短期记忆神经网络(LSTM),在时间序列预测(TSF)任务中一直扮演着重要角色。虽然最近为自然语言处理(NLP)引入了sLSTM,它引入了指数门控和记忆混合,对于长期的序列学习有益,但其潜在的短期记忆问题是将sLSTM直接应用于TSF的障碍。为了解决这个问题,我们提出了一种名为P-sLSTM的简单而有效的算法,它基于sLSTM,结合了拼接和通道独立性。这些修改显著增强了sLSTM在TSF中的性能,实现了最先进的结果。此外,我们提供了我们设计的理论证明,并进行了广泛的比较和分析实验,充分验证了我们模型的效率和优越性能。
- 图表
- 解决问题本论文试图解决在时间序列预测任务中,sLSTM存在短期内存问题的限制,提出一种名为P-sLSTM的算法来改进sLSTM在时间序列预测中的性能。
- 关键思路P-sLSTM算法是在sLSTM的基础上引入了patching和channel independence的改进,以解决其短期内存问题。这些改进使得P-sLSTM在时间序列预测中表现出色。
- 其它亮点论文提出的P-sLSTM算法在多个时间序列预测数据集上表现出色,超过了其他基准模型。论文还提供了理论证明,并进行了广泛的实验验证。论文使用的数据集和代码均已公开。
- 最近在时间序列预测领域中,还有一些相关研究,如:'A Hybrid Method of LSTM and ARIMA for Time Series Forecasting','DeepAR: Probabilistic Forecasting with Autoregressive Recurrent Networks'等。
沙发等你来抢
去评论
评论
沙发等你来抢