- 简介时间序列分析由于其稀疏特性、高维度和不一致的数据质量仍然是一个重大挑战。最近,基于Transformer的技术的发展提高了预测和插补的能力;然而,这些方法仍然需要大量资源,缺乏适应性,并且在整合时间序列的局部和全局属性方面面临困难。为了解决这些挑战,我们提出了一种基于内省的时间序列分析新架构概念。这个概念的核心是时间序列表示模型(TSRM)的自监督预训练,一旦学习,可以轻松地定制和微调特定任务,比如预测和插补,以自动化和资源高效的方式。我们的架构配备了灵活和分层的表示学习过程,可以抵抗缺失数据和异常值,能够捕捉和学习给定时间序列类别(如心率数据)的结构、语义和关键模式的局部和全局特征。我们学习的时间序列表示模型可以在没有人工干预的情况下高效地适应特定任务,如预测或插补。此外,我们架构的设计支持可解释性,通过突出显示每个输入值对于当前任务的重要性。我们使用四个基准数据集的实证研究表明,与调查的最先进的基准方法相比,我们的架构将插补和预测误差分别提高了90.34%和71.54%,同时将可训练参数的要求降低了92.43%。源代码可在 https://github.com/RobertLeppich/TSRM 上获取。
- 图表
- 解决问题提出一种基于自省的时间序列分析新架构,旨在解决时间序列分析中的稀疏性、高维度和数据质量不一致等问题。
- 关键思路通过自监督预训练时间序列表示模型(TSRM)来实现灵活、自动化、资源高效的时间序列分析,该架构具有灵活的层次结构表示学习过程,能够捕捉和学习给定时间序列类别的结构、语义和关键模式的本地和全局特征。
- 其它亮点论文使用四个基准数据集进行实证研究,相比当前领域的最新研究,该架构在缺失值插补和预测方面的误差分别提高了90.34%和71.54%,同时可训练参数减少了最高92.43%。论文提供了开源代码。
- 最近的相关研究包括基于transformer的方法和其他时间序列分析方法,如LSTM、ARIMA等。
沙发等你来抢
去评论
评论
沙发等你来抢