Denoising-Aware Contrastive Learning for Noisy Time Series

2024年06月07日
  • 简介
    时间序列自监督学习(SSL)旨在利用未标记的数据进行预训练,以减少对标签的依赖。尽管近年来取得了巨大的成功,但对于时间序列中潜在噪声的讨论仍然有限,这可能会严重影响现有SSL方法的性能。为了减轻噪声的影响,现有的策略是在模型训练之前应用传统的去噪方法。然而,这种预处理方法可能无法完全消除SSL中噪声的影响,原因有两个:(i)时间序列中各种类型的噪声使得自动确定适当的去噪方法变得困难;(ii)在将原始数据映射到潜空间后,噪声可能会被放大。在本文中,我们提出了一种名为“去噪感知对比学习”的方法(DECL),它使用对比学习目标来减轻表示中的噪声,并为每个样本自动选择适当的去噪方法。各种数据集上的广泛实验验证了我们方法的有效性。代码已开源。
  • 图表
  • 解决问题
    如何应对时间序列中的噪声对自监督学习的影响?
  • 关键思路
    提出了一种基于对比学习的去噪自监督学习方法,可以自动选择适当的去噪方法,从而提高时间序列的表示学习质量。
  • 其它亮点
    论文提出的方法在多个数据集上进行了实验验证,证明了其有效性,并且开源了代码。此外,论文还指出了传统去噪方法的局限性,并提出了自动选择去噪方法的解决方案。
  • 相关研究
    近期相关研究包括:《Self-Supervised Learning for Time-Series Analysis》、《Unsupervised Learning of Disentangled Representations from Video》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论