Are Time-Series Foundation Models Deployment-Ready? A Systematic Study of Adversarial Robustness Across Domains

2025年05月26日
  • 简介
    时间序列基础模型(TSFMs)在大规模、跨领域数据上进行预训练,能够在新场景中无需进一步训练即可实现零样本预测,因此在实际应用中越来越受到青睐。然而,随着零样本预测范式的流行,一个关键但被忽视的问题浮现出来:TSFMs 是否对对抗性输入扰动具有鲁棒性?这些扰动可能被用于中间人攻击或数据投毒。为填补这一研究空白,我们对 TSFMs 的对抗性鲁棒性进行了系统性的研究。我们的结果表明,即使是微小的扰动也可能引发显著且可控的预测行为变化,包括趋势反转、时间漂移和幅度偏移,这对基于 TSFM 的服务构成了严重威胁。通过在代表性 TSFMs 和多个数据集上的实验,我们揭示了它们一致存在的脆弱性,并识别出一些可能提升鲁棒性的潜在架构设计,例如结构稀疏性和多任务预训练。我们的研究发现为设计更具弹性的预测系统提供了可操作的指导,并对 TSFMs 的对抗性鲁棒性进行了关键评估。
  • 作者讲解
  • 图表
  • 解决问题
    论文探讨了时间序列基础模型(TSFM)在零样本预测场景下的对抗鲁棒性问题,即这些模型是否能抵御微小的对抗性输入扰动。这是一个新兴但尚未被充分研究的问题,尤其是在零样本预测范式逐渐流行的情况下。
  • 关键思路
    论文通过系统性实验揭示了TSFM对对抗性扰动的脆弱性,并分析了扰动如何导致趋势反转、时间漂移和幅度偏移等显著问题。与现有研究相比,该论文首次聚焦于TSFM的对抗鲁棒性,并提出了结构稀疏性和多任务预训练等潜在改进方向。
  • 其它亮点
    1. 研究涵盖了多个代表性TSFM模型和数据集,验证了模型脆弱性的普遍性;2. 发现了特定架构设计可能增强模型鲁棒性;3. 提供了设计更稳健预测系统的实际建议;4. 尽管未提及代码开源,但实验设计详细,为未来研究提供了清晰路径;5. 值得深入研究的方向包括开发新的防御机制和评估指标。
  • 相关研究
    相关研究包括:1. 'Adversarial Attacks on Time Series Data' - 探讨时间序列中的对抗攻击方法;2. 'Robustness of Transformer-based Models in Forecasting' - 分析基于Transformer的时间序列预测模型的鲁棒性;3. 'Defending Against Adversarial Perturbations in Deep Learning' - 提出针对深度学习模型的防御策略;4. 'Multi-task Pretraining for Time Series Analysis' - 研究多任务预训练对时间序列任务的影响。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问