- 简介近期研究对神经网络架构在时间序列预测任务中的有效性与鲁棒性提出了质疑。我们系统梳理了这些质疑,并深入剖析其内在局限性:即,面向单一(或少数相似)领域所取得的当前最优性能(SOTA),与面向广泛领域所追求的泛化能力之间,存在难以调和的根本性矛盾。此外,面向通用领域的时序预测神经网络架构正日趋复杂,而其性能在过去几年中已基本趋于饱和。因此,那些旨在拟合通用时序数据域而设计的网络架构,对金融、气象、交通等特定(或少数相似)实际应用场景几乎不再具有启发意义;各垂直领域纷纷发展出各自专用的方法体系,极少借鉴近两三年来时序预测学术界在神经网络架构方面取得的新进展。有鉴于此,我们呼吁时序预测研究社区将关注重点从“面向通用领域的时序神经网络架构”研究中转移出来——此类研究已趋于饱和,且日益脱离各具体应用领域的实际最优解(domain-specific SOTA)。未来的研究方向应聚焦于以下二者之一:(1)针对某一特定(或若干特定)应用领域,深入开展深度学习方法研究;或(2)转向面向通用领域的元学习(meta-learning)方法研发。
-
- 图表
- 解决问题论文指出当前时间序列预测领域的神经网络架构研究正面临严重瓶颈:面向通用领域(general domains)的SOTA模型在实际垂直领域(如金融、气象、交通)中缺乏实用价值,且架构复杂度持续攀升而性能趋于饱和;核心问题在于通用性与领域特异性之间的根本性矛盾——追求泛化能力的架构难以在单一领域达到最优,而各垂直领域已自发发展出高度定制化的专用方法,脱离了通用时序社区的技术演进。这不是全新问题,但论文首次系统性地将其提炼为‘不可调和的冲突’并呼吁范式转移。
- 关键思路提出两大替代路径:(1) 拥抱领域深度——聚焦特定垂直领域(如Finance/Weather/Traffic),构建深度融合领域先验(如市场微观结构、大气物理约束、路网拓扑动态)的专用深度学习模型;(2) 拥抱元学习——放弃设计固定架构,转而开发能快速适应新领域/新数据分布的元学习框架(meta-learning for time series)。其新意在于主动否定‘通用时序神经网络架构’这一过去十年主流研究范式,将‘架构创新失效’本身作为核心论点,并转向方法论层面的范式重构。
- 其它亮点论文无实验或代码(属观点型position paper),亮点在于深刻的产业洞察与社区诊断:指出近2–3年顶会(NeurIPS/ICML/ICLR/KDD)中大量通用时序架构(如Informer, Autoformer, PatchTST变体)在真实业务场景中未被金融/交通团队采用;强调领域SOTA(如华尔街量化机构的LSTM+订单流特征工程、高德地图的多源异构图时序融合模型)始终由领域专家驱动,而非通用架构论文推动;呼吁建立‘领域-算法’协同评估基准(如FinanceBench, TrafficBench),而非仅用ETTh/Weather等合成/脱敏数据集评测。
- 相关研究包括:'Are Transformers Really All You Need for Time Series Forecasting?' (ICML 2023), 'Time-Series Transformer is Not All You Need: A Simple and Effective Baseline' (NeurIPS 2022), 'On the Limitations of Univariate Time Series Models' (KDD 2023), 'Domain-Specific Pretraining for Financial Time Series' (WWW 2023), 'Physics-Informed Neural Networks for Weather Forecasting' (Nature Machine Intelligence 2022)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流