- 简介广泛采用可扩展的移动传感技术导致了大量的实时应用的时间序列数据。其中一个基本应用是多元时间序列预测(MTSF),旨在基于历史观测值预测未来时间序列值。现有的MTSF方法受到参数化限制和小规模训练数据的影响。最近,时间序列中引入了大型语言模型(LLM),取得了有希望的预测性能,但需要巨大的计算成本。为了解决这些挑战,我们提出了一种名为TimeCMA的LLM增强的跨模态对齐时间序列预测框架。我们设计了一个双模态编码模块,其中时间序列编码分支通过反向Transformer提取相对低质量但纯净的时间序列嵌入。此外,LLM增强编码分支使用预训练的LLM将相同的时间序列作为提示,获取高质量但纠缠的提示嵌入。然后,我们设计了一个跨模态对齐模块,以从提示嵌入中检索高质量和纯净的时间序列嵌入。此外,我们开发了一个时间序列预测模块,用于解码对齐的嵌入,并捕捉多个变量之间的依赖关系以进行预测。值得注意的是,我们定制提示以将足够的时间信息编码到最后一个标记中,并设计了最后一个标记嵌入存储以降低计算成本。对真实数据的广泛实验提供了有关所提出的框架的准确性和效率的见解。
- 图表
- 解决问题论文旨在解决多变量时间序列预测中参数化有限和小规模训练数据的问题,提出了一种基于大型语言模型的框架TimeCMA,通过跨模态对齐实现高质量的时间序列嵌入。
- 关键思路TimeCMA框架包括双模态编码模块、跨模态对齐模块和时间序列预测模块。其中,通过倒置Transformer提取相对低质量但纯净的时间序列嵌入,使用预训练的大型语言模型对同一时间序列进行编码以获得高质量的嵌入,并使用跨模态对齐模块从提示嵌入中检索高质量和纯净的时间序列嵌入。
- 其它亮点论文在真实数据上进行了广泛的实验,证明了TimeCMA框架的准确性和效率。值得注意的是,论文将提示设计为将足够的时间信息编码到最后一个标记中,并设计了最后一个标记嵌入存储以降低计算成本。
- 在最近的相关研究中,也有一些基于大型语言模型的时间序列预测方法,如GPT-2、TSTransformer、LGP、T-GPT等。
沙发等你来抢
去评论
评论
沙发等你来抢