导语


LLM作为"黑匣子",其预测和决策背后的数据影响难以理解,需要进行更深入的理论分析以了解语言和时序数据之间的潜在模式相似性。此次「时序时空大模型读书会」第三期将由发起人——中国科学院计算技术研究所副研究员的姚迪老师主持,邀请到了中国科学院计算技术研究所刘硕博士、清华大学软件学院刘雍博士、四川大学计算机学院图象图形研究所程锦国围绕 "LLM赋能时序数据分析:基于自然语言大模型的时序分析" 主题直播分享。

直播将于北京时间5月29日晚19:00-21:00线上公开进行,欢迎感兴趣的朋友参与讨论交流!

关键词:时序分析,大语言模型,AnomalyLLM,Timer,NuwaTS






分享内容简介




本期读书会作为时序时空大模型读书会系列读书会的第三期直播分享,邀请到了中国科学院计算技术研究所刘硕博士、清华大学软件学院刘雍博士、四川大学计算机学院图像图形研究所程锦国围绕 "LLM赋能时序数据分析:基于自然语言大模型的时序分析" 主题分享,包括基于大语言模型的少样本异常检测、多任务可扩展时序分析模型、 时间序列补全基础模型三个专题。





分享内容大纲



 

(一)刘硕:基于大语言模型的少样本异常检测
  • Part 1: 基于NLP大模型的时序数据分析文章介绍
  1. TEST:基于LLM文本嵌入空间对齐的时间序列模型
  2. LLMTime:基于LLM的zero-shot时间序列预测模型
  3. LLM4TS:基于两阶段微调LLM的时间序列预测模型
  • Part 2: 基于LLM的动态图少样本异常检测——AnomalyLLM

(二)刘雍:多任务可扩展时序分析模型
  • Part 1: 时序大模型背景与挑战
  • Part 2: 多任务可扩展时序分析模型——Timer


(三)程锦国:时间序列补全基础模型
  • Part 1: 时序补全模型相关工作
  • Part 2: 时间序列补全基础模型——NuwaTS





核心概念



 

  • 时间序列 Time Series
  • 大语言模型 Large Language Model
  • 基座模型 Foundation Model
  • 时序大模型 Large Time Series Model
  • 异常检测 Anomaly Detection
  • 时序补全 Pre-trained Language Model(PLM),foundation model

 




分享人介绍



 

(1)主讲人:刘硕

刘硕,中国科学院计算技术研究所2022级硕博连读生,研究方向为时空数据挖掘,异常检测。


(2)主讲人:刘雍

刘雍,清华大学软件学院博士生,师从龙明盛副教授,研究方向为时序分析,迁移学习。在ICLR、NeurIPS、ICML、JMLR等国际会议/期刊发表高水平论文6篇,谷歌学术引用量近800次。长期担任ICLR、NeurIPS、ICML等国际会议审稿人,代表工作:iTransformer, TimesNet, Non-stationary Transformer。


(3)主讲人:程锦国

程锦国,四川大学计算机学院图像图形研究所,伍元凯课题组,在读硕士研究生一年级,研究领域包括城市计算,时空数据分析。


(4)主持人:姚迪

姚迪,中国科学院计算技术研究所副研究员,硕士生导师,中国计算机学会高级会员,ACM SIGSPATIAL中国分会执行委员,主要研究方向为时空数据挖掘,异常检测,因果机器学习等。在KDD、WWW、ICDE、TKDE等领域内顶级学术会议和期刊发表论文30余篇,长期担任担任多个期刊会议的审稿人和程序委员会委员,获得中科院院长优秀奖,MDM最佳论文候选奖,入选微软亚洲研究院“铸星计划”,研究成果在阿里、网易、滴滴等多个互联网公司中应用。





本期主要参考文献



  1. Liu Shuo, Yao Di, Fang Lanting, et al. AnomalyLLM: Few-shot Anomaly Edge Detection for Dynamic Graphs using Large Language Models. arXiv:2405.07626
  2. Chenxi Sun, Hongyan Li, Yaliang Li, et al. TEST: Text Prototype Aligned Embedding to Activate LLM's Ability for Time Series. arXiv:2308.08241, 2024

  3. Nate Gruver, Marc Finzi, Shikai Qiu, et al. Large Language Models Are Zero-Shot Time Series Forecasters. arXiv:2310.07820, 2023

  4. Chang C., C Peng W., F Chen T.. Llm4ts: Two-stage fine-tuning for time-series forecasting with pre-trained llms. arXiv:2308.08469

  5. Liu Yong. Timer: Transformers for Time Series Analysis at Scale. arXiv:2402.02368

  6. Cao W., Wang D., Li J.. Brits: Bidirectional recurrent imputation for time series. Advances in neural information processing systems: 31

  7. Haixu Wu, Tengge Hu, Yong Liu, et al. TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis. arXiv:2210.02186, 2023

  8. Nie Y., H Nguyen N., Sinthong P.. A time series is worth 64 words: Long-term forecasting with transformers[J. arXiv:2211.14730

  9. Tian Zhou, PeiSong Niu, Xue Wang, et al. One Fits All:Power General Time Series Analysis by Pretrained LM. arXiv:2302.11939, 2023

  10. Abdul Fatir Ansari, Lorenzo Stella, Caner Turkmen, et al. Chronos: Learning the Language of Time Series. arXiv:2403.07815, 2024

  11. Ming Jin, Shiyu Wang, Lintao Ma, et al. Time-LLM: Time Series Forecasting by Reprogramming Large Language Models. arXiv:2310.01728, 2024


读书会阅读材料较多,为了更好地阅读体验,可扫描下方二维码进入集智斑图页面,阅读并收藏感兴趣的论文。

https://pattern.swarma.org/article/293





直播信息




时间:
2024年5月29日(周三)晚上19:00-21:00(北京时间)

参与方式:

1、集智俱乐部 B 站免费直播,扫码可预约。

2、本期读书会公开进行,扫码即可直接获取读书会回看权限。欢迎感兴趣的朋友报名新一季时序时空大模型读书会,加入群聊,获取系列读书会回看权限,成为“Time-LLMs”社区的种子用户,与社区的一线科研工作者与企业实践者沟通交流,共同推动社区的发展。

斑图地址:https://pattern.swarma.org/study_group_issue/676


报名成为主讲人:
读书会成员均可以在读书会期间申请成为主讲人。主讲人作为读书会成员,均遵循内容共创共享机制,可以获得报名费退款,并共享本读书会产生的所有内容资源。具体见系列读书会详情:时序时空大模型读书会启动:大模型开启时序时空数据挖掘新视角



时序时空大模型读书会招募中


现代生活产生了大量的时序数据和时空数据,分析这些数据对于深入理解现实世界系统的复杂性和演化规律至关重要。近期,受到大语言模型(LLM)在通用智能领域的启发,"大模型+时序/时空数据"这个新方向迸发出了许多相关进展。当前的LLM有潜力彻底改变时空数据挖掘方式,从而促进城市、交通、遥感等典型复杂系统的决策高效制定,并朝着更普遍的时空分析智能形式迈进。

集智俱乐部联合美国佐治亚理工学院博士&松鼠AI首席科学家文青松、香港科技大学(广州)助理教授梁宇轩、中国科学院计算技术研究所副研究员姚迪、澳大利亚新南威尔士大学讲师薛昊、莫纳什大学博士生金明等五位发起人,共同发起以“时序时空大模型”为主题的系列读书会,鼓励研究人员和实践者认识到LLM在推进时序及时空数据挖掘方面的潜力,共学共研相关文献。读书会第一期分享从5月8日(周三)19:00 公开直播,后续分享时间为每周三19:00-21:00(北京时间)进行,预计持续10-12周。欢迎感兴趣的朋友报名参与!


详情请见:
时序时空大模型读书会启动:大模型开启时序时空数据挖掘新视角


点击“阅读原文”,报名读书会

内容中包含的图片若涉及版权问题,请及时与我们联系删除