导语


分享内容简介
分享内容简介
本期读书会作为「时序时空大模型读书会」系列读书会的第三期直播分享,邀请到了中国科学院计算技术研究所刘硕博士、清华大学软件学院刘雍博士、四川大学计算机学院图像图形研究所程锦国围绕 "LLM赋能时序数据分析:基于自然语言大模型的时序分析" 主题分享,包括基于大语言模型的少样本异常检测、多任务可扩展时序分析模型、 时间序列补全基础模型三个专题。
分享内容大纲
分享内容大纲
(一)刘硕:基于大语言模型的少样本异常检测
Part 1: 基于NLP大模型的时序数据分析文章介绍
TEST:基于LLM文本嵌入空间对齐的时间序列模型 LLMTime:基于LLM的zero-shot时间序列预测模型 LLM4TS:基于两阶段微调LLM的时间序列预测模型
Part 2: 基于LLM的动态图少样本异常检测——AnomalyLLM
(二)刘雍:多任务可扩展时序分析模型
Part 1: 时序大模型背景与挑战 Part 2: 多任务可扩展时序分析模型——Timer
(三)程锦国:时间序列补全基础模型
Part 1: 时序补全模型相关工作 Part 2: 时间序列补全基础模型——NuwaTS
核心概念
核心概念
时间序列 Time Series 大语言模型 Large Language Model 基座模型 Foundation Model 时序大模型 Large Time Series Model 异常检测 Anomaly Detection 时序补全 Pre-trained Language Model(PLM),foundation model
分享人介绍
分享人介绍
(1)主讲人:刘硕
刘硕,中国科学院计算技术研究所2022级硕博连读生,研究方向为时空数据挖掘,异常检测。
(2)主讲人:刘雍
刘雍,清华大学软件学院博士生,师从龙明盛副教授,研究方向为时序分析,迁移学习。在ICLR、NeurIPS、ICML、JMLR等国际会议/期刊发表高水平论文6篇,谷歌学术引用量近800次。长期担任ICLR、NeurIPS、ICML等国际会议审稿人,代表工作:iTransformer, TimesNet, Non-stationary Transformer。
(3)主讲人:程锦国
程锦国,四川大学计算机学院图像图形研究所,伍元凯课题组,在读硕士研究生一年级,研究领域包括城市计算,时空数据分析。
(4)主持人:姚迪
姚迪,中国科学院计算技术研究所副研究员,硕士生导师,中国计算机学会高级会员,ACM SIGSPATIAL中国分会执行委员,主要研究方向为时空数据挖掘,异常检测,因果机器学习等。在KDD、WWW、ICDE、TKDE等领域内顶级学术会议和期刊发表论文30余篇,长期担任担任多个期刊会议的审稿人和程序委员会委员,获得中科院院长优秀奖,MDM最佳论文候选奖,入选微软亚洲研究院“铸星计划”,研究成果在阿里、网易、滴滴等多个互联网公司中应用。
本期主要参考文献
本期主要参考文献
Liu Shuo, Yao Di, Fang Lanting, et al. AnomalyLLM: Few-shot Anomaly Edge Detection for Dynamic Graphs using Large Language Models. arXiv:2405.07626 Chenxi Sun, Hongyan Li, Yaliang Li, et al. TEST: Text Prototype Aligned Embedding to Activate LLM's Ability for Time Series. arXiv:2308.08241, 2024
Nate Gruver, Marc Finzi, Shikai Qiu, et al. Large Language Models Are Zero-Shot Time Series Forecasters. arXiv:2310.07820, 2023
Chang C., C Peng W., F Chen T.. Llm4ts: Two-stage fine-tuning for time-series forecasting with pre-trained llms. arXiv:2308.08469
Liu Yong. Timer: Transformers for Time Series Analysis at Scale. arXiv:2402.02368
Cao W., Wang D., Li J.. Brits: Bidirectional recurrent imputation for time series. Advances in neural information processing systems: 31
Haixu Wu, Tengge Hu, Yong Liu, et al. TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis. arXiv:2210.02186, 2023
Nie Y., H Nguyen N., Sinthong P.. A time series is worth 64 words: Long-term forecasting with transformers[J. arXiv:2211.14730
Tian Zhou, PeiSong Niu, Xue Wang, et al. One Fits All:Power General Time Series Analysis by Pretrained LM. arXiv:2302.11939, 2023
Abdul Fatir Ansari, Lorenzo Stella, Caner Turkmen, et al. Chronos: Learning the Language of Time Series. arXiv:2403.07815, 2024
Ming Jin, Shiyu Wang, Lintao Ma, et al. Time-LLM: Time Series Forecasting by Reprogramming Large Language Models. arXiv:2310.01728, 2024
读书会阅读材料较多,为了更好地阅读体验,可扫描下方二维码进入集智斑图页面,阅读并收藏感兴趣的论文。
https://pattern.swarma.org/article/293
直播信息
直播信息
时间:
参与方式:
1、集智俱乐部 B 站免费直播,扫码可预约。
2、本期读书会公开进行,扫码即可直接获取读书会回看权限。欢迎感兴趣的朋友报名新一季时序时空大模型读书会,加入群聊,获取系列读书会回看权限,成为“Time-LLMs”社区的种子用户,与社区的一线科研工作者与企业实践者沟通交流,共同推动社区的发展。

报名成为主讲人:
时序时空大模型读书会招募中

点击“阅读原文”,报名读书会
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢