活动
论文
风云人物
专栏
项目
社交
取消
登录/注册
CPT:兼顾理解和生成的中文预训练模型
NLP
论文
苦行僧 2021-11-04 19:52 分享
苦行僧
帖子数:4719
个人主页
以下文章来源于zhuanlan.zhihu.com
分享一篇最近在中文预训练方面的一个工作。
标题:CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation
论文:
https://arxiv.org/pdf/2109.05729.pdf
代码:
https://github.com/fastnlp/CPT
模型已开源于Transformers,欢迎下载使用!
https://github.com/fastnlp/CPT/blob/master/README.md#pre-trained-models
内容中包含的图片若涉及版权问题,请及时与我们联系删除
点赞
收藏
评论
分享到Link
举报反馈
举报类型(必选)
样式问题
涉嫌广告
内容抄袭
内容侵权
政治相关
内容涉黄
其他
举报详情(选填)
0/200
沙发等你来抢
去评论
评论
请先
登录
后发表评论~
沙发等你来抢
评论
沙发等你来抢