活动
论文
风云榜
专栏
知识树
项目
社交
登录/注册
CPT:兼顾理解和生成的中文预训练模型
NLP
论文
苦行僧 2021-11-04 19:52 分享
以下文章来源于zhuanlan.zhihu.com
分享一篇最近在中文预训练方面的一个工作。
标题:CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation
论文:
https://arxiv.org/pdf/2109.05729.pdf
代码:
https://github.com/fastnlp/CPT
模型已开源于Transformers,欢迎下载使用!
https://github.com/fastnlp/CPT/blob/master/README.md#pre-trained-models
内容中包含的图片若涉及版权问题,请及时与我们联系删除
点赞
收藏
评论
分享到Link
举报反馈
举报类型(必选)
样式问题
涉嫌广告
内容抄袭
内容侵权
政治相关
内容涉黄
其他
举报详情(选填)
0/200
评论列表
沙发等你来抢
去评论
评论
登录
后可提问交流
沙发等你来抢
评论
沙发等你来抢