12 月 2 日,达摩院深度语言模型体系 AliceMind 发布中文社区首个表格预训练模型 SDCUP,该模型在全球权威表格数据集 WikiSQL 和 SQuALL 上取得了业界最优效果,相关模型和训练代码已经开源于阿里巴巴深度语言模型体系 AliceMind 中。

此外,在达摩院构建的表格问答中文数据集 TaBLUE 上,SDCUP 比同参数规模 BERT 模型效果提升约 3 个百分点。达摩院资深算法专家李永彬介绍,SDCUP 模型是达摩院表格对话技术系列研发的一部分,后续将持续对外开源。
目前,预训练表格模型 SDCUP 和相关 NL2SQL 技术已经应用在了阿里云智能客服(云小蜜)的 TableQA 产品中。并且,为满足不同场景下的训练和交付需求,表格管理、数据配置、模型训练和效果干预等功能已全部完成产品化,基本做到知识梳理低成本、问答构建高速度、模型训练无标注,满足各个场景的交付运维需求。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢