【论文标题】Extra Large Sequence Transformer Model for Chinese Word Segment(用于中文分词的超大序列变换器模型) 【机构】清华大学 【简介】中文分词在文献分析中被广泛研究。当前流行的模型,LSTM+CRF,仍然不令人满意。经过预训练的模型在流行的数据集成功,但往往在域外的情况下失败。在MSR2005中文单词数据集上,本文结合变换器-XL层,全连接层和有条件的随机场层, 模型与BERT+CRF模型相比,在宏观 F1分数上有 3.23% 提升。本文涉及到的预训练模型为基于XLNET的预训练模型。 【资源地址】https://github.com/ShenDezhou/Chinese-PreTrained-XLNet 【下载地址】https://assets.researchsquare.com/files/rs-149338/v1_stamped.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除