- 简介这项研究解决了为缺乏标注数据的零资源语言开发语音应用的挑战。它专门使用声学单词嵌入(AWE)——固定维度的可变时长语音片段表示——采用多语言转移,其中使用几种资源充足的语言的标注数据进行训练。该研究介绍了一种新的神经网络,其在零资源语言上的性能优于现有的AWE模型。它探讨了选择资源充足的语言的影响。AWE应用于斯瓦希里语广播中的仇恨言论检测的关键词检测系统,展示了在实际场景中的稳健性。此外,新颖的语义AWE模型改善了语义按示例查询搜索。
- 图表
- 解决问题如何在缺乏标注数据的零资源语言中开发语音应用程序?
- 关键思路使用声学单词嵌入(AWE)和多语言转移学习,利用多个有标注数据的语言来训练模型,提出一种新的神经网络模型来解决零资源语言的问题。
- 其它亮点实验使用AWE模型进行仇恨言论检测和语义查询,表现出鲁棒性和效果优越性。论文提出的新模型在零资源语言上表现出色。
- 最近的相关研究包括:《Zero Resource Speech Technologies and Applications》、《Unsupervised Learning of Acoustic Features via Deep Neural Networks》等。
沙发等你来抢
去评论
评论
沙发等你来抢