- 简介立场检测一直被广泛研究,其任务是确定社交媒体帖子对特定问题(例如支持疫苗)是积极的、消极的还是中立的。然而,立场检测的研究通常局限于单一语言,即使涉及多种语言的研究,也仅关注少量样本的情况,忽略了开发零样本跨语言立场检测模型的挑战。本文通过引入一种新的零样本跨语言立场检测方法Multilingual Translation-Augmented BERT (MTAB),旨在增强跨语言分类器在没有目标语言显式训练数据的情况下的性能。我们的技术采用翻译增强来提高零样本性能,并与对抗学习相结合,进一步提高模型效果。通过对标记为英语、德语、法语和意大利语四种语言中对疫苗态度的数据集进行实验,我们展示了我们提出的方法的有效性,并展示了与强基线模型以及我们模型的消融版本相比的改进结果。我们的实验证明了模型组件的有效性,尤其是翻译增强数据以及对抗学习组件,对模型的性能改进起到了重要作用。我们已经在GitHub上公开了我们的源代码。
- 图表
- 解决问题本文尝试解决跨语言立场检测中的零样本问题,即在没有目标语言的显式训练数据的情况下,如何提高跨语言分类器的性能?
- 关键思路本文提出了一种新颖的方法,MTAB,即多语言翻译增强BERT,旨在通过翻译增强来提高零样本性能,并与对抗性学习相结合,进一步提高模型的有效性。
- 其它亮点本文在四种语言(英语、德语、法语、意大利语)的疫苗立场数据集上进行了实验,证明了MTAB方法的有效性,并展示了翻译增强数据和对抗性学习组件对模型性能的提高。作者已经在GitHub上开源了源代码。
- 最近的相关研究包括跨语言立场检测和零样本学习。例如,论文“Zero-Shot Cross-Lingual Opinion Target Extraction”和“Zero-Shot Cross-Lingual Sentiment Classification”。
沙发等你来抢
去评论
评论
沙发等你来抢