DGRC: An Effective Fine-tuning Framework for Distractor Generation in Chinese Multi-choice Reading Comprehension

2024年05月29日
  • 简介
    在评估学习者的知识水平时,多项选择题是标准化测试中一种高效且广泛使用的格式。然而,生成这些问题,特别是可信的干扰项(不正确的选项),是一个相当大的挑战。一般来说,干扰项生成可以分为填空式干扰项生成(CDG)和自然问题干扰项生成(NQDG)。与CDG相比,利用预训练语言模型(PLMs)进行NQDG存在三个主要挑战:(1)PLMs通常是训练生成“正确”内容,如答案,而很少训练生成“可信”内容,如干扰项;(2)PLMs通常难以产生与特定知识和考试风格相符的内容;(3)NQDG需要模型生成更长、上下文敏感且与问题相关的干扰项。在本研究中,我们介绍了一个名为DGRC的微调框架,用于从真实考试中的中文多项选择阅读理解中进行NQDG。DGRC包括三个主要组成部分:硬链式思维、多任务学习和生成掩码模式。实验结果表明,DGRC显著提高了生成性能,在BLEU得分方面实现了超过2.5倍的改进。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决多选阅读理解中自动生成干扰项的难题。
  • 关键思路
    论文提出了一种基于预训练语言模型的NQDG方法,包括硬链式思维、多任务学习和生成掩码模式三个组成部分。该方法在中文多选阅读理解干扰项生成上取得了显著的性能提升。
  • 其它亮点
    论文使用了中文多选阅读理解真实考试数据集进行实验,并通过BLEU分数评估了干扰项生成的性能。论文还开源了代码。
  • 相关研究
    与本论文相关的研究包括:1. Generating Plausible Distractors Using Generative Adversarial Networks for Multiple Choice Questions;2. A Hybrid Approach to Generating Plausible Distractors for Multiple-Choice Questions Using Paraphrase and Selectional Preference.
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问