- 简介自动评分短答题并在评分决策背后提供可解释的推理是目前转换器方法面临的挑战。在逻辑推理器的帮助下,证明线索检测已经展示了神经符号架构在ASAG方面的一个有前途的方向。但是,主要挑战之一是需要在学生的回答中注释证明线索,这仅存在于少数ASAG数据集中。为了克服这一挑战,我们提供了(1)一种弱监督的ASAG数据集证明线索注释程序,以及(2)基于证明线索的可解释ASAG的神经符号模型。我们的方法在双语、多领域和多问题的训练设置中,相对于现有技术,将RMSE提高了0.24至0.3。这一结果表明,我们的方法为ASAG和教育NLP领域的未来研究提供了一个有前途的方向,可以生成高质量的成绩和相应的解释。
- 图表
- 解决问题本论文旨在解决自动短答案评分中的可解释性问题,提出了一种基于解释线索的神经符号模型。其中一个主要挑战是缺乏学生答案中的解释线索注释,这只存在于少数ASAG数据集中。
- 关键思路论文提出了一种弱监督注释解释线索的方法,并基于解释线索设计了神经符号模型,用于解释ASAG中的评分决策。实验结果表明,相比现有的ASAG研究,该方法在RMSE上有0.24至0.3的提高,为未来ASAG和教育NLP的高质量评分和解释提供了有前途的方向。
- 其它亮点论文的亮点包括提出了一种弱监督注释解释线索的方法,提出了一种基于解释线索的神经符号模型,实验结果表明该方法在RMSE上有显著提高。实验使用了Short Answer Feedback数据集,是一个双语、多领域、多问题的训练设置。
- 最近的相关研究包括基于深度学习的ASAG方法,以及基于解释线索的神经符号方法。其中,本文提出的方法在RMSE上显著优于现有ASAG研究。相关论文包括:'Deep Learning for Automated Short Answer Scoring: A Review'和'Neuro-Symbolic Methods in Natural Language Processing: A Survey'。
沙发等你来抢
去评论
评论
沙发等你来抢