- 简介使用自动短答案评分(ASAG)模型可以帮助减轻评分的时间负担,同时鼓励教育工作者经常在课程中加入开放式问题。然而,目前最先进的ASAG模型是大型神经网络(NN),通常被描述为“黑匣子”,无法解释输入的哪些特征对于产生的输出是重要的。当尝试解释或从自动生成的分数中学习时,这种不可解释的性质可能会让教师和学生感到沮丧。为了创建一个强大而可理解的ASAG模型,我们尝试使用一种称为神经加性模型的模型类型,它将NN的性能与加性模型的可解释性相结合。我们使用学习科学中的知识整合(KI)框架来指导特征工程,以创建反映学生在回答中是否包含某些想法的输入。我们假设指示预定义想法的包含(或排除)作为特征将足以使NAM具有良好的预测能力和可解释性,因为这可能会指导使用KI评分表的人工评分员。我们使用相同的特征比较NAM与另一种可解释模型——逻辑回归的性能,以及不需要特征工程的不可解释神经模型DeBERTa的性能。
- 图表
- 解决问题本论文试图解决自动短答案评分模型的解释性问题,提出了一种结合神经网络和可解释性的加性模型。作者通过知识整合框架引导特征工程,以反映学生回答中是否包含特定思想的特征,从而提高模型的预测能力和可解释性。
- 关键思路论文提出了一种结合神经网络和可解释性的加性模型,通过特征工程反映学生回答中是否包含特定思想的特征,提高模型的预测能力和可解释性。
- 其它亮点论文使用了知识整合框架引导特征工程,比较了加性模型、逻辑回归和神经网络的表现。实验结果表明,加性模型在保持预测能力的同时,提供了更好的可解释性。论文还提供了开源代码和数据集。
- 在这个领域中,最近的相关研究包括使用深度学习模型进行自动短答案评分的研究,如基于神经网络的评分模型和BERT模型。
沙发等你来抢
去评论
评论
沙发等你来抢