- 简介知识追踪(Knowledge Tracing, KT)是教育评估中的关键任务,旨在通过学生的练习记录挖掘他们对知识的掌握情况,并预测他们未来测试问题的表现。虽然研究人员在深度学习技术的快速发展中取得了巨大成功,但当前的知识追踪任务在真实的教学场景中存在缺陷。它严重依赖于大量的学生数据,并仅预测数值表现,这与教师评估学生的知识状态并提供解释性反馈的设置不同。为了填补这一空白,我们探索了一个新的任务形式:可解释的少样本知识追踪。通过利用大型语言模型(LLM)强大的推理和生成能力,我们提出了一个认知引导的框架,可以从少量学生记录中跟踪学生的知识,并提供自然语言的解释。三个广泛使用的数据集的实验结果表明,LLM可以执行与竞争性深度知识追踪方法相当或更优的性能。我们还讨论了相关主题的潜在方向,并呼吁未来的改进。
-
- 图表
- 解决问题论文试图探索可解释的少样本知识追踪问题,以提高在实际教学场景下的适用性。
- 关键思路利用大型语言模型的推理和生成能力,提出了一个认知引导的框架,可以从少量的学生记录中跟踪学生的知识,并提供自然语言解释。
- 其它亮点论文在三个广泛使用的数据集上进行了实验,结果显示大型语言模型可以表现出与竞争深度知识追踪方法相当或更好的性能。值得关注的是,该方法可以提供自然语言解释,从而使教师能够更好地理解学生的知识状态。
- 最近的相关研究包括《Deep Knowledge Tracing》、《A Dynamic Key-Value Memory Network for Knowledge Tracing》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流