- 简介知识追踪(KT)是指利用学生的问题解决历史来估计他们当前知识水平的方法,已经引起了研究者的极大兴趣。然而,大多数现有的KT模型都是基于ID的范例开发的,这种范例在冷启动性能方面存在局限性。利用生成式大型语言模型(LLMs)所拥有的大量外部知识可以缓解这些限制。在本研究中,我们提出了一种利用生成式语言模型作为学生知识追踪器(CLST)的框架,该框架利用生成式LLM作为知识追踪器来解决知识追踪中的冷启动问题。在收集数学、社会学和科学学科的数据后,我们将KT任务构建为自然语言处理任务,其中问题解决数据用自然语言表达,并使用格式化的KT数据集对生成式LLM进行微调。随后,我们使用各种基准模型进行比较,评估了CLST在数据稀缺情况下的性能。结果表明,CLST在少于100名学生的数据集中在预测、可靠性和跨领域泛化方面显著提高了性能。
-
- 图表
- 解决问题论文试图通过利用大型语言模型作为知识追踪器来解决知识追踪中的冷启动问题。
- 关键思路该论文提出了一种利用大型语言模型作为知识追踪器的框架,称为CLST。该框架将知识追踪任务转化为自然语言处理任务,并使用格式化的知识追踪数据对生成式大型语言模型进行微调,以提高模型在数据稀缺情况下的性能表现。
- 其它亮点论文使用数学、社会学和科学科目的数据集进行了实验,并与多个基准模型进行了比较。结果表明,CLST在少于100个学生的数据集上显著提高了预测、可靠性和跨领域泛化能力。
- 近年来,知识追踪领域的相关研究包括基于ID的模型和基于生成式模型的方法。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流