- 简介我们提出了KUL-KT,这是一种受生物学启发的知识追踪(KT)架构,将赫布型(Hebbian)记忆编码与基于梯度的记忆巩固相结合,构建了一个可扩展、与输入无关的框架。KUL-KT借鉴了神经系统中记忆巩固的原理,在学生建模中引入两项关键创新:(i)一种具有时间衰减特性的赫布型记忆更新机制,实现合理的遗忘;(ii)一种新颖的“损失对齐内部目标”(Loss-aligned Internal Target, LIT)方法,用于计算理想的内部状态,使系统能够在无需时间反传的情况下持续学习。该架构包含一个快速的赫布型记忆模块,通过一次关联更新捕捉每个学习者的行为;以及一个较慢的线性网络,通过梯度下降对回忆出的样本进行巩固。这种设计实现了少量样本即可完成个性化,并自然地实现遗忘,而无需存储原始数据或依赖大规模群体训练。KUL-KT完全在嵌入空间中运行,既支持结构化(表格型)输入,也支持非结构化(短答案)输入。实证结果显示,KUL-KT在十个公开的KT基准测试中,于对排序敏感的指标(如nDCG和Recall@10)上优于多个强大基线模型。在课堂部署中,KUL-KT能够基于短答案数据生成个性化测验,显著提升了学习者感知的帮助性并降低了主观难度(p < 0.05)。消融实验表明,赫布型衰减机制和LIT方法对于系统的持续适应至关重要。相比一个强大的基于图结构的知识追踪模型,KUL-KT的训练速度快1.75倍,内存占用减少99.01%。这些优势使得KUL-KT成为一种具有生物学基础、内存效率高且输入灵活的大规模个性化学习框架。
- 图表
- 解决问题论文试图解决知识追踪(KT)中的几个关键问题:如何在不依赖大量数据存储或大规模群体训练的情况下,实现学生学习状态的持续建模与个性化预测。此外,它还探索了如何结合生物学启发机制来提升模型的记忆效率和适应能力。
- 关键思路论文提出了一种名为KUL-KT的新架构,其核心思路是将神经科学中的记忆巩固原理引入到学生建模中。具体包括两个创新点:(i) 时间衰减的Hebbian记忆更新机制,模拟生物系统的自然遗忘过程;(ii) Loss-aligned Internal Target (LIT) 方法,通过无需时间反向传播的内部目标计算实现持续学习。
- 其它亮点{KUL-KT支持结构化和非结构化输入,操作完全在嵌入空间进行,具有高度灵活性。,在10个公开KT基准测试中表现优于强基线模型,尤其在nDCG和Recall@10等排名敏感指标上。,在课堂部署中成功利用短答案数据生成个性化测验,并显著提高学习者感知的帮助性并降低难度感。,消融实验验证了Hebbian衰减和LIT方法对持续适应的重要性。,相比图神经网络(GNN)基线模型,KUL-KT训练速度快1.75倍,内存占用减少99.01%。,未明确提及是否开源代码,但强调框架具有可扩展性和输入无关特性。}
- {"Deep Knowledge Tracing (DKT)","Dynamic Key-Value Memory Networks for Knowledge Tracing (DKVMN)","Self-Attentive Knowledge Tracing (SAKT)","Graph-Based Knowledge Tracing: Modeling the Learning Path via Graph Neural Networks","Memory-Augmented Neural Networks for Knowledge Tracing","Neural Turing Machines and Differentiable Neural Computers in Educational Modeling","Meta-Learning Approaches for Few-Shot Personalization in KT","Biologically Plausible Learning Algorithms Applied to Cognitive Modeling"}
沙发等你来抢
去评论
评论
沙发等你来抢