- 简介通过长期积累高质量的教育数据,人工智能在知识追踪方面表现出了出色的性能。然而,由于某些算法缺乏可解释性和透明度,这种方法会导致利益相关者的信任降低和智能决策的接受度降低。因此,算法需要实现高精度,用户需要了解内部操作机制并提供可靠的决策解释。本文对KT算法的可解释性进行了彻底分析。首先,介绍了可解释人工智能和知识追踪的概念和常见方法。接下来,将可解释的知识追踪模型分为两类:透明模型和黑盒模型。然后,从三个阶段(ante hoc可解释方法,post hoc可解释方法和其他维度)回顾了可解释方法的使用。值得注意的是,目前可解释的知识追踪的评估方法不足。因此,本文使用三种XAI方法对ASSISTment2009上的深度知识追踪模型的预测结果进行对比和删除实验,以解释预测结果。此外,本文还从教育利益相关者的角度提供了一些评估方法的见解。本文对可解释知识追踪的研究进行了详细和全面的回顾,旨在为对知识追踪的可解释性感兴趣的研究人员提供一些基础和启示。
- 图表
- 解决问题解释性知识追踪算法的研究和评估
- 关键思路将解释性人工智能方法应用于知识追踪算法,提高算法的可解释性和透明性
- 其它亮点介绍了解释性人工智能和知识追踪的概念和常见方法,将解释性知识追踪模型分为透明模型和黑盒模型,从三个阶段介绍了解释性方法,进行了对比和删除实验来解释深度知识追踪模型的预测结果,提供了评估方法的一些见解
- 与解释性人工智能和知识追踪相关的研究有:Interpretable Machine Learning, Explainable AI, Explainable Recommendation, Deep Knowledge Tracing, Knowledge Tracing
沙发等你来抢
去评论
评论
沙发等你来抢