一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。解释AI决策的技术挑战有时被称为可解释性问题。本文是一篇对可解释性AI的综述文章。 包括:

研究动机 模型解释分类 什么是好的解释 可解释的模型 决策规则 其它可解释模型 神经网络模型的解释

内容中包含的图片若涉及版权问题,请及时与我们联系删除