基于高级机器学习的产品已经成为我们日常生活的一部分并且也存在于医疗保健等高级领域。理解基于ML的模型背后的如何决策是让用户获得对模型的信任、调试模型、发现偏差等等的关键。

解释人工智能黑盒模型是一个巨大的挑战。在这篇文章中,将介绍特征归因和反事实解释的基本方法。稍后,您将了解两者之间的关系。本文基于Microsoft在2020年发表的一篇论文 《Towards Unifying Feature Attribution and Counterfactual Explanations: Different Means to the Same End》。

目录

基本的解释方法

如何判断是否是好的解释?

重要的特征是必要的吗?

重要的特征是充分的吗?

这些方法是否相互关联呢?

总结

内容中包含的图片若涉及版权问题,请及时与我们联系删除