可解释机器学习(IML)简要综述,涵盖IML简史、最新进展与未来挑战。最近,许多新的IML方法被提出,其中许多是与模型无关的,也有特定于深度学习和基于树的集成的解释技术。IML方法可以直接分析模型组件,研究对输入扰动的敏感性,或者分析机器学习模型的局部或全局替代近似。该领域已接近成熟和稳定的状态,但仍面临许多重要挑战,比如如何处理相关特征、因果解释和不确定性估计,以及缺少被社区接受的对可解释性的严格定义。
论文链接:https://www.arxiv-vanity.com/papers/2010.09337/
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢