明明是只斑马,AI为什么说它是一条狗?
分类模型在归类图像时有时会错误地判断类别。
经过学习的AI,还会搞砸一些预测,肯定是在其中的某个环节出现了纰漏。
斯坦福大学的两位博士生和教授James Zou在一篇论文中,带我们探究了分类模型犯错的原因。
随后,论文提出一种方法——反事实的概念性解释(Conceptual Counterfactual Explanations),并评估了它的效果。
通过这种方法,我们就能重新定义模型的分类标准,从而解释AI犯错的原因。
论文链接:https://arxiv.org/pdf/2106.12723.pdf
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢