明明是只斑马,AI为什么说它是一条狗?

分类模型在归类图像时有时会错误地判断类别。

经过学习的AI,还会搞砸一些预测,肯定是在其中的某个环节出现了纰漏。

斯坦福大学的两位博士生和教授James Zou在一篇论文中,带我们探究了分类模型犯错的原因。

随后,论文提出一种方法——反事实的概念性解释(Conceptual Counterfactual Explanations),并评估了它的效果。

通过这种方法,我们就能重新定义模型的分类标准,从而解释AI犯错的原因。

 

论文链接:https://arxiv.org/pdf/2106.12723.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除