最近,高度成功但不透明的机器学习模型激增,这引发了对可解释性的迫切需求。该毕业论文通过新颖的定义、方法和科学综述解决了可解释性问题,确保可解释性在现实问题的背景下是有用的。我们首先定义什么是可解释性,以及围绕它的一些需求,强调语境的作用被低估。然后,我们深入研究解释/改进神经网络模型的新方法,专注于如何最好地评分、使用和提取交互。接下来,我们将从神经网络转向相对简单的基于规则的模型,研究如何在维护极其简洁的模型的同时提高预测性能。最后,我们总结了促进可解释数据科学的开源软件和数据的工作。在每个案例中,我们深入到一个特定的背景,这激发了所提出的方法论,从宇宙学到细胞生物学到医学。所有代码都可以在github.com/csinva上找到。

 

论文地址:https://www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-40.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除