- 简介尽管深度学习模型的黑匣子性质,但在基于图像的药物发现中,它们被广泛用于从显微镜图像中提取单个细胞的特征向量。为了更好地理解这些网络执行表示学习的机制,我们采用了视觉可解释性技术(例如Grad-CAM)。我们的分析揭示了监督模型作弊的几种机制,即在从图像中提取形态特征时利用生物上不相关的像素,例如背景中的噪声。这引发了对学习的单个细胞表示的忠实度及其在研究下游生物问题时的相关性的怀疑。为了解决研究人员期望与机器行为之间的不一致,我们介绍了Grad-CAMO,这是一种用于监督特征提取器的新型单个细胞可解释性评分。Grad-CAMO测量模型注意力集中在感兴趣的细胞与背景之间的比例。该度量可以针对每个细胞进行评估或在验证集上进行平均,为审核单个特征向量或指导深度学习架构的改进设计提供工具。重要的是,Grad-CAMO可以无缝集成到现有工作流程中,无需数据集或模型修改,并且与2D和3D Cell Painting数据兼容。有关其他结果,请访问https://github.com/eigenvivek/Grad-CAMO。
- 图表
- 解决问题本论文旨在通过可视化解释技术(如Grad-CAM)来揭示深度学习模型在从显微镜图像中提取形态特征时的表现,并提出了Grad-CAMO,一种新的单细胞可解释性评分方法。
- 关键思路Grad-CAMO测量模型关注感兴趣细胞与背景的比例,从而评估模型的单细胞表征的可靠性和相关性。
- 其它亮点论文揭示了监督模型在从显微镜图像中提取形态特征时作弊的几种机制,Grad-CAMO提出了一种新的单细胞可解释性评分方法,可以评估模型关注感兴趣细胞与背景的比例,无需修改数据集或模型,可与2D和3D Cell Painting数据兼容。作者提供了开源代码和实验结果。
- 最近的相关研究包括使用可解释性技术来评估深度学习模型在医学图像分析中的表现,如CAM和Grad-CAM。
沙发等你来抢
去评论
评论
沙发等你来抢