Detecting Model Misspecification in Amortized Bayesian Inference with Neural Networks: An Extended Investigation

2024年06月05日
  • 简介
    最近概率深度学习的进展使得在只有模拟程序隐式定义似然函数的情况下(基于模拟的推断;SBI),能够进行高效的摊销贝叶斯推断。但是,如果模拟代表现实的准确度有所不足,即在测试时真实系统行为与训练时有所偏差,这样的推断有多可靠呢?我们概括了SBI中出现的模型错误规范类型,并系统地研究了神经后验逼近器的性能逐渐恶化的后果,使推断结果越来越不可信。为了通知用户这个问题,我们提出了一种新的错误规范度量,可以以无监督的方式进行训练(即没有来自真实分布的训练数据),并可靠地检测测试时的模型错误规范。我们的实验清楚地展示了我们的新度量在具有解析基础真实性的玩具示例以及细胞生物学、认知决策、疾病爆发动态和计算机视觉等代表性科学任务中的实用性。我们展示了所提出的错误规范测试如何在输出可疑时警告用户,当预测不可信时发出警报,并指导模型设计者在寻找更好的模拟器时进行搜索。
  • 图表
  • 解决问题
    论文旨在解决模拟程序不准确时对概率深度学习的影响问题,并提出一种新的误差度量方法来检测模型不准确性。
  • 关键思路
    论文提出了一种新的误差度量方法来检测模型不准确性,并展示了该方法在不同领域中的实用性。
  • 其它亮点
    论文使用了多个数据集进行实验,证明了新的误差度量方法的有效性。论文的方法可以帮助用户警惕不可靠的输出,并指导模型设计者寻找更好的模拟器。
  • 相关研究
    最近的相关研究包括:"Probabilistic Backpropagation for Scalable Learning of Bayesian Neural Networks"和"Bayesian Deep Learning: A Review"等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论