活动
论文
风云人物
专栏
项目
社交
取消
登录/注册
ICML 2022 | 基于Logit归一化的置信度校准方法
ML
论文
苦行僧 2022-08-12 23:14 分享
苦行僧
帖子数:4719
个人主页
以下文章来源于mp.weixin.qq.com
神经网络经常出现过度自信问题(overconfidence),表现为对 in-distribution 和 out-of-distribution 的数据都产生比较高的概率置信度,这是 OOD 检测的一个最基础的概念。
本文提出一种 Logit Normalization 方法
,在训练过程中将 Logit 的范数限定为一个常数,对传统的交叉熵损失进行修正,来缓解这种 overconfidence 问题。
论文链接:
https://arxiv.org/abs/2205.09310
内容中包含的图片若涉及版权问题,请及时与我们联系删除
点赞
收藏
评论
分享到Link
举报反馈
举报类型(必选)
样式问题
涉嫌广告
内容抄袭
内容侵权
政治相关
内容涉黄
其他
举报详情(选填)
0/200
沙发等你来抢
去评论
评论
请先
登录
后发表评论~
沙发等你来抢
评论
沙发等你来抢