- 简介我们对Gamma-Maximin方法进行了理论和计算研究,该方法近期被提出作为半监督学习中伪标签选择(PLS)的鲁棒准则。与传统的PLS方法相反,我们使用先验的置信集(“广义贝叶斯”)来表示认知建模不确定性。然后,这些后验置信集通过Gamma-Maximin方法进行软修订。最终,我们选择在更新的置信集中,基于最不利分布最有可能的伪标记数据。我们将找到基于Gamma-Maximin方法进行软修订的最优伪标记数据任务形式化为一个优化问题。对于逻辑模型类的具体实现,我们可以比较该方法与竞争方法的预测能力。观察到,Gamma-Maximin方法在标记数据比例低的情况下,尤其是可以取得非常有希望的结果。
-
- 图表
- 解决问题本论文旨在解决半监督学习中伪标签选择的问题,提出了Gamma-Maximin方法与软修订的方法,使用可信度集合的先验概率来表示认知建模不确定性。
- 关键思路使用可信度集合的先验概率来表示认知建模不确定性,并使用Gamma-Maximin方法与软修订的方法来更新这些先验概率,最终选择在最不利分布下最有可能的伪标记数据。
- 其它亮点论文使用了Gamma-Maximin方法与软修订的方法,实现了逻辑模型的具体实现,并与竞争方法进行了比较。实验结果表明,该方法在标记数据比例较低的情况下表现出很有前途的结果。
- 在半监督学习领域,还有一些相关的研究,例如“Deep Co-Training for Semi-Supervised Image Recognition”和“Semi-Supervised Learning with Deep Generative Models”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流