机器学习在数据密集型应用中取得了很大成功,但在面临小数据集的情况下往往捉襟见肘。近期出现的小样本学习(Few-Shot Learning,FSL)方法旨在解决该问题。FSL 利用先验知识,能够快速泛化至仅包含少量具备监督信息的样本的新任务中。
本文想要分享一篇有关于小样本学习综述的论文,这篇论文之前社区也推荐过:https://hub.baai.ac.cn/view/337 不过本次分享的是针对这篇综述的总结,我个人觉得写的很不错,而且是用中文写的,篇幅长度适中,很适合不喜欢阅读英文长篇论文的小伙伴,感兴趣的可以戳以下链接:
这篇论文对 FSL 方法进行了综述。首先,该论文给出了 FSL 的正式定义,并厘清了它与相关机器学习问题(弱监督学习、不平衡学习、迁移学习和元学习)的关联和差异。然后指出 FSL 的核心问题,即经验风险最小化方法不可靠。
基于各个方法利用先验知识处理核心问题的方式,该研究将 FSL 方法分为三大类:
- 数据:利用先验知识增强监督信号;
- 模型:利用先验知识缩小假设空间的大小;
- 算法:利用先验知识更改给定假设空间中对最优假设的搜索。
最后,这篇文章提出了 FSL 的未来研究方向:FSL 问题设置、技术、应用和理论。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢