最近对比学习真的太火了,已然成为各大顶会争相投稿的一个热门领域,而它火的原因也很简单,就是因为它解决了有监督训练标注数据有限这个典型问题(这个问题在工业界非常滴常见)。所以对比学习的出现,给CV、NLP和推荐都带来了极大的福音,具体来说:
1、在CV领域,解决了“在没有更大标注数据集的情况下,如何采用自监督预训练模式,来从中吸取图像本身的先验知识分布,得到一个预训练模型”的问题;
2、在NLP领域,验证了”自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游任务效果来说越好“这样一个客观事实;
3、在推荐领域,解决了以下四个原因:数据的稀疏性、Item的长尾分布、跨域推荐中多个不同的view聚合问题以及增加模型的鲁棒性或对抗噪音。
因此为了更加清楚的掌握对比学习的前沿方向与最新进展,为大家整理了最近一年来各大顶会中对比学习相关的论文,一共涵盖:ICLR2021, SIGIR2021, WWW2021, CVPR2021, AAAI2021, NAACL2021, ICLR2020, NIPS2020, CVPR2020, ICML2020, KDD2020共十一个会议60多篇论文。本次整理以long paper和research paper为主,也包含少量的short paper和industry paper。
本文整理的论文列表已经同步更新到GitHub,GitHub上会持续更新顶会论文。
GitHub地址:
https://github.com/coder-duibai/Contrastive-Learning-Papers-Codes
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢