导读
为了帮助中国人工智能科研、从业者更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理了第78期《智源社区AI周刊》,从学术(论文和新思想、学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人事变动和获奖情况)、数据(数据集),工具(新工具和应用推荐)等诸多角度,鸟瞰过去一周人工智能领域值得关注的动态。
过去一周(2021/06/14~2021/06/20),值得关注的内容有以下3方面:
一、近日,CVPR 2021 公布了最佳论文、最佳学生论文等奖项。德国马普所和蒂宾根大学的研究者获得了最佳论文奖,加州理工和西北大学的研究者获得最佳学生论文奖。此外,FAIR 包括何恺明在内的两位华人学者获得最佳论文提名,而另一位华人学者、华盛顿大学计算机系硕士研究生林山川获得了最佳学生论文提名。(详情参见本周报“会议”栏目)
二、近日,ACM SIG 新一届选举结果出炉,陈怡然、刘学、王薇、王晓峰、May Dongmei Wang、Lili Qiu等多位华人学者当选,任期为2021年7月1日至2023年6月30日。(详情参见本周报“人物”栏目)
三、该研究由 DeepMind 首席研究科学家、伦敦大学学院教授 David Silver 领衔,研究灵感源于他们对自然智能的进化研究以及人工智能的最新成就,在撰写论文时仍处于预证明阶段。研究人员认为,奖励最大化和试错经验足以培养表现出与智力相关的能力行为。由此,他们得出结论,强化学习是基于奖励最大化的人工智能分支,可以推动通用人工智能的发展。(详情参见本周报“观点”栏目)
下面是各个要点的详情介绍。
论文推荐
清华、人大、复旦等|预训练模型:过去、现在和未来
Transformer | THUNDR:使用标记的基于 Transformer 的3D 人体重建
鲁棒学习 | 基于因果干预的对抗视觉鲁棒性
GNN | 使用自旋卷积的旋转不变图神经网络
医学图像分割 | 医学图像分割中无监督域适应的最优潜向量对齐
观点
DeepMind 首席研究科学家、伦敦大学学院教授 David Silver:强化学习可以推动通用人工智能
该研究由 DeepMind 首席研究科学家、伦敦大学学院教授 David Silver 领衔,研究灵感源于他们对自然智能的进化研究以及人工智能的最新成就,在撰写论文时仍处于预证明阶段。研究人员认为,奖励最大化和试错经验足以培养表现出与智力相关的能力行为。由此,他们得出结论,强化学习是基于奖励最大化的人工智能分支,可以推动通用人工智能的发展。
行业与政策
谷歌旗下自动驾驶部门Waymo再获25亿美元融资
据路透社6月16日晚报道,谷歌旗下自动驾驶部门——Waymo在新一轮融资中获得25亿美元投资。据悉,谷歌母公司Alphabet参与了该轮融资,其他投资者还包括Andreessen Horowitz、Silver Lake和Tiger Global等。根据投资者网站PitchBook的数据,Waymo的最新估值为超过300亿美元。Waymo成立于2009 年,发展至今已经成为完全无人驾驶领域的领导者。Waymo是全球首家推出服务于乘客的商用叫车服务Waymo One,已经在凤凰城、旧金山和湾区开始运营。Waymo表示,该轮融资包括10多名投资者,融资将用于推进公司的自动驾驶技术Waymo Driver,并用于扩充Waymo团队。
人物
ACM SIG新任主席名单公布!陈怡然、刘学等六位华人学者当选
代码
德州农工大学、德州大学奥斯汀分校|自毁对比学习
。
香港大学 | HR-NAS:使用轻量级Transformer搜索高效的高分辨率神经架构
高分辨率表示 (HR) 对于密集预测任务(例如分割、检测和姿态估计)至关重要。在以前专注于图像分类的神经架构搜索 (NAS) 方法中,学习 HR 表示通常被忽略。这项工作提出了一种新的 NAS 方法,称为 HR-NAS,它能够通过有效地编码多尺度上下文信息同时保持高分辨率表示,为不同的任务找到有效和准确的网络。在 HR-NAS 中,我们更新了 NAS 搜索空间及其搜索策略。为了在 HR-NAS 的搜索空间中更好地编码多尺度图像上下文,我们首先精心设计了一个轻量级转换器,其计算复杂度可以根据不同的目标函数和计算预算动态改变。为了保持学习网络的高分辨率表示,HR-NAS 采用多分支架构,受 HRNet 的启发,提供多个特征分辨率的卷积编码。最后,我们提出了一种有效的细粒度搜索策略来训练 HR-NAS,它有效地探索搜索空间,并在给定各种任务和计算资源的情况下找到最佳架构。 HR-NAS 能够在三个密集预测任务和一个图像分类任务的性能和 FLOP 之间实现最先进的权衡,只要计算预算很小。例如,HR-NAS 超越了专为语义分割而设计的 SqueezeNAS,同时提高了 45.9% 的效率。
快手|MlTr:使用变换器进行多标签分类
新工具
网易有道开源EMLL:高性能端侧机器学习计算库
在人工智能技术不断深入发展的今天,我们对于计算的性能要求越来越高。传统的计算处理多数是基于云侧的,把所有图像、音频等数据通过网络传输到云中心进行处理后将结果反馈。但是随着数据的指数式增长,依靠云侧的计算已经显现了诸多不足,例如数据处理的实时性、网络条件制约、数据安全等,因此端侧的推理则愈发重要。在这样的背景下,网易有道 AI 团队自主设计研发了高性能端侧机器学习计算库——EMLL(Edge ML Library),并已在近日开源。
香港中文大学 | DistillFlow:一种用于光流估计的自监督学习框架
我们提出了 DistillFlow,这是一种学习光流的知识蒸馏方法。DistillFlow 训练多个教师模型和学生模型,其中将具有挑战性的转换应用于学生模型的输入以生成幻觉遮挡以及不太自信的预测。然后,构建了一个自监督学习框架:来自教师模型的自信预测被用作注释,以指导学生模型为那些不太自信的预测学习光流。自监督学习框架使我们能够从未标记的数据中有效地学习光流,不仅适用于非遮挡像素,还适用于遮挡像素。 DistillFlow 在 KITTI 和 Sintel 数据集上实现了最先进的无监督学习性能。我们的自监督预训练模型还为监督微调提供了出色的初始化,这表明与当前高度依赖合成数据预训练的监督学习方法相比,这是一种替代训练范式。在撰写本文时,我们的微调模型在 KITTI 2015 基准测试的所有单目方法中排名第一,并且在 Sintel Final 基准测试中的表现优于所有已发布的方法。更重要的是,我们在三个方面展示了 DistillFlow 的泛化能力:框架泛化、对应泛化和跨数据集泛化。
中国科学院大学 | Uformer:用于图像恢复的通用U形Transformer
在本文中,我们提出了 Uformer,这是一种有效且高效的基于 Transformer 的架构,其中我们使用 Transformer 块构建分层编码器-解码器网络以进行图像恢复。 Uformer 有两个核心设计,使其适合这项任务。第一个关键元素是局部增强的窗口 Transformer 块,我们使用非重叠的基于窗口的自注意力来减少计算要求,并在前馈网络中使用深度卷积来进一步提高其捕获潜力当地情况。第二个关键要素是我们探索了三种跳过连接方案,以有效地将信息从编码器传递到解码器。在这两种设计的支持下,Uformer 在捕获有用的图像恢复依赖项方面具有很高的能力。在多个图像恢复任务上的大量实验证明了 Uformer 的优越性,包括图像去噪、去、去模糊和去梦。我们希望我们的工作将鼓励进一步的研究,以探索用于低级视觉任务的基于 Transformer 的架构。
应用
麻省理工 | 学习蛋白语言: 进化,结构和功能
印度理工学院 | 2D医学图像分割的对比半监督学习
对比学习 (CL) 是最近的一种表示学习方法,它通过在学习的图像表示中鼓励类间可分离性和类内紧凑性来取得可喜的结果。由于医学图像通常每个图像包含多个感兴趣的类别,因此这些图像的标准图像级 CL 不适用。在这项工作中,我们提出了一种新颖的半监督 2D 医学图像分割解决方案,该解决方案将 CL 应用于图像块,而不是完整图像。这些patches是使用通过伪标签获得的不同类的语义信息有意义地构建的。我们还提出了一种新颖的一致性正则化方案,它与对比学习协同工作。它解决了在半监督设置中经常观察到的确认偏差问题,并鼓励在特征空间中更好地聚类。我们在四个公共医学分割数据集以及我们引入的新组织病理学数据集上评估我们的方法。我们的方法对所有数据集的最先进的半监督分割方法都取得了一致的改进。
机器学习领域新进展再次刊登Nature封面:解决医疗数据隐私问题
会议
CVPR 2021奖项出炉:最佳论文花落马普所,何恺明获提名,首届黄煦涛纪念奖颁布
近日,CVPR 2021 公布了最佳论文、最佳学生论文等奖项。德国马普所和蒂宾根大学的研究者获得了最佳论文奖,加州理工和西北大学的研究者获得最佳学生论文奖。此外,FAIR 包括何恺明在内的两位华人学者获得最佳论文提名,而另一位华人学者、华盛顿大学计算机系硕士研究生林山川(Shanchuan Lin)获得了最佳学生论文提名。
以上是《智源社区AI周刊》第78期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请在下方评论区留言指出。谢谢大家。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢