【智源AI日报】每天速读5分钟,AI要事不错过!欢迎点击这里,关注并订阅智源AI日报。
资讯:NeurIPS 2022统计数据出炉:清华作者排名第一,多人中稿超十篇
看点:昨日,苏黎世联邦理工学院数据科学博士 Sanagno 汇总了 NeurIPS 2022 相关的信息,包括个人中稿量排行、机构中稿量排行以及论文标题和摘要中出现最多的词汇。
盘点 | 「图神经网络复杂图挖掘」 的研究进展
看点:近年来,图神经网络完成了向复杂图结构的迁移,诞生了一系列基于复杂图的图神经网络模型。然而,现有综述文章缺乏对复杂图神经网络全面、系统的归纳和总结工作。
模型 | Fast and Effective:一文速览轻量化Transformer各领域研究进展
看点:笔者首先梳理了一些Transformer常用的轻量化方法,并分领域的介绍了一些主流的轻量化Transformer。
资讯 | 大模型投资热:Google正在与Cohere谈判投资2亿美元,NVIDIA也在谈
看点:Cohere是AI大模型四小龙之一,位于多伦多大学。创始人兼CEO Aidan Gomez曾在谷歌实习,师从深度学习之父Hinton,是最早的Transformer论文 Attention is all you need 作者之一。
解读 | 预训练模型的记忆机制解密
看点:本文作者借助英文习语生成任务,探秘预训练模型的记忆唤起机制。
论文 | AI居然「暗中」捣乱?港中大深圳联合西安交大发布后门学习新基准|NeurIPS 2022
看点:截至2022年10月22日,BackdoorBench已集成了9种攻击方法、12种防御方法、5种分析工具,leaderboard公布了8000组攻防结果。
解读 | NeurIPS 2022论文,UniAD开源:一个模型解决所有类别的异常检测
看点:本文希望,从重构网络的结构设计上彻底解决“恒等映射”问题。 具体的,本文提出了三个创新点,构成了本文的UniAD网络。
论文 | NeurIPS2022论文,基于最大熵编码的自监督学习
看点:我们提出了最大熵编码(Maximum Entropy Coding, MEC),这是一个更原则性的目标,它明确优化了表示的结构,从而使学习到的表示更少偏差,从而更好地推广到不可见的下游任务。
数据 | 谷歌:公布专利短语相似性数据集
看点:这是一个新的人类评级上下文短语到短语的语义匹配数据集,以及相关的论文 (opens new window)在SIGIR PatentSemTech研讨会 (opens new window)上提交,该研讨会侧重于专利的技术术语。
日报 | 爱可可AI前沿推介 (10.24)
看点:假性相关存在情况下的特征学习研究、掩码引导的扩散语义图像编辑、代码语言模型是少样本常识学习器、场景描述到描绘任务的欠规定性、基于递归网络的端到端算法合成、掩码图像建模统一视角、Habitat-Matterport 3D语义数据集、翻转学习让语言模型成为更强大的零样本学习器、用于训练下一代图像-文本模型的开放大规模数据集。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢