导读 为了帮助中国人工智能科研、从业者更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理了第10期《智源社区AI周刊》,从学术(论文和新思想、学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人事变动和获奖情况),数据(数据集),工具(新工具和应用推荐),求职(职场研究报告等)等诸多角度,鸟瞰过去一周人工智能领域值得关注的动态。

过去一周(2020/02/12~2020/02/23),值得关注的内容有以下3方面:

  1. NeurlPS 2020将在今年12月召开,今年的投稿、审稿、大会等政策是否会有所变动引起人们的关注。新的政策变化是否能够避免投稿过多、审稿不专业等问题?近日,NeurlPS官方公开了新一届大会的变化,包括:1. 今年摘要提交的截稿日期提前到2020年5月5日;2. 领域Chair会有两个星期时间去建议哪些论文会被提前拒绝;3. 作者也是审稿人;4. 作者被要求在他们提交的文件中包含新的讨论部分,这个部分是关于他们的研究工作可能产生的影响;5. 社区要求所有作者在提交作品时都上传一段视频。(详情参见本周报「会议」栏目)
  2. Facebook创建的Habitat可以实现在3D环境中达到99%的导航成功率。“嵌入式人工智能”意味着机器学习系统可以与周围环境智能互动,但不幸的是,与简单的虚拟环境相比,逼真的3D环境需要大量的计算,这减慢了学习速度,而Facebook的Habitat可以提供一套模拟的真实世界环境,具有足够的真实感,让人工智能能够快速、准确导航现实世界。(详情参见本周报「应用」栏目)
  3. CB Insights在《全球人工智能投资趋势年度报告》中发布:全球人工智能初创公司2019年募集资金达266亿美元,涉及超2200笔交易,这是自人工智能浪潮爆发以来的又一新纪录。与之相对照的是:2018年AI企业通过约1900笔交易募集到221亿美元;2017年通过约1700笔交易募集到168亿美元。(详情参见本周报「行业与政策」栏目)

下面是各个要点的详情介绍。

论文推荐 结构化深度聚类网络 Structural Deep Clustering Network

聚类是数据分析的基本任务。近年来,深度聚类技术(deep clustering)得到了广泛的关注,它的灵感主要来自于深度学习方法。当前的深度聚类方法通常借助深度学习强大的表示能力(如自编码)来提高聚类结果,这表明学习一种有效的聚类表示是一个关键的要求。深度聚类方法的优势在于从数据本身中提取有用的表示,而不是从数据的结构中提取,这在表示学习中受到的关注较少。基于图卷积网络(GCN)在对图结构进行编码方面取得的巨大成功,本文提出了一种结构化深度聚类网络(SDCN),将结构信息集成到深度聚类中。具体来说,本文设计了一个传递算子,将自编码器学习到的表示转换到相应的GCN层,并设计了双重自监督机制来统一这两种不同的深层神经结构,指导整个模型的更新。通过这种方式,从低阶到高阶的多种数据结构自然地与自动编码器学习的多种表示相结合。在此基础上,从理论上分析了传递算子。通过使用传递操作符,GCN改进了作为高阶图正则化约束的特定于自编码的表示形式,并且自动编码器有助于缓解GCN中的过度平滑问题。通过综合实验,本文证明提出的模型可以持续地比最先进的技术表现得更好。 来源:WWW 2020 | 论文下载

LSTM引入额外门控运算 Mogrifier LSTM

LSTM来源于循环神经网络RNN,其核心是解决了RNN所存在的遗忘性问题。所以LSTM在普通RNN基础上,在隐藏层各神经单元中增加记忆单元,从而使时间序列上的记忆信息可控,每次在隐藏层各单元间传递时通过几个可控门(遗忘门、输入门、输出门),可以控制之前信息和当前信息的记忆和遗忘程度,从而使RNN网络具备了长期记忆功能,对于RNN的实际应用,有巨大作用。但是现有的LSTM仍然不完美,比如存在泛化能力和语言建模能力不强等诸多问题。针对这个问题,本论文对LSTM进行了改进,通过引入额外的门控运算,使得输入x和状态hprw在输入到LSTM之前进行多轮交互计算,最终使得输入和上下文之间具有更加丰富的交互表示。这种改进并不复杂,但是这种简单的修改确在语言模型上取得了显著的效果。 来源:ICLR 2020 | 代码链接 | 论文下载

图卷积神经网络和标签传播统一建模学习 Unifying Graph Convolutional Neural Networks and Label Propagation

标签传播(LPA)和图卷积神经网络(GCN)都是图上的消息传递算法。两者都解决了节点分类的任务,但是LPA将节点标签信息传播到图的边缘,而GCN传播并转换节点特征信息。然而,虽然概念相似,LPA和GCN之间的理论关系还没有得到研究。这里我们从两个方面研究了LPA和GCN之间的关系:1. 特征/标签平滑,分析一个节点的特征/标签如何扩散到它的邻居;2. 一个节点的初始特征/标签对另一个节点的最终特征/标签的影响程度。在理论分析的基础上,提出了一种统一GCN和LPA的节点分类端到端模型。在我们的统一模型中,边缘权值是可学习的,LPA作为正则化帮助GCN学习合适的边缘权值,从而提高分类性能。我们的模型也可以看作是基于节点标签的注意力学习权重,它比现有的基于特征的注意力模型更面向任务。在真实图数据的大量实验中,我们的模型在节点分类准确度方面显示出优于目前最先进的基于gcn的方法。 来源:Stanford | 论文下载

可建模语义分层的知识图谱补全方法 Learning Hierarchy-Aware Knowledge Graph Embeddings for Link Prediction

近些年,知识图谱(Knowledge Graph)在自然语言处理、问答系统、推荐系统等诸多领域取得了广泛且成功的应用。然而,现有知识图谱普遍存在链接缺失问题。为解决该问题,知识图谱补全任务应运而生。目前的知识图谱补全模型可分为多个流派,而基于距离的模型是其中重要一派。这类模型可以建模对称、互逆与复合等不同的抽象关系模式(Relation Pattern),却难以对知识图谱中普遍存在的语义分层(Semantic Hierarchies)现象进行有效建模。本文接下来所介绍的工作HAKE使用极坐标系对语义分层现象进行建模,并在主流数据集上超越了这一流派中现有性能最好的方法。 来源:AAAI 2020 | 代码地址 | 论文下载

假新闻识别框架 WeFEND Weak Supervision for Fake News Detection via Reinforcement Learning

近年来信息流已经成为人们获取新闻的主要渠道,为了获取点击率,很多小编都会特意编写一些不实的新闻,很容易触及成千上万的用户,造成恶劣影响,所以及时的检测假新闻显得极为重要。目前存在的问题是1. 假新闻样本获取成本大;2. 标注样本容易过期,没办法及时跟进新出的假新闻事件。为解决上述问题,微信搜索数据质量团队根据看一看实际业务提出了一个新的假新闻识别框架WeFEND,能够利用用户的举报内容扩充高时效性的样本识别假新闻,提高假新闻识别的效果。识别框架主要由三部分组成:1. 弱监督样本标注器;2. 强化学习选择器;3. 假新闻识别器。根据用户举报内容数据对未标注的数据进行弱监督标注,然后使用强化学习构建的选择器从弱监督标注数据中筛选出能提高假新闻识别效果的高质量的样本,最后通过文章的标题进行假新闻识别。研究者在微信看一看的feeds流数据集上进行了大量实验,评测的结果表明提出的模型WeFEND相比于多个之前的模型,无论是有监督还是纯粹的弱监督,以及多模态模型,使用基于强化学习的弱监督模型WeFEND超过了多个基线模型。 来源:腾讯微信 | 论文下载

观点 YOLO之父Joseph Redmon:机器视觉研究会对军事领域和个人隐私带来负面风险

Joseph Redmon宣布退出计算机视觉领域。在社交网络上,这位YOLO等知名AI算法的发明者昨天突然声明:出于道德上的考虑,他决定停止一切有关计算机视觉的研究。在有关“不应该发表的重要研究”的长篇讨论中,Redmon现身发表了自己的看法:“我现在已经停止了计算机视觉研究,因为我看到了自己工作造成的影响。我热爱自己的作品,但我已经无法忽视它在军事领域的应用以及给个人隐私带来的风险。”他还表示,一些学者的想法是错误的,他们认为,“我们不必考虑新研究的社会影响,因为这很困难,而且其他人也会帮我们做。” 来源:机器之心

行业与政策 《麻省理工科技评论》起底OpenAI:背离马斯克创立初衷

尽管成立只有短短四年时间,OpenAI已经成为世界领先的AI研究实验室之一,在AI研究领域与谷歌人工智能实验室、DeepMind、微软研究院、艾伦人工智能研究所相媲美。它的目标是要成为第一个创造出通用人工智能(Artificial General Intelligence,简称AGI)的研究机构,让机器具备人类的学习和推理能力。该实验室的目的,是要确保这项技术被安全地开发出来,并造福全世界。但是最近一年来,OpenAI却饱受批评,先是发布最强“通用”NLP 模型GPT-2而不开源;研发战略缺乏变化和多样性,单纯依赖大量的计算资源投入迭代产品;再就是接受微软10亿美元投资,从而转为“有限盈利”企业。《麻省理工科技评论》记者Karen Hao通过在OpenAI办公室的三天观察,以及对离职和在职的员工、合作者、朋友和其他领域专家的近三十次采访,揭开了OpenAI的真实面貌:OpenAI似乎放弃了其先前的开放性和透明性承诺,当众承诺一套,闭门经营的方式却是另外一套。随着时间的推移,它已经让激烈的竞争和越来越大的资金压力侵蚀了其透明、开放和合作的基本理念。 来源:DeepTech深科技

全球AI初创公司去年融资创新纪录:总额逾266亿美元,超2200笔交易

全球人工智能初创公司2019年募集资金达266亿美元,涉及超2200笔交易,这是自人工智能浪潮爆发以来的又一新纪录。在上月的《全球人工智能投资趋势年度报告》中,CB Insights发布了这一消息。与之相对照的是:2018年AI企业通过约1900笔交易募集到221亿美元;2017年通过约1700笔交易募集到168亿美元。2019年,人工智能独角兽企业数量同样出现了增加,包括自动驾驶送货初创公司Nuro和自动化机器学习公司DataRobot等。 来源:DeepTech深科技

竞赛 ACL 2020 | IWSLT挑战赛开启报名,滴滴发起“开放领域中日翻译”任务

本次ACL 2020 IWSLT共提供了六项口语翻译的相关评测任务。其中,滴滴发起了开放领域中日翻译任务,提供了一个大规模的中日双语语料数据集。该数据集既包含现有的公开的中日平行语料(200万对),也包含了从大约1万个网站上爬取的中日近似平行语料(6000万对)。该任务旨在鼓励以下方向的研究:1. 亚洲语言间的机器翻译;2. 如何在大量噪音的数据中提高翻译质量;3. 更加智能的翻译语料预处理以及对数据源信息的利用。 来源:ACL 2020

数据 CLUENER2020:中文细粒度命名实体识别数据集

命名实体识别(Name Entity Recognition)是信息提取的一个子任务,其目的是将文本中的命名实体定位并分类为预定义的类别,如人员、组织、位置等。它是信息抽取、问答系统和句法分析等应用领域的重要基础技术,是结构化信息抽取的重要步骤。目前可公开访问获得的、高质量、细粒度的中文NER数据集较少。本文基于清华大学开源的文本分类数据集THUCNEWS,选出部分数据进行细粒度命名实体标注,并对数据进行清洗,得到一个细粒度的NER数据集。 来源:CLUE | 项目地址 | 论文下载

GameWikiSum:一种新的大型多文档摘要数据集

目前多文档摘要领域的研究进展受到可用数据集数量少的阻碍。由于获取参考摘要是昂贵的,现有的数据集最多只包含数百个样本,导致严重依赖手工制作的特征或需要额外的、手动注释的数据。因此,大型语料库的缺乏阻碍了复杂模型的发展。此外,大多数公开的多文档摘要语料库都在新闻领域,并且在视频游戏领域中没有类似的数据集存在。本文提出的GameWikiSum是一种新的面向领域的多文档摘要数据集,它比常用的数据集大一百倍,而在另一个领域则比news大一百倍。输入文档包括长时间的专业视频游戏评论以及维基百科页面中游戏部分的参考。本文对所提出的数据集进行了分析,结果表明抽象模型和抽取模型都可以在其上进行训练。 来源:EPFL | 论文下载 | | 项目地址

代码 图执行模式下的TensorFlow 2

尽管TensorFlow 2建议以即时执行模式(Eager Execution)作为主要执行模式,图执行模式(Graph Execution)作为TensorFlow 2之前的主要执行模式,依旧对于开发者理解 TensorFlow具有重要意义。尤其是当开发者需要使用tf.function时,对图执行模式的理解更是不可或缺。图执行模式在TensorFlow 1.X和2.X版本中的API不同:1. 在TensorFlow 1.X中,图执行模式主要通过“直接构建计算图+tf.Session”进行操作;2. 在TensorFlow 2中,图执行模式主要通过tf.function进行操作。本文将对图执行模式的两种API进行对比说明,以帮助已熟悉TensorFlow 1.X的用户过渡到TensorFlow 2。 来源:Tensorflow

随机森林入门实战

数据科学家可以通过很多方法来创建分类模型,最受欢迎的方法之一是随机森林。他们可以在随机森林上调整超参数来优化模型的性能。在用模型拟合之前,尝试主成分分析(PCA)也是常见的做法。但是,为什么还要增加这一步呢?难道随机森林的目的不是帮助我们更轻松地理解特征重要性吗?当数据科学家们分析随机森林模型的「特征重要性」时,PCA会使每个「特征」的解释变得更加困难。但是PCA会进行降维操作,这可以减少随机森林要处理的特征数量,因此PCA可能有助于加快随机森林模型的训练速度。请注意,计算成本高是随机森林的最大缺点之一(运行模型可能需要很长时间)。尤其是当使用者使用数百甚至上千个预测特征时,PCA就变得非常重要。因此,如果只想简单地拥有最佳性能的模型,并且可以牺牲解释特征的重要性,那么PCA可能会很有用。本文举了个例子,使用Scikit-learn的「乳腺癌」数据集,并创建3个模型,比较它们的性能:1. 随机森林;2. 具有PCA降维的随机森林;3. 具有PCA降维和超参数调整的随机森林。 来源:机器之心

构建全功能的对象检测模型

如今,机器学习和计算机视觉已成为一种热潮。大家都看过关于自动驾驶汽车和面部识别的新闻,可能会想象建立自己的计算机视觉模型有多酷。然而,进入这个领域并不总是那么容易,尤其是在没有很强的数学背景的情况下。如果读者只想做一些小的实验,像PyTorch和TensorFlow这样的库可能会很枯燥。在本教程中,作者提供了一种简单的方法,任何人都可以使用几行代码构建全功能的对象检测模型。更具体地说,读者将使用Detecto,这是一个在PyTorch之上构建的Python软件包,利用它可以简化该过程并向所有级别的程序员开放。 来源:AI科技大本营

教程 【书籍】Deep Learning for Vision Systems

深度学习视觉系统教读者应用深度学习技术来解决真实世界的计算机视觉问题。DL和CV学者Mohamed Elgendy以其简单易懂的风格向读者介绍了视觉直觉的概念——机器如何学习理解它所看到的东西。然后读者将探索不同应用中的DL算法,深入到解释系统或管道的不同部分。使用Python、OpenCV、Keras、Tensorflow和Amazon的MxNet,读者将发现解决CV问题的高级DL技术。本书聚焦的应用包括图像分类、分割、字幕描述、生成以及人脸识别和分析。读者还将学习最重要的深度学习体系结构,包括人工神经网络(ANNs)、卷积网络(CNN)和递归网络(RNNs),读者可以将这些知识应用到相关的深度学习学科,如自然语言处理和语音用户界面,并实践来自Amazon、谷歌和Facebook的真实的、可扩展的项目读者通过阅读将获得必要的技能,以建立惊人的端到端的CV项目,解决现实世界的问题。 来源:Manning | Tutorial地址

【AAAI Tutorial】Representation Learning for Causal Inference

因果推理在医疗保健、市场营销、医疗保健、政治科学和在线广告等许多领域都有大量的实际应用。治疗效果估计作为因果推理中的一个基本问题,在统计学上已被广泛研究了几十年。然而,传统的处理效果估计方法不能很好地处理大规模、高维的异构数据。近年来,将传统的处理效果估计方法(如匹配估计器)和先进的表示学习方法(如深度神经网络)相结合的一个新兴的研究方向在广阔的人工智能领域引起了越来越多的关注。在本教程中,讲者将介绍用于治疗效果估计的传统和最先进的表示学习算法。关于因果推论,反事实和匹配估计的背景也将被包括。我们还将展示这些方法在不同应用领域的应用前景。 来源:AAAI 2020 | Tutorial地址

【WDSM Tutorial】Learning and Reasoning on Graph for Recommendation

推荐方法构建预测模型来估计用户-项目交互的可能性。之前的模型在很大程度上遵循了一种通用的监督学习范式——将每个交互视为一个单独的数据实例,并基于“信息孤岛”进行预测。但是,这些方法忽略了数据实例之间的关系,这可能导致性能不佳,特别是在稀疏场景中。此外,建立在单独数据实例上的模型很难展示推荐背后的原因,这使得推荐过程难以理解。在本教程中,讲者将从图学习的角度重新讨论推荐问题。用于推荐的公共数据源可以组织成图,例如用户-项目交互(二部图)、社交网络、项目知识图(异构图)等。这种基于图的组织将孤立的数据实例连接起来,为开发高阶连接带来了好处,这些连接为协作过滤、基于内容的过滤、社会影响建模和知识感知推理编码有意义的模式。随着最近图形神经网络(GNNs)的成功,基于图形的模型显示了成为下一代推荐系统技术的潜力。本教程对基于图的推荐学习方法进行了回顾,重点介绍了GNNs的最新发展和先进的推荐知识。通过在教程中介绍这一新兴而有前景的领域,讲者希望观众能够对空间有更深刻的理解和准确的洞察,激发更多的想法和讨论,促进技术的发展。 来源:WSDM 2020 | Tutorial地址

【深度】个性化推荐系统中的非采样学习

近年来,深度学习技术在许多领域展现出非凡的应用效果。然而,现有的将深度学习应用到推荐系统任务的工作主要集中在探索和引入不同的神经网络框架,在模型学习算法方面的研究相对较少。为了优化模型,现有的工作往往使用负采样策略(Negative Sampling)进行训练。虽然负采样方便并且易于实现,但是许多最近的研究表明负采样策略的鲁棒性较差,可能会忽略掉重要的训练样例从而导致模型无法收敛到最优的状态。在近两年,清华大学信息检索课题组(THUIR)首次探索了将非采样策略(Non-Sampling, Whole-data based Learning)应用到基于神经网络的推荐系统中。通过严格的数学推理,研究者设计了一系列高效的非采样学习算法,使得整体数据中学习的时间复杂度在理论数量级上有所降低。基于所设计的高效非采样算法框架,研究者分别设计了不同应用场景下的神经网络推荐模型,并在多个现实数据集上相比于已有state-of-the-art方法在训练时间和模型表现上均取得了非常显著的效果。 来源:清华大学信息检索课题组

新工具 Reformer:一个高效的Transformer

Transformer的强大来源于注意力(Attention)机制,通过这一机制,Transformer将上下文窗口内所有可能的单词对纳入考虑,以理解它们之间的联系。因此,如果文本包含10万个单词,Transformer将需要评估100亿单词对(10万x10万),这显然不切实际。另一个实践问题是如何保存每个模型层的输出。对于使用大型上下文窗口的应用来说,存储多个模型层输出的内存需求会迅速变得过大(从几层模型层的数G级别到数千层模型层的数T级别)。这意味着,实际使用大量层的Transformer模型只能用于生成几小段落的文本或一小段的音乐。Google AI推出了Reformer,一个设计为处理多达100万单词的上下文窗口的 Transformer模型,所有工作在单个加速器上进行且仅使用16 GB内存。此模型将综合运用两种关键技术来解决Transformer在长上下文窗口的注意力和内存分配问题的应用限制。Reformer使用局部敏感哈希(Locality-Sensitive-Hashing, LSH)来降低长序列的处理复杂度和可逆残差层,从而更有效地使用可用内存。 来源:Google AI

Fast Neptune – 机器学习项目的加速器

现如今,不论是学术界还是工业界,生产力是任何一个机器学习项目的重要指标。工程师需要追踪每一个测试、每一次迭代,以及每对参数和结果。Fast Neptune库能够快速记录开展机器学习测试所需的所有信息。也就是说,Fast Neptune是上文所提及的生产力问题的答案。Fast Neptune有几个特性能够帮我们进行快速测试:1. 有关运行代码的机器的元数据,包括系统及系统版本;2. 对测试所在的Notebook的相关要求;3. 在测试过程中用到的参数,也就是你想追踪的变量的值的命名;4. 测试过程中使用者想记录使用的代码。 来源:Github

PandaPy – 更快速的pandas

如果机器学习项目涵盖了很多混合数据类型(int,float,datetime,str等等),编码者真的应该尝试一下PandaPy而不是Pandas。相比于Pandas,用PandaPy处理混合数据类型能节省三分之一的内存。它主要有三点优势:1. 在小数据集上进行简单计算时(例如加法、乘法、取对数),PandaPy比Pandas快25至80倍;2. 在小数据集上进行表操作时(例如聚合、透视、删除、合并、填充缺失数据),PandaPy比Pandas快5-100倍;3. 在大多数小数据使用情况下,PandaPy比Dask,Modin Ray和Pandas都要快。 来源:Github

应用 Habitat:极具世界真实感的模拟系统

“嵌入式人工智能”意味着机器学习系统可以与周围环境智能互动,例如,使用对话上下文响应语音命令,可以让机器人知道它进入了错误的房间。要创建这样的“具体化”系统,我们需要使用真实世界的合理摹本来训练它们,没见过走廊的人工智能不可能知道墙壁和门是什么的。考虑到现实生活中机器人的移动速度太慢,我们不能指望他们在这里学到教训。而Habitat可以提供一套模拟的真实世界环境,具有足够的真实感,让人工智能能够导航现实世界。但不幸的是,与简单的虚拟环境相比,逼真的3D环境需要大量的计算,这减慢了学习速度。由Dhruv Batra教授和佐治亚理工学院博士生Erik Wijmans领导的Facebook的研究人员找到了一种方法来加速这一过程。最终效果是人工智能系统可以在一个3D环境中从一个起点导航到目标,且成功率达99.9%。 来源:新智元

SARA:智能化安卓应用自动测试工具

在软件测试中,录制与回放技术(Record and Replay, R&R)并不是一个新生事物,在传统桌面程序和web程序测试中已经得到了广泛的使用。具体来说,R&R工具可录制应用程序界面中的用户操作和事件,并通过对输入事件进行模拟来模拟用户操作,从而可以将录制好的用户对程序界面的操作序列不断重复模拟,达到自动测试应用程序的目的。现有的录制与回放技术在录制信息完整度、适配不同机型等很多方面还不能很好地满足工程实践的实际需求。为此,微软亚洲研究院最近提出了一种新的录制与回放技术SARA,SARA是一个面向移动应用开发者的智能化测试工具,旨在提高软件开发人员进行测试和维护的效率,适应移动开发快速迭代的特点,达到解放开发者、提高生产力的目的。 来源:微软研究院AI头条

美团送外卖的机器人北京上线

2月18日,美团宣布在北京市顺义、海淀等地启用无人配送车,联合美团买菜顺义站点,为多个距离较远的封闭社区居民配送果蔬食品。疫情下美团买菜订单激增,此次无人配送属于美团“无人配送防疫助力计划”,也是美团无人配送车首度在公开道路进行实际订单配送。客户端的操作流程和普通配送没什么不同:配送范围内的顾客在美团买菜下单后,美团智能配送调度系统将订单分配给无人配送车,无人车在美团买菜站点取货后,将开启自动行驶,以约20公里/小时速度至无接触配送点,与取货人交接打开餐箱取出物品,实现“无接触配送”。 来源:36kr

会议 NeurlPS 2020新变动:截止日提前,AC提前拒稿,作者也要参与审稿

NeurlPS 2020 将在今年12月召开,今年的投稿、审稿、大会等政策是否会有所变动引起人们的关注。新的政策变化是否能够避免投稿过多、审稿不专业等问题?近日,NeurlPS 官方公开了新一届大会的变化,包括:1. 今年摘要提交的截稿日期提前到2020年5月5日,而论文提交的截止日期是2020年5月12日;2. 提前拒稿:领域Chair会有两个星期时间去建议哪些论文会被提前拒绝;3. 作者也是审稿人:此次改变提出,在需要时,论文作者或联合作者都需要同意审稿;4. 更广泛的影响:作者被要求在他们提交的文件中包含新的讨论部分,而讨论部分是关于他们的研究工作可能产生的影响;5. Spotlight视频:社区要求所有作者在提交作品时都上传一段视频,主要是记录该工作的Spotlight展示。 来源:机器之心

经验 团队如何在自动学习项目中一起工作?

当谈到在组织里执行机器学习项目时,数据科学家、项目经理和业务主管需要一起工作来部署最好的模型,从而满足特定的业务目标。这一步的中心目标就是识别出需要在分析中预测的关键业务变量。自动机器学习团队将这些变量看成模型的目标,然后使用和它们相关的指标来确保项目的成功。这篇文章将会向读者展示自动机器学习的用例,此外,本文还介绍了数据科学家、项目经理和业务主管各自如何使用自动机器学习来改进团队合作和学习,并促进数据科学新方案的成功实现。 来源:数据派THU

同样是AI创业,为什么NLP领域明显弱于CV领域

从2015年开始,在AI领域创业的公司如雨后春笋一般林立而起。如果细分的话,可以将它们分为机器学习ML,图像视觉CV,和自然语言处理NLP。当然,理论上来说,CV和NLP也是属于ML范围的。市面上,这几个领域的创业公司都有不少,相对而言,CV领域的公司数目和规模是较大的。作者从事NLP行业,在相关的创业公司待过一段时间,所以对该领域的公司较为关注。本文介绍了CV和NLP领域创业公司的情况,重点回答了一个问题:同样是AI创业,为什么NLP领域明显弱于CV领域。 来源:AINLP

以上是《智源社区AI周刊》第10期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请不吝赐教发至:editor@baai.ac.cn。谢谢大家。

特约编辑:刘布楼 常政 刘沂喆

内容中包含的图片若涉及版权问题,请及时与我们联系删除