导读 为了帮助中国人工智能科研、从业者更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理了第9期《智源社区AI周刊》,从学术(论文和新思想、学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人事变动和获奖情况),数据(数据集),工具(新工具和应用推荐),求职(职场研究报告等)等诸多角度,鸟瞰过去一周人工智能领域值得关注的动态。

过去一周(2020/02/10~2020/02/16),值得关注的内容有以下3方面:

  1. 在AAAI 2020的演讲上,Geoffrey Hinton发表观点:“忘了前面所有版本的Capsule,它们都是有误的,2019年这个版本是对的。”Hinton所说的2019版即Stacked Capsule Autoencoders(SCAE),它采用无监督学习方式,并使用矩阵来表达整体与组成部分之间的关系。而之前判别式Capsule的表征方式并不一样,它采用矩阵表示组成部分与整体之间的关系。(详情参见本周报「观点」栏目)
  2. 美国总统特朗普近期提议,削减除了人工智能和量子技术等关键领域外的联邦研究经费,预算全部集中在AI和量子方面,并提议将美国国家科学基金会,美国国立卫生研究院,能源部,DARPA和美国国防部联合AI中心等部门的拨款提高一倍。(详情参见本周报「行业与政策」栏目)
  3. Facebook AI发布3D深度学习开源工具包PyTorch3D。PyTorch3D是一个基于PyTorch的高度模块化、且经过优化的库。旨在通过PyTorch简化3D深度学习。PyTorch3D带有常用的3D运算符和用于3D数据的损失函数,以及模块化可微渲染API。作为版本的一部分,Facebook同时还开源了Mesh R-CNN,一个能够对照片中的2D物体进行3D建模的神经网络模型。(详情参见本周报「新工具」栏目))

下面是各个要点的详情介绍。

论文推荐 用于文本推理的神经模块网络 Neural Module Networks for Reasoning

回答需要针对文本进行推理的多个步骤的构想问题具有挑战性,尤其是当它们涉及离散的象征性操作时。神经模块网络(NMN)学习解析诸如由可学习模块组成的可执行程序之类的问题,它们在合成视觉质量检查域中表现良好。但是,作者发现在开放域文本中针对非合成问题学习这些模型具有挑战性,在这种模型中,模型需要处理自然语言的多样性并进行更广泛的推理。本文通过以下方式扩展NMN:(1)引入对一段文本进行推理的模块,以概率和可微分的方式对数字和日期执行符号推理(例如算术,排序,计数);(2)提出无监督的损失,以帮助提取与文本中的事件相关的参数。此外,本文显示出有限的启发式获得的问题程序和中间模块输出监督为准确学习提供了足够的归纳偏差。本文提出的模型大大优于DROP数据集的子集上的最新模型,本文构成了我们模块所涵盖的各种推理挑战。 来源:伯克利 | 论文下载

REALM:检索增强语言模型预训练 MetaSelector: Meta-Learning for Recommendation with User-Level Adaptive Model Selection

语言模型的预训练已经被证明能够获取大量的世界知识,这对于NLP任务(如回答问题)是至关重要的。然而,这些知识隐式地存储在神经网络的参数中,需要更大的网络来覆盖更多的事实。为了以更模块化和可解释性的方式捕获知识,本文作者在语言模型前训练中增加了一个潜在的知识检索器,它允许模型从一个大型语料库(如Wikipedia)中检索和处理文档,这些语料库在前训练、微调和推理期间使用。本文第一次展示了如何以一种无监督的方式预先训练这种知识检索器,使用掩码语言建模作为学习信号,并通过一个考虑数百万文档的检索步骤进行反向传播。通过对具有挑战性的开放领域问题回答(Open-QA)任务进行微调,本文证明了增强语言模型预训练(REALM)的有效性。本文比较了三种流行的开放QA基准上的最先进的显式和隐式知识存储模型,发现本文的性能显著优于所有以前的方法(4-16%的绝对准确性),同时还提供了定性的好处,如可解释性和模块化。 来源:Google AI | 论文下载

元学习推荐系统MetaSelector MetaSelector: Meta-Learning for Recommendation with User-Level Adaptive Model Selection

推荐系统经常面对包含高度个性化的用户历史数据的异构数据集,单个模型无法为每个用户提供最佳的推荐。本文作者在公共和私有数据集上观察到这种普遍存在的现象,并解决了为每个用户优化推荐质量的模型选择问题。本文提出了一个元学习框架,以促进用户级自适应模型选择推荐系统。在该框架中,用来自所有用户的数据对推荐器集合进行训练,在此基础上通过元学习对模型选择器进行训练,为具有特定用户历史数据的每个用户选择最佳模型。本文在两个公共数据集和一个真实的生产数据集上进行了大量的实验,证明提出的框架在AUC和LogLoss方面实现了对单个模型基线和样本级模型选择器的优化。这些改进对于部署在网上推荐系统可能会带来巨大的利润收益。 来源:WWW 2020 | 论文下载

LaserTagger:快速文本生成新方法 Encode, Tag, Realize: High-Precision Text Editing

序列到序列(seq2seq)模型给机器翻译领域带来了巨大变革,并成为多种文本生成任务的首选工具,如文本摘要、句子融合和语法纠错。模型架构改进(如Transformer)以及通过无监督训练方法利用大型无标注文本数据库的能力,使得近年来神经网络方法效果获得了大幅提升。但是,使用seq2seq模型解决文本生成任务伴随着一些重大缺陷,如生成的输出不受输入文本支持、需要大量训练数据才能实现优秀性能。此外,由于seq2seq模型通常逐词生成输出,因此其推断速度较慢。Google Research近期提出一种新型文本生成方法LaserTagger,旨在解决上述三种缺陷。LaserTagger没有采用从头生成输出文本的方式,而是使用预测的编辑操作标记单词,然后在单独的realization步骤中将这些操作应用于输入单词,进而得到输出。这种方式更不容易出现误差,更好地解决文本生成任务。 来源:Google Research | 代码地址 | 论文下载

Graph-FCN:图卷积网络解决语义分割 Graph-FCN for image semantic segmentation

语义分割是计算机视觉领域中的重要课题,其复杂程度超过分类和检测任务。这项密集预测任务需要预测每个像素的类别,也就是说它需要从高级语义信息和局部位置信息中学习目标轮廓、目标位置和目标类别。卷积神经网络,为该领域带来了一系列巨大进展。提取高级特征的强大泛化能力使得图像分类和检测任务取得了非常好的性能,但伴随泛化而来的局部位置信息损失则为密集预测任务增加了难度。为了避免上述问题本文作者提出一个执行图像语义分割任务的图模型Graph-FCN。首先,通过卷积网络将图像网格数据扩展至图结构数据,这样就把语义分割问题转换成了图节点分类问题;然后,使用图卷积网络解决图节点分类问题。研究者称,这是首次将图卷积网络用于图像语义分割的尝试.该方法在VOC数据集上获得了有竞争力的mIOU性能,相比原始FCN模型有1.34%的性能提升。 来源:AAAI 2020 | 论文下载

观点 Hinton:2019版的CapsuleNet才是正确的

在AAAI 2020的演讲上,Geoffrey Hinton说:“忘了前面所有版本的Capsule,它们都是有误的,2019 年这个版本是对的。”Hinton所说的2019版即Stacked Capsule Autoencoders(SCAE),它采用无监督学习方式,并使用矩阵来表达整体与组成部分之间的关系。而之前判别式Capsule的表征方式并不一样,它采用矩阵表示组成部分与整体之间的关系。对于SCAE来说,它主要包含两个阶段,第一阶段Part Capsule Autoencoder(PCAE)会将图像分割为组成部分,并推断出它们的姿态(Pose)。第二阶段Object Capsule Autoencoder (OCAE)会尝试组织挖掘的组成部分、前面推断出来的姿态,并构建更小的一组目标。这种目标能通过不同组成部分自己的混合预测来构建对应的姿态。 来源:AAAI 2020

行业与政策 特朗普拟削减美国基础科研预算,加大AI和量子领域投资

美国总统特朗普近期提议,削减除了人工智能和量子技术等关键领域外的联邦研究经费,预算全部集中在AI和量子方面,并提议将美国国家科学基金会、美国国立卫生研究院、能源部、DARPA和美国国防部联合AI中心等部门的拨款提高一倍。华盛顿特区政策智囊机构,新美国安全中心高级研究员Martijn Rasser表示,很高兴看到为AI和量子增长提议的资金,因为两者都是关键的新兴领域。他最近与其他研究人员合著了一份报告,呼吁政府为人工智能投入更多资金,并指出该技术可以像软件一样改变行业。但他也担心,削减基础研究的整体资金将损害美国整个科研领域的进步和增长。因为创新可能来自许多领域,而非某一两个关键领域。 来源:Wired | 新智元

Carbon Relay获6800万美元B轮融资

Carbon Relay是一家创业公司,主要使用AI技术帮助大型企业克服运营挑战。企业运营中,Kubernetes和容器化具有巨大的潜力,但是它们很复杂。因此,很难对它们进行管理以实现始终如一的高性能和可靠性。但这正是网络团队的期望。而第一代管理工具过于不精确且不够自动化,并且产生了太多警报。该公司的Red Sky Ops解决方案提供了一种智能和自动化的方式来克服Kubernetes和容器的复杂性。它可以提高应用程序性能,降低成本并停止警报泛滥。该公司成立于2015年,总部位于马萨诸塞州波士顿。 来源:Crunchbase

会议 百度主办ACL2020首届同传研讨会

近日,国际顶会ACL官网披露大会议程,由百度领衔,联合Google、Facebook、UPenn、清华大学等海内外顶尖企业及高校专家们共同申办的首届同声传译研讨会(The 1st Workshop on Automatic Simultaneous Translation),将于2020年7月9日至10日,在自然语言处理领域国际顶尖学术会议ACL 2020中召开。近年来,随着人工智能相关技术的进步,结合了机器翻译、语音识别和语音合成等技术的机器同传成为领域前沿。其中,既有技术突破如集成预测和可控时延的同传模型、语义信息单元驱动的上下文同传模型等,也有广泛的产品应用,如字幕投屏、语音到语音的同传小程序等。然而,作为一个融合多种技术的前沿课题,机器同传仍然面临国际公认的诸多挑战,如语音识别错误传播、翻译模型鲁棒性差、数据稀缺、评价体系不健全等。百度联合国内外顶尖企业和高校共同举办的国际首届同声传译研讨会正是为了推动同传技术的发展,汇集包括机器翻译、语音处理和人类口译领域的研究人员和从业人员,共同讨论同声传译的最新进展、面临的挑战以及未来发展。 来源:机器之心

数据 MSRA低资源文本风格迁移数据集

随着各项技术的提出,当前风格迁移算法已经可以较好地对文本序列进行“情感极性”和“文本规范性”的迁移。然而,在很多的现实应用中,我们需要同时进行Seq2Seq和风格迁移两个任务,为了研究当前算法对此类问题的进展,MSRA提出了两个数据集—— Machine Translation Formality Corpus(MTFC)和Twitter Conversation Formality Corpus(TCFC),分别研究机器翻译风格迁移和对话风格迁移。其中,MTFC的任务定义为,给定一句中文口语,翻译的结果应该为正规的英文书面语。为了完成这个任务,MTFC包含从Opensubtitle下载并清洗的约1400万中英互译口语语料,以及GYAFC数据集中所包含的5万英文非正规文本到正规文本的句对。TCFC的任务定义为,给定一个推特(Twitter)风格的对话上文,给出正规而礼貌的对话回复。TCFC提供170万的推特对话语料作为训练数据。 来源:MSRA | 论文下载

3RScan:大规模的真实世界数据集

3RScan是一个大规模的真实世界数据集,具有478个自然变化的室内环境的1482个3D快照,旨在对新兴任务(例如长期SLAM,场景变化检测和对象实例重新定位)进行基准测试。每个序列都带有对齐的语义注释3D数据和相应的2D帧,其中包含以下信息:(1)校准的RGB-D序列。(2)带纹理的3D网格。(3)6DoF相机姿态和相机校准参数K。(4)与全局变换T来自同一场景的扫描之间的全局对齐。5.密集实例级语义分段,其中每个实例都有一个固定ID,该ID在同一环境的不同序列之间保持一致。6.每个更改的对象的地面真实变换及其对称性。 来源:Technical University of Munich | 项目地址

代码 TensorFlow Lattice:灵活、可控、可解释性机器学习

大多数机器学习从业人员都遇到了这种的情况,即训练数据看起来与评估模型所依据的运行时查询完全不同。结果,仅依靠训练数据集的ML解决方案(例如DNN或森林)通常在训练和验证数据集未涵盖的部分输入空间中表现不好。在可能违反公平约束的情况下,此行为尤其成问题。虽然常见形式的正则化可以导致更合理的外推,但标准正则化器无法保证整个输入空间(尤其是高维输入)的合理模型行为。而切换到具有更多可控和可预测行为的更简单模型可能会给模型准确性带来沉重的代价。TF Lattice使得可以继续使用灵活的模型,但是提供了几种选择,可以通过语义上有意义的常识或策略驱动的形状约束将领域知识注入学习过程。例如,用户可以指定模型输出应相对于给定输入单调增加。这些额外的领域知识不仅可以帮助模型学习训练数据集,还可以使其以用户控制和期望的方式运行。 来源:Tensorflow Blog

自然语言攻击文本分类和蕴含的强大基准TextFooler

机器学习算法通常容易受到对抗性示例的攻击,这些对抗性示例与原始示例相比没有明显的变化,但会欺骗最新模型。通过制作的对抗性示例,可以评估甚至提高这些模型的鲁棒性。该项目中,开发者制作了TextFooler,一个简单但强大的基准,可以生成自然语言的对抗文本。通过将其应用于两个基本的自然语言任务(文本分类和文本蕴涵),该基准成功地攻击了三个目标模型,包括强大的预训练模型BERT和广泛使用的卷积神经网络和递归神经网络开发者通过三种方式展示了该框架的优势:(1)有效——在成功率和摄动率方面胜过最新的攻击;(2)实用——程序保留了语义内容(3)高效——生成对抗性文本,其计算复杂度与文本长度成线性关系。 来源:MIT | 论文下载 | 项目链接

基于LSTM及其变种网络的时序数据建模实战

长短期记忆网络或简称LSTM可以用于时间序列预测。有很多类型的LSTM模型可用于每种特定类型的时间序列预测问题。通过阅读本文,读者将发现如何为一系列标准时间序列预测问题开发一套LSTM模型。具体来说,读者可以学到(1)如何开发用于单变量时间序列预测的LSTM模型;(2)如何为多元时间序列预测开发LSTM模型;(3)如何开发用于多步时间序列预测的LSTM模型。 来源:Python中文社区

教程 【课程】深度学习实践

旷视研究院最近在B站上线了一套其联合北大数学学院机器学习实验室给学生开设的的本科课程视频《深度学习实践》,该课程无须付费,且附带全部PPT供下载,感兴趣的朋友欢迎点击下方文章查看具体信息。 来源:旷视X北京大学 | 课程链接 | PPT下载链接(提取码:p63j)

【书籍】Pro 机器学习算法Python实现

这本书在对算法工作原理的高层次理解和对优化模型的具体细节的了解之间找到一个平衡点。读者将首先在Excel中开发算法,以便在用Python/R实现模型之前,实际了解可以在模型中调优的所有细节。读者不仅可以学习算法,还可学习特征工程的概念来最大化模型的性能。读者将看到理论与案例研究,如情绪分类、欺诈检测、推荐系统、和图像识别,以便读者学习工业中使用的绝大多数机器学习算法。此外读者还将接触到在主要云服务提供商上运行的机器学习模型。 来源:专知 | PDF下载

【AAAI Tutorial】可解释人工智能XAI

人工智能的未来在于让人们能够与机器合作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释的人工智能)旨在通过结合象征性人工智能和传统机器学习来解决这些挑战。多年来,所有不同的AI社区都在研究这个主题,它们有不同的定义、评估指标、动机和结果。AAAI2020举办了关于可解释人工智能的Tutorial,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南。 来源:AAAI2020 | Tutorial地址

【WSDM Tutorial】Deep Bayesian Data Mining

台湾交通大学的Jen-Tzung Chien教授在WSDM 2020的教程Deep Bayesian Data Mining(《深度贝叶斯数据挖掘》)介绍了面向自然语言的深度贝叶斯挖掘和学习,包括了它的基础知识和进展,以及它无处不在的应用,这些应用包括语音识别、文档摘要、文本分类、文本分割、信息抽取、图像描述生成、句子生成、对话控制、情感分类、推荐系统、自动问答和机器翻译等。主要聚焦于一系列先进的贝叶斯模型和深度模型,包括层次狄利克雷过程、中国餐馆过程、递归神经网络、长短期记忆网络、序列到序列模型、变分自编码器、生成式对抗网络、策略神经网络等。 来源:WSDM 2020 | Tutorial地址

【深度】2020图机器学习GNN的四大研究趋势

以图神经网络为代表的图机器学习在近两年成为研究热点之一。近日,图机器学习学者Sergei Ivanov通过分析了提交给ICLR 2020的150篇论文,为我们解读了他总结出来的 2020 年图机器学习的四大热门趋势,包括图神经网络的理论理解、应用普及、知识图谱将会变得更为流行;新的图嵌入框架将出现。总的来说,2020年图机器学习领域将会涌现许多有趣的成果。从图的深度学习的启发式应用,到更合理的方法和关于图波形范围的基本问题。但目前图机器学习只不过是触及了我们可以实现的图论和机器学习的交叉点上所能取得的成果的皮毛,我们应该继续关注即将到来的结果。 来源:Towards data science

新工具 PyTorch3D:Facebook AI 3D深度学习开源工具包

PyTorch3D是一个基于PyTorch的高度模块化、且经过优化的库。旨在通过PyTorch简化3D深度学习。PyTorch3D带有常用的3D运算符和用于3D数据的损失函数,以及模块化可微渲染API。作为版本的一部分,Facebook同时还开源了Mesh R-CNN,一个能够对照片中的2D物体进行3D建模的神经网络模型。其主要的新增特性有三点:(1)新数据结构Meshes;(2)处理三角网格更高效;3.可微分网格渲染器(renderer)。Facebook 表示,推出PyTorch3D是为了推动「深度学习+3D」的研究。凭借可微渲染功能,无需耗时的手动3D注释,就可能构建高质量的3D预测系统。研究人员也能够更为轻松地渲染出AR、VR中的3D对象和场景。在机器人、自动驾驶感知研究当中,PyTorch3D无疑将成为新的助力。 来源:Facebook AI | Github地址 | 博文链接

ML-fairness-gym:Google探索机器学习系统长期影响工具

机器学习系统越来越多地开始辅助高影响力的决策,例如确定刑事判决、儿童福利评估、接受医疗救助等。此类系统是否公平至关重要,这需要了解模型的短期和长期影响。评估机器学习系统公平性的常用方法包括针对系统的各种输入计算静态数据集的错误度量差异。实际上,许多现有的ML公平性工具包(例如AIF360,fairlearn)都提供了用于对现有数据集执行基于错误度量分析的工具。虽然这种分析可能适用于简单系统,但在某些情况下(例如具有主动数据收集功能或重要反馈回路的系统),算法运行的上下文对评价会造成影响。在这些情况下,与基于错误度量的技术相比,理想情况下分析算法决策的公平性时应考虑环境和时间上下文。为了促进算法开发,Google AI发布了ML-fairness-gym,这是用于构建简单模拟的一组组件,这些模拟探索了在社会环境中部署基于机器学习的决策系统的潜在长期影响。 来源:Google AI | Github链接 | 博文链接

SQLFlow:桥接SQL引擎与机器学习引擎

近几年来,深度学习等机器学习技术对学术界和工业界产生了巨大的影响。虽然许多机器学习解决方案在算法上超越了传统的算法,但是由于一些处理流程并不能与现有的数据处理标准对接等原因,使得机器学习算法的落地遇到许多困难。工业界中,SQL已经成为了大部分数据业务的一种标准,甚至一些大厂中某些部门的数据工程师或算法工程师在日常工作中只能够通过SQL进行编程。因此,将SQL与现有的机器学习引擎对接,可以在一定程度上将机器学习引擎融入现有的标准化平台中。而SQLFlow正是一种将MySQL、HIVE等标准化SQL引擎与TensorFlow等机器学习引擎桥接的方案。 来源:阿里巴巴 | 论文下载 | Github链接

应用 Assembler:谷歌鉴假新工具,帮助媒体识别AI造假

AI造假技术一代更比一代强,假图片、假信息、假新闻甚至能影响真实社会事件的走向。且不说对于普通人,对于新闻工作者而言,判断一张图片是否真实,也并非易事。而这,就有可能造成虚假信息的进一步传播。于是,谷歌母公司Alphabet旗下的Jigsaw联手Google Research、马里兰大学、伯克利等多家研究机构,开发了一个名为Assembler的实验平台,旨在帮助记者们通过简单的操作,快速识别Deepfake。 来源:VentureBeat | 量子位

因果关系挖掘算法增强医疗AI

了解世界的运作方式意味着了解因果关系,这对于医学来说是一个大问题,在医学中,许多变量可以相互关联。诊断疾病取决于了解哪种情况会导致哪些症状;治疗疾病取决于了解不同药物或生活方式改变的影响。解决此类棘手问题的方法通常是严格的观察研究或随机对照试验。而大量的医学数据分布在不同的数据集上,这使许多问题仍未得到解答。英国数字医疗服务提供商Babylon Health的研究人员Anish Dhir和CiaránLee提出了一种用于发现不同数据集之间因果关系的技术。这可以挖掘大量未开发医学数据的原因和结果,并可能发现新的因果关系。 来源:MIT Technology

AI分离歌曲的人声、伴奏和乐器声

将歌曲中的人声和乐器声分离一直是一件令人头疼的事情,传统的音乐制作软件使用门槛较高,处理起来不光费时而且效果不一定好。DanGo.ai近期利用AI技术实现分离音频轨道。在音乐分离这一领域,实际上已经有一些不需要付费的AI工具。比如,由法国音乐流媒体服务公司Deezer为研究目的而开发的Spleeter开源工具,只需要提供一个音频文件,然后Spleeter就会将它分成两个、四个或五个独 立的音轨,非常有用。DanGo.ai就是基于Spleeter开源工具做的。它利用AI技术并通过上千首歌曲数据的训练,用户只需要上传歌曲,等待1分钟,就可以提取歌曲中的伴奏、人声、钢琴、贝斯、鼓点等多音轨压缩文件,效果要好于Au或者GoldWave之类的传统音频处理软件。 来源:AI科技大本营

竞赛 智源杯天文数据算法挑战赛

由北京智源人工智能研究院主办,国家天文台、数据评测平台biendata联合举办的天体分类数据竞赛于2020年1月开赛。本次比赛旨在鼓励大众参与到天文学的探索当中,利用最新的人工智能算法分析望远镜收集到的真实科学数据。在本次大赛中,中国科学院国家天文台提供了LAMOST DR4数据集中近100万个天体的光谱数据,由国家天文科学数据中心基于科学发布版本制作成机器学习数据集。选手们将以LAMOST巡天光谱分类为题,利用高效、高准确率的自动化算法,将未知天体分成恒星(star)、星系(galaxy)和类星体(QSO)三类,以期用最新的人工智能技术来解决天文研究中的实际问题。

来源:北京智源人工智能研究院

经验 炼丹感悟:On the Generalization of RL

当今RL的问题很多,诸如收敛看运气效果看天命之类的,之前有很多大佬也有吐槽过。根据本文作者经验来讲,目前大部分RL paper使用的主要benchmark,比如MuJoCo或者 Atari,实际上都是偏弱的(更不用说前两年MARL用的multiagent-particle-envs)。在偏弱的实验环境里,模型训练出来在那边跑一跑,看起来结果尚可,实际很多模型的本质问题暴露得不明显,暴露得不明显就不会引起 community 的广泛关注,相关的研究也就会比较少,难成体系。本文将详细谈谈RL上的泛化效果问题。 来源:paperweekly

趣闻 波士顿动力机器狗入职石油公司

波士顿动力旗下机器狗Spot,已经成功入职一家新公司,并拥有自己的员工编号。这是其第一次以“员工编制”进入一家公司,而雇佣它的是挪威石油公司Aker。机器狗今年将会走上Aker的石油和天然气生产船,上岗巡逻。Aker在一场活动中表示,项目当前正处于测试阶段,主要观察机器狗检查故障、检测碳氢化合物泄漏、收集数据和生成报告的能力。在其对外公开的宣传视频中,机器狗在这些方面似乎已经驾轻就熟。 来源:量子位

以上是《智源社区AI周刊》第9期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请不吝赐教发至:editor@baai.ac.cn。谢谢大家。

特约编辑:刘布楼 常政 刘沂喆

内容中包含的图片若涉及版权问题,请及时与我们联系删除