2021年3月18日

AI制药公司Insitro完成4亿美元的C轮融资,创AI制药领域单笔融资金额记录 近日,AI 制药公司 Insitro 宣布完成 4 亿美元的 C 轮融资,成为全球 AI 制药领域单笔融资金额最高的公司。本轮融资由 CPP Investments 牵头,其余投资方包括 ARCH Venture Partners、Third Rock Ventures、淡马锡、软银等,融资金额将用于扩展平台能力及管线。

Insitro 的出生可谓是含着 “金汤匙”,自 2018 年成立,就获得了 1 亿美元的 A 轮融资,且背后的投资机构都是世界一流的。其成长过程一路吸金,现在,Insitro 已完成 3 轮融资,累计 7.43 亿美元。

Insitro 的创始人 Daphne Koller 曾经这样形容 Insitro 的吸金能力,“人工智能加生物学背景对于投资者而言就像是‘天造地设的婚姻’。”Daphne Koller是美籍以色列裔,17 岁大学毕业,18 岁获得硕士学位,26 岁成为斯坦福大学教授,被称为机器学习界的 “大姐大”。在此后十年时间里,她都在进行人工智能和基因组学相结合的研究,2012 年,她和同系华人教授、机器学习界另一位大牛吴恩达共同创立了在线教育公司 Coursera,目前已经成为全球前三大慕课平台之一,估值数十亿,有消息称今年或将启动 IPO。

Nature封面:AI与人类斗嘴谁更强?IBM团队发布“AI辩论家”最新研究进展 自 AI 概念诞生以来,如何让计算机对自然语言的理解和处理能力接近人类,一直是科学家们的终极愿景。经过数十年的发展,目前业界已经开发出能够执行语言理解任务的 AI 模型,对于常规任务和特定语言现象,例如预测某个句子的情感,当前最先进的 AI 系统通常能给出一个不错的结果,再搭配上语音相关技术,进行简单的人机对话交互也不再稀奇。

然而,在更复杂的任务中,例如自动翻译、自动摘要和多轮随机对话考验下,AI 系统仍然不能很好地满足人类需要,而比这些单一任务更具综合性的考验是:辩论。

来自 IBM 的 AI 研究团队报告了一项最新的研究进展:Project Debater(意为 “辩手项目”),经评估,该系统已可以与人类专家选手进行体面且有意义的现场辩论,它能通过储存了 4 亿篇新闻报道和维基百科页面的知识库,自行组织开场白和反驳论点。

相关论文以 “An autonomous debating system”(一个自主辩论系统)为题,于 3 月 18 日以封面文章的形式发表在顶级科学期刊《自然》(Nature)上。

论文地址:https://www.nature.com/articles/s41586-021-03215-w

据了解,Project Debater 最早于 2011 年被提出,堪称 “十年磨一剑”,研究人员的目标是让 AI 与人类进行现场辩论时应对自如。另外,他们还强调了 AI 与人类进行辩论和在游戏竞赛中挑战人类之间有着根本区别,这有助于让 AI 走出 “舒适区”,因为在辩论领域,人类仍然占优势,AI 需要新的范式才能取得实质性进展。

整体来说,Project Debater 由四个主要模块组成:论点挖掘、论据知识库(AKB)、论点反驳和论证构建。

图|Project Debater 辩论系统架构(来源:Nature)

对于辩论效果,研究人员选择了 78 个动议来评估当一个新的辩题出现时,各种 AI 系统以及人类专家的表现,每一次演讲都由 15 位评审员进行了回顾评分,以判断此演讲是否能作为支持辩题立场的良好开场白,其中 5 分表示高度一致。Project Debate 的评估结果明显优于其他系统,并且非常接近人类专家的得分。

图|Project Debater 系统对比评估(来源:Nature)

智源学者团队发表NMT最新技术综述:如何解决神经机器翻译三大关键性问题? 近年来随着计算机技术的不断提高、AI 系统的日益精进,机器翻译一直为人们所质疑的质量问题,也有了非常显著的改善。其中,神经机器翻译(Neural Machine Translation)技术所作的贡献与创新也是一大研究热点。

近日,清华大学计算机系与智能产业研究院的机器翻译研究团队发表了一篇关于神经机器翻译技术的最新综述论文,文章对神经机器翻译方法进行回顾,并阐释了 NMT 系统的三个关键性问题:

  • 建模(modeling),即如何设计神经网络来对条件分布建模?
  • 推理(inference),即给定源输入,如何从 NMT 模型生成翻译句子?
  • 学习(learning),即如何有效地从数据中学习 NMT 所需的参数?

文章重点介绍了与体系结构、解码和数据增强有关的方法,总结了对研究人员有用的资源和工具。最后,还讨论了该领域未来可能的研究方向。智源学者、清华大学计算机系教授、欧洲科学院外籍院士孙茂松与清华智能产业研究院副院长、国家杰青刘洋是该论文的两位教师作者。

该论文以 “Neural machine translation: A review of methods, resources, and tools” 为题发表在专注 AI 开放获取的新期刊 AI OPEN 上。

Facebook AI提出首个完全基于Transformer的视频理解架构 近日,Facebook AI 提出一个新型视频理解架构:完全基于Transformer,无需卷积,训练速度快、计算成本低。TimeSformer 是首个完全基于 Transformer 的视频架构。近年来,Transformer 已成为自然语言处理(NLP)领域中许多应用的主导方法,包括机器翻译、通用语言理解等。

TimeSformer 在一些具有挑战性的动作识别基准(包括 Kinetics-400 动作识别数据集)上实现了最佳的性能。此外,与 3D 卷积神经网络(CNN)相比,TimeSformer 的训练速度大约是其 4 倍,而推断所需的计算量不足其十分之一。

在 Kinetics-400(左) 和 Kinetics-600(右) 两个动作识别基准上,TimeSformer 与当前具有 SOTA 性能的 3D 卷积神经网络的视频分类准确率比较结果。TimeSformer 在这两个数据集上都达到了最优的准确率。

内容中包含的图片若涉及版权问题,请及时与我们联系删除