人工智能、数据科学、机器学习研究在 2020 有哪些重大进展?2021 年趋势如何?

KDnuggets 9位专家分别进行了预测,内容要点如下:

1,Dan Becker(@dansbecker):Decision AI 的创始人,此前曾创立 Kaggle Learn。 2020年:Transformer、生成模型、强化学习 2021年:概率编程和贝叶斯模型、GPT-4、用于结构化数据的 GPU、AutoML 变得乏味、强化学习更实用。

2, Pedro Domingos(@pmddomingos):华盛顿大学计算机科学与工程系教授。 2020 年的主要发展是以图神经网络和神经符号人工智能作为主要研究方向的出现。到 2021 年,我们将会看到后者包含前者。

3,Ajit Jaokar(@ajitjaokar):牛津大学《人工智能:云端和边缘的实现》(Artificial Intelligence: Cloud and Edge implementations)课程的课程总监、企业家。 2020年,通过 MLOps 的部署,人工智能逐渐成熟。云计算平台(如:AWS、Azure、GCP)也在人工智能的各个领域推动创新,包括在边缘设备上使用人工智能。自然语言处理 (GPT-3 和其他模型) 是人工智能领域的主要趋势。

到 2021 年,传统的机器学习模型可能会成为一种商品。

4, Ines Montani(@_inesmontani):Explosion 的联合创始人,从事人工智能和自然语言处理技术的软件开发者。 2020年,最重要的进展是巩固而非革命;2021年,我们将会看到越来越多的人开始关注机器学习项目的整个生命周期:从原型到生产,从迭代开发到持续维护和监控。

5,Brandon Rohrer :iRobot 的首席数据科学家,也是端到端机器学习的讲师 卷积和递归神经网络已经开始显示,它们并不能像我们所希望的那样很好地解决每一个问题。因为疫情,2021 年,在线教学和协作的质量和质量将翻一番。

6,Dipanjan Sarkar:Applied Materials 数据科学负责人、Google 机器学习领域的开发专家、出版作家和顾问。 2020 年理所当然地成为了自然语言处理的一年,而 Transformer 为轻松解决答题、搜索和翻译等棘手问题铺平了道路。对于 2021 年,我相信我们将看到强大而高效的模型的出现,特别是对于视觉和自然语言处理方面。在 DistilBERT、Reformer 和 Performer 等高效 Transformer 模型中,我们已经看到了进展。

7,Rosaria Silipo(@dmr_rosaria):KNIME 首席数据科学家。 2020 年,由于存在着对未来的不确定性因素,人们的注意力已经集中到为数据科学解决方案做好准备并取得成果:安全部署、应用监控和安全解决方案。到 2021 年,这种趋势可能会持续下去。2021 年的一些重点还将放在数据分析过程的解释上,特别是在生命科学中,通过机器学习可解释性(machine learning interpretability,MLI)或可解释人工智能(eXplainable AI,XAI)技术来实现黑箱模型。

8,RachaelTatman(@rctatman):Rasa 的开发倡导者,从事自然语言处理方面的工作。 我知道很多人可能会认为 GPT-3 是今年自然语言处理的一大新进展,但。对绝大多数自然语言处理应用来说,它是完全不切实际的。我认为,从研究的角度来看,找到用有限的数据和计算资源来获得真正优秀的模型性能的方法,既是一个巨大的挑战,但也是真正有意义的一件事。

9, Daniel Tunkelang:独立顾问,专门从事搜索、发现和机器学习 / 人工智能。 因为疫情影响,远程工作和教育的主流接受依然存在(这看起来是可能的),那么我们就可以预见到两种相互竞争的趋势。一方面,人工智能的专业知识将会真正全球化,而不会成为一个特定的中心。另一方面,科技巨头则会牺牲较小的地区公司为代价,在全球范围内招募人才。

内容中包含的图片若涉及版权问题,请及时与我们联系删除