论文地址:https://www.ml.cmu.edu/research/phd-dissertation-pdfs/mktoneva_phd_mld_2021.pdf

 

人工智能(AI)的几个主要创新(如卷积神经网络,经验回放)是基于关于大脑的发现。然而,基础的大脑研究结果花了很多年才首次得到巩固,并花了更多时间转移到人工智能上。此外,这些发现是在非人类物种中使用侵入性方法得出的。对于人类特有的大脑功能,如理解复杂的语言,没有合适的动物可以作为模型生物,因此,机械性的理解离我们更远。

在这篇论文中,我们提出了一个数据驱动的框架,通过建立人们理解语言的大脑记录和自然语言处理(NLP)计算机系统之间的直接联系来规避这些限制。我们提出的证据表明,这种联系对神经语言学和NLP都有好处。具体来说,这个框架可以利用最近在NLP的神经网络方面取得的成功,来实现对大脑中依赖上下文和任务的科学发现,并且我们提出了第一个证据,表明对人们阅读的大脑活动测量可以用来提高一个流行的深度神经网络语言模型的泛化性能。这些调查还有助于认知建模方面的进展,这些进展可能在语言研究之外还有用。总之,这篇论文涉及多学科的调查,对认知神经科学、神经语言学和自然语言处理做出了贡献。