汇聚每周AI观点、研究和各类资源,不错过真知灼见和重要资讯!欢迎点击这里,关注并订阅智源社区AI周刊。
编辑精选
近日,斯坦福大学计算机系的 Ranjay Krishna、Donsuk Lee、李飞飞、Michael Bernstein 等人针对此问题提出了一种新的研究框架:社会化人工智能(socially situated AI),即智能体通过在现实社会环境中与人的持续互动来学习。论文“Socially situated artificial intelligence enables learning from human interaction”已发表在美国科学院院刊(PNAS)上。在这项工作中,研究团队将社会化 AI 形式化为一个强化学习的过程,即智能体通过从社会互动中获取的奖励来学习识别有信息量的问题。在一个视觉问答任务的测试中,与其他智能体相比,社会化智能体识别新视觉信息的性能提高了 112%。
美国东北大学体验式人工智能研究所的高级研究科学家 Walid S. Saba 从组合语义的角度出发,提出一个观点:深度学习无法构造一个可逆的组合语义,所以它无法实现可解释AI。
神经网络中的表示并不是真正与任何可解释的事物相对应的“符号”——而是分布的、相关的和连续的数值,它们本身并不意味着任何可以在概念上解释的东西。
用更简单的术语来说,神经网络中的子符号表示本身并不指代人类在概念上可以理解的任何事物(隐藏单元本身不能代表任何形而上学意义的对象)。它是一组隐藏单元。这正是神经网络无法实现可解释性的原因,即因为几个隐藏特征的组合是不可确定的——一旦组合完成,单个单元就会丢失。
在符号系统中,有定义明确的组合语义函数,它们根据成分的意义计算复合词的意义。但是这种组合可逆——人们总是可以得到产生该输出的(输入)组件,并且正是因为在符号系统中,人们可以访问一种“句法结构”,这一结构含有如何组装组件的地图。而这在 NN 中都并非如此。一旦向量(张量)在神经网络中组合,它们的张量分解就无法确定,因为向量(标量)可以分解的方式是无限的。
观点
- Richard Sutton:卷积反向传播已经落后,AI 突破要有新思路——持续反向传播
- Stability AI首席信息官:真正开放AI的转折点是现在
- 哥伦比亚大学周以真:因果关系是AI和机器学习的下一个前沿领域
- 腾讯AI Lab丁霄汉:前紧后松——清华读博前两年的焦虑与成长
研究前沿
- DreamFusion:Google发布“文本-3D”生成新成果
- 谷歌NeRF进化史:从光场神经渲染建模到场景泛化性提升
- Make-A-Video:MetaAI“文-视频”生成新研究
- 自然评论文章:深度学习改变图像分析的五种方式
产业
活动
求职招聘
- 智源研究院 | AI for Science方向研究员,探索生命科学前沿,解决世界级科研问题
- 智源研究院 | 分子动力学方向研究员,研究生物大分子动力学模拟,实现分子结构功能的预测泛化
- 智源研究院 | 类脑智能方向研究员,追踪国际前沿文献,研发具有生理功能的大规模高精度神经网络模型
教程
下载
查看预训练、强化学习等领域周刊内容,欢迎点击这里。
招聘、活动、推广等合作,请联系:editor@baai.ac.cn
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢