【智源AI日报】每天速读5分钟,AI要事不错过!欢迎点击这里,关注并订阅智源AI日报。

盘点 | TPU演进十年:Google的十大经验教训 
看点:David Patterson近期在加州大学伯克利分校的演讲,他分享了Google TPU近十年的发展历程以及心得体会,并阐述了提升机器学习硬件能效对碳足迹的影响。

人物 | 将港中文建成中国 AI 视觉黄埔军校的人 
看点:香港中文大学的计算机视觉发展在全球享有盛誉,是中国 AI 研究成就的一个重要注脚。

奖项 | 聂礼强团队与快手合作,斩获ACM MM 2022最佳论文奖
看点:论文题目为“Search-oriented Micro-video Captioning”,由哈尔滨工业大学(深圳)、山东大学、快手、华为和佛罗伦萨大学联合团队共同完成。

观点 | 吴恩达:AI, GPU和芯片的未来 
看点:尽管全球范围内对芯片的生产和需求出现波动,我对人工智能从业者将获得他们需要的处理能力依然持乐观态度。

周刊 | 智源社区AI周刊No.101:DeepMind推出AlphaTensor,自动发现高效算法,登Nature封面;stateof.ai发布2022AI情况报告
看点:汇聚每周AI观点、研究和各类资源,不错过真知灼见和重要资讯!

解读 | OpenBMB论文速读第 1 期,EMNLP:大模型提示微调经典工作 
看点:本期论文速读我们选取了一篇有关 大模型提示微调 的经典工作—— EMNLP 2021 的发表工作:The Power of Scale for Parameter-Efficient Prompt Tuning ,由清华大学自然语言处理实验室的博士后韩旭进行领读讲解。

解读 | 是什么在支撑特斯拉的技术演进?清华叉院赵行解读FSD算法新进展 
看点:清华大学交叉信息研究院助理教授、福布斯中国30位30岁以下精英(2020年),青源研究组成员赵行整理了Tesla FSD算法方面值得重点关注的进展与大家分享。

工程 | 训练速度提高最多5.4倍,谷歌提出RL训练新范式ActorQ 
看点:谷歌的研究者在《Transactions of Machine Learning Research》期刊上发表了《QuaRL:快速和环境可持续强化学习的量化》,介绍了一种称为「ActorQ」的新范式。该范式使用了量化,在保持性能的同时,将强化学习训练速度提高 1.5-5.4 倍。作者证明,与全精度训练相比,碳足迹也减少了 1.9-3.8 倍。

解读 | NeurIPS 2022论文,基于神经微分方程理论可以帮助我们训练更加深层次的ResNet网络 
看点:作者提出可以使用无记忆(memory-free)的离散伴随方法(adjoint method)来训练ResNets,并且证明该方法在理论上可以支持较深层ResNets的训练,作者随后进行了实验,并对非常深层次的预训练ResNets进行微调,得到了更好的效果,并且网络不会在残差层中消耗显存。

论文 | NeurIPS 2022论文,谷歌用贝叶斯优化做巧克力曲奇!还跟自家食堂签了约…… 
看点:用贝叶斯优化来改良饼干配方,还顺便发了个顶会?!

内容中包含的图片若涉及版权问题,请及时与我们联系删除