直接在边缘设备上实现日益复杂的人工智能(AI)功能需要边缘硬件前所未有的能源效率。基于电阻式随机存取存储器(RRAM)的内存中计算(CIM)有望通过在密集、模拟和非易失性 RRAM 设备中存储AI模型权重,并直接在 RRAM 中执行 AI 计算,从而消除独立计算和内存之间耗电的数据移动,来满足这种需求。
尽管最近的研究已经证明了完全集成的 RRAM-CIM 硬件上的内存矩阵向量乘法,但 RRAM-CIM 芯片的目标仍然是同时提供高能效、支持各种模型的多功能性和软件可比的精度。尽管效率、多功能性和准确性对于广泛采用该技术都是必不可少的,但它们之间相互关联的权衡不能通过对设计的任何单一抽象级别的孤立改进来解决。
在这里,通过对从算法和架构到电路和设备的所有设计层次进行共同优化,来自斯坦福大学、加州大学、清华大学等高校的研究人员,介绍了 NeuRRAM——一种基于 RRAM 的 CIM 芯片,该芯片在为不同的模型架构重新配置 CIM 核心方面同时提供了多功能性。
能效方面,在各种计算位精度上比当前最先进的 RRAM-CIM 芯片好 1 倍;推理精度可与在各种 AI 任务中量化为四位权重的软件模型相媲美,包括 MNIST 的 99.0% 和 85.7% 的准确度;在 CIFAR-10 图像分类方面,Google 语音命令识别的准确率为 84.7%,在贝叶斯图像恢复任务中图像重建错误减少了 70%。
该研究以「A compute-in-memory chip based on resistive random-access memory」为题,于 2022 年 8 月 17 日发布在《Nature》。
论文链接:https://www.nature.com/articles/s41586-022-04992-8
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢