- 简介本文介绍了一种灵活的神经网络加速器FlexNN,它采用敏捷的设计原则实现了多样化的数据流,提高了能源效率。与传统的卷积神经网络加速器架构不同,后者遵循固定的数据流(例如输入、权重、输出或行定向)来在存储和计算单元之间传输激活和权重。我们的设计通过软件可配置描述符实现了任何类型的可适应数据流,从而实现了革命性的灵活性。考虑到从能源角度来看,数据移动成本远大于计算成本,数据流的灵活性使我们能够优化每层的数据传输和能源消耗,这是在固定数据流架构中无法实现的。为了进一步提高FlexNN架构的吞吐量和降低能源消耗,我们提出了一种基于稀疏性的加速逻辑,利用激活和权重张量中的细粒度稀疏性来绕过冗余计算,从而优化硬件加速器中的卷积引擎。广泛的实验结果强调了FlexNN相对于现有的DNN加速器在性能和能源效率方面的显着提高。
- 图表
- 解决问题FlexNN论文旨在解决神经网络加速器中固定数据流所带来的能量效率问题,提出了一种可灵活配置数据流的神经网络加速器架构。
- 关键思路FlexNN采用软件可配置描述符实现可适应任何类型数据流的灵活性,进而优化每一层的数据传输和能量消耗。此外,FlexNN还提出了一种基于稀疏性的加速逻辑,通过利用激活和权重张量中的细粒度稀疏性来绕过冗余计算,从而优化硬件加速器中的卷积引擎,提高吞吐量并降低能量消耗。
- 其它亮点论文通过实验结果表明,与现有的DNN加速器相比,FlexNN架构在性能和能效方面都有显著提升。此外,论文还开源了代码和数据集,方便其他研究者进行进一步的研究。
- 最近在该领域中,还有一些相关的研究,如《Eyeriss:An Energy-Efficient Reconfigurable Accelerator for Deep Convolutional Neural Networks》和《Cambricon-X: An Accelerator for Sparse Neural Networks》等。
沙发等你来抢
去评论
评论
沙发等你来抢