- 简介FPGA作为部署深度神经网络(DNNs)的技术在边缘计算中具有明显的优势。基于查找表(LUT)的网络直接使用LUT对神经元进行建模,有助于在FPGA上实现超低延迟和高面积效率。不幸的是,LUT资源使用随着LUT输入数量的增加呈指数级增长,这限制了PolyLUT的LUT规模。本文介绍了PolyLUT-Add技术,通过将$A$个PolyLUT子神经元通过加法组合来增强神经元连接性以提高准确性。此外,我们还描述了一种新颖的架构来提高其可扩展性。我们在MNIST、喷气次级分类和网络入侵检测基准测试中评估了我们的实现,并发现在相似的准确性下,PolyLUT-Add可以实现LUT减少$1.3-7.7$倍,延迟减少$1.2-2.2$倍。
- 图表
- 解决问题提高FPGA上深度神经网络的性能,特别是在LUT资源使用方面的限制
- 关键思路通过将多个PolyLUT子神经元相加来增强神经元连接性,提高准确性,并设计新的架构来提高可扩展性
- 其它亮点PolyLUT-Add能够在保持相似准确性的情况下,将LUT资源使用降低1.3-7.7倍,延迟降低1.2-2.2倍;实验使用了MNIST、Jet Substructure分类和网络入侵检测基准数据集
- 与LUT资源使用相关的研究,如LUT网络和LUT量化等
沙发等你来抢
去评论
评论
沙发等你来抢