PolyLUT-Add: FPGA-based LUT Inference with Wide Inputs

2024年06月07日
  • 简介
    FPGA作为部署深度神经网络(DNNs)的技术在边缘计算中具有明显的优势。基于查找表(LUT)的网络直接使用LUT对神经元进行建模,有助于在FPGA上实现超低延迟和高面积效率。不幸的是,LUT资源使用随着LUT输入数量的增加呈指数级增长,这限制了PolyLUT的LUT规模。本文介绍了PolyLUT-Add技术,通过将$A$个PolyLUT子神经元通过加法组合来增强神经元连接性以提高准确性。此外,我们还描述了一种新颖的架构来提高其可扩展性。我们在MNIST、喷气次级分类和网络入侵检测基准测试中评估了我们的实现,并发现在相似的准确性下,PolyLUT-Add可以实现LUT减少$1.3-7.7$倍,延迟减少$1.2-2.2$倍。
  • 图表
  • 解决问题
    提高FPGA上深度神经网络的性能,特别是在LUT资源使用方面的限制
  • 关键思路
    通过将多个PolyLUT子神经元相加来增强神经元连接性,提高准确性,并设计新的架构来提高可扩展性
  • 其它亮点
    PolyLUT-Add能够在保持相似准确性的情况下,将LUT资源使用降低1.3-7.7倍,延迟降低1.2-2.2倍;实验使用了MNIST、Jet Substructure分类和网络入侵检测基准数据集
  • 相关研究
    与LUT资源使用相关的研究,如LUT网络和LUT量化等
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论