Exploring FPGA designs for MX and beyond

2024年07月01日
  • 简介
    最近,一些公司合作发布了新的Open Compute Project MX标准,用于低精度计算,旨在实现高效的神经网络。在本文中,我们描述并评估了第一个实现标准中定义算法的开源FPGA实现。我们的设计完全支持所有标准的具体格式,用于转换为MX格式和标准定义的算术运算,以及任意的定点和浮点格式。标准的某些元素被留作实现定义,我们在本文中提出了第一个具体的FPGA-inspired选择这些元素,并进行了概述。我们的优化硬件组件库可开源使用,可用于构建更大的系统。为此,我们还描述并发布了一个用于量化为新标准的开源Pytorch库,与Brevitas库集成,以便社区可以开发以MX格式为重点的新型神经网络设计。我们通过在ImageNet ILSVRC12数据集上实现ResNet-18等示例神经网络,展示了我们的库的可用性和效力。我们的测试表明,MX对于INT5或FP6等本地不支持的格式非常有效。这使得FPGA具有优势,因为它们具有实现自定义数据通路并利用这些格式提供的较小区域占用的灵活性。
  • 图表
  • 解决问题
    论文旨在通过实现新的Open Compute Project MX标准的FPGA计算方案,解决低精度计算在神经网络实现中的效率问题。
  • 关键思路
    论文提出了一种针对MX标准的FPGA计算方案,支持标准中定义的所有具体格式和运算,以及任意定点和浮点格式,同时提供了一系列优化的硬件组件和基于Pytorch的量化库。
  • 其它亮点
    论文开源了优化的硬件组件和基于Pytorch的量化库,并通过在ImageNet ILSVRC12数据集上实现ResNet-18等神经网络的测试,证明了MX对于INT5或FP6等GPU不支持的格式具有很好的效果。
  • 相关研究
    近期相关研究包括《Training Deep Neural Networks with 8-bit Floating Point Numbers》和《Mixed Precision Training》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论