- 简介图神经网络(GNN)正在成为处理各个领域的非欧几里得数据的强大工具,范围从社交网络分析到生物信息学。尽管它们很有效,但由于大规模图数据集的可扩展性挑战,特别是在利用消息传递时,它们的采用并不普遍。为了应对这些挑战,我们介绍了NeuraChip,这是一种基于Gustavson算法的新型GNN空间加速器。NeuraChip将稀疏矩阵乘法中的乘法和加法计算分离开来。这种分离允许独立利用它们各自的数据依赖性,促进有效的资源分配。我们引入了一种滚动逐出策略,以减轻芯片内存中的数据空闲以及解决稀疏图计算中普遍存在的内存膨胀问题。此外,通过动态重播哈希映射实现了计算资源负载平衡,确保计算资源的均匀利用,而不考虑稀疏模式。最后,我们提出了NeuraSim,这是一个开源、周期精确、多线程、模块化的模拟器,用于全面的性能分析。总体而言,NeuraChip呈现出显着的改进,平均加速比超过Intel的MKL 22.1倍,超过NVIDIA的cuSPARSE 17.1倍,超过AMD的hipSPARSE 16.7倍,超过之前最先进的SpGEMM加速器1.5倍,超过GNN加速器1.3倍。我们开源的模拟器和性能可视化器的源代码可在GitHub https://neurachip.us上公开访问。
- 图表
- 解决问题解决问题:本文旨在解决大规模图数据集上使用GNN时遇到的可扩展性挑战,特别是在利用消息传递时的挑战。
- 关键思路关键思路:本文提出了一种新的GNN空间加速器NeuraChip,它基于Gustavson算法,将稀疏矩阵乘法中的乘法和加法计算分离开来,以便更有效地分配资源。通过滚动驱逐策略来减轻芯片内存中的数据闲置以及解决稀疏图计算中的内存膨胀问题。此外,通过动态重新散列基于哈希的映射来实现计算资源负载平衡,确保计算资源的均匀利用。最后,本文提出了NeuraSim,这是一个开源的、多线程的、模块化的模拟器,用于全面的性能分析。
- 其它亮点其他亮点:NeuraChip的平均加速比为22.1x,超过了Intel的MKL(17.1x)、NVIDIA的cuSPARSE(16.7x)、AMD的hipSPARSE(1.5x)、以及之前的最先进的SpGEMM加速器(1.3x)和GNN加速器。本文提供了开源模拟器和性能可视化器的源代码,可以在GitHub上公开访问。实验使用了哪些数据集没有具体说明。
- 相关研究:该领域最近的相关研究是什么?本文没有列举相关研究的论文标题。
沙发等你来抢
去评论
评论
沙发等你来抢