近期,SC20-NVIDIA 发布了 NVIDIA A100 80GB GPU(支持NVIDIA HGX™ AI 超级计算平台的最新创新技术),为研究人员和工程师提供了空前的速度和性能,以解锁下一波 AI 和科学突破 。
具有 HBM2e 技术的新型 A100将 A100 40GB GPU 的内存增加了一倍,达到了 80GB,并提供每秒超过2TB的内存带宽,以使数据快速传入世界最快的数据中心 GPU A100,这样,研究人员便可更快地加速其应用程序,处理更大的模型和数据集。NVIDIA A100 80GB GPU 可在 NVIDIA DGX™A100 和 NVIDIA DGX Station™A100 系统中使用。
NVIDIA 深度学习应用研究副总裁 Bryan Catanzaro 表示,“要在 HPC 和 AI 研究中获得最先进结果,就需要构建最大的模型,而这些模型需要比以往任何时候都更多的存储容量和带宽。”
A100 80GB 的主要功能包括:
1. 第三代张量核:使用新格式 TF32 可提供高达上一代 Volta 的 20 倍 AI 吞吐量,以及用于 HPC 的 2.5 倍 FP64,用于 AI 推理的 20 倍 INT8 并支持 BF16 数据格式。 2. 更大、更快的 HBM2e GPU 内存:内存容量增加一倍,业内首个提供每秒超过 2TB内存带宽的设备。 3. MIG 技术:每个独立实例的内存增加一倍,最多提供七个 MIG,每个 10GB。 4. 结构稀疏性:提供高达2倍的加速推理稀疏模型。 5. 第三代NVLink®和NVSwitch™:提供高于上一代两倍的 GPU 到 GPU 的带宽,将数据密集型工作负载的数据传输加速到GPU,达到每秒600 GB。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢