- 简介这篇文章介绍了一种针对具有大量核心的微处理器进行芯片级热模拟的改进的经典POD-GP方法,即采用集合POD-GP方法(EnPOD-GP),将大量热源分成热源块(HSB),每个HSB可能包含一个或很少量的热源,从而显著提高了训练效果和预测精度。虽然EnPOD-GP非常准确、高效和稳健,但对于具有大量核心的微处理器,训练工作量非常大。因此,文章提出了一种局部域EnPOD-GP模型(LEnPOD-GP),利用局部域截断和通用构建块的概念来减少大量的训练数据。文章在NVIDIA Tesla Volta GV100上进行了实验验证,结果表明,尽管LEnPOD-GP的最小二乘误差(LSE)有所降低,但在使用4个模式每个HSB时,LSE仍然很小,不到整个空间的1.6%,在设备层下面的1.4%。当只关注整个GPU的最高温度时,LEnPOD-GP的计算速度比FEM快110万倍,最大误差在整个模拟时间内仅为1.2度。
- 图表
- 解决问题本文旨在解决芯片级热仿真中训练效率和预测精度问题,特别是在面对拥有大量核心的微处理器时。
- 关键思路文章提出了一种名为EnPOD-GP的集合POD-GP方法,通过将大量热源分成热源块(HSBs)来显著提高训练效果和预测精度。此外,为了进一步减少训练负担,文章提出了一种名为LEnPOD-GP的本地域EnPOD-GP模型,利用局部域截断和通用构建块的概念来减少大量的训练数据。
- 其它亮点文章在NVIDIA Tesla Volta GV100上进行了实验,并展示了LEnPOD-GP的出色性能。LEnPOD-GP可以比FEM快110万倍,且最大误差不到1.2度。值得关注的是,该方法可以广泛适用于任何功率映射,且具有高精度和鲁棒性。
- 最近的相关研究包括使用深度学习进行热仿真以及使用其他模型减少训练数据的方法。例如,文献“Deep Learning for Thermal-Aware Design”使用深度学习来预测芯片的温度分布。
沙发等你来抢
去评论
评论
沙发等你来抢