华盛顿大学的博士生Tim Dettmers长期维护了一篇博客,讨论深度学习各种场景最适合的GPU。
文章今天更新,结论如下(基于Google Translate略作调整):
整体最佳GPU:RTX 3080和RTX 3090。
避免使用的GPU(作为个人使用):任何Tesla卡;任何Quadro卡;任何Founders Edition卡; Titan RTX,Titan V,Titan XP。
经济高效但价格昂贵:RTX 3080。
经济高效且便宜:RTX 3070,RTX 2060 Super
我没钱了:买二手卡。不同价位选择:RTX 2070($ 400),RTX 2060($ 300),GTX 1070($ 220),GTX 1070 Ti($ 230),GTX 1650 Super($ 190),GTX 980 Ti(6GB $ 150)。
我几乎没有钱:有很多初创公司推广他们的云:使用免费的云信用额度并切换公司帐户,直到您买得起GPU。
我要搞Kaggle比赛:RTX 3070。
我是竞争激烈的计算机视觉、预训练或机器翻译研究人员:4x RTX3090。等到具有良好散热效果的工作版本,并确认有足够的能力(我将更新此博客文章)。
我是NLP研究人员:如果不从事机器翻译、语言建模或任何形式的预训练,那么RTX 3080将足够且具有成本效益。
我刚开始搞深度学习,而且是认真的:从RTX 3070开始。如果您在6到9个月后仍然很认真,请出售RTX 3070并购买4倍RTX3080。具体取决于下一步选择的领域(启动,Kaggle ,研究,应用深度学习),出售您的GPU,并在大约三年后购买更合适的产品(下一代RTX 40s GPU)。
我想尝试深度学习,但我对此并不认真:RTX 2060 Super非常出色,但可能需要使用新的电源。如果您的主板有PCIe x16插槽并且您的电源约为300 W,那么GTX 1050 Ti是一个不错的选择,因为它不需要任何其他计算机组件即可与台式机一起使用。
用于少于128个GPU的并行模型的GPU群集:如果允许您为群集购买RTX GPU:66%8x RTX 3080和33%8x RTX 3090(仅在保证/确认有足够的散热的情况下)。如果RTX 3090s的散热不足,请购买33%的RTX 6000 GPU或8倍的Tesla A100。如果不允许您购买RTX GPU,我可能会选择8个A100 Supermicro节点或8个RTX 6000节点。
用于128个GPU并行模型的GPU集群:考虑8倍Tesla A100设置。如果使用超过512个GPU,则应考虑获得适合您规模的DGX A100 SuperPOD系统。
你同意他的结论吗?欢迎评论。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢