在CES 2023上,AMD发布「最大芯片」一颗芯片塞进1460亿个晶体管,能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周,节省百万美元电费。
这颗代号为Instinct MI300的芯片,也是AMD首款数据中心/HPC级的APU,此前,英特尔的服务器GPU Ponte Vecchio拥有的晶体管数量是1000亿+,而英伟达新核弹H100,则集成了800亿个晶体管。
这颗拥有1460亿个晶体管的芯片,采用的是小芯片(Chiplet)设计方案。基于3D堆叠技术,在4块6nm工艺小芯片之上,堆叠了9块5nm的计算芯片(CPU+GPU)。根据AMD公开的信息,CPU方面采用的是Zen 4架构,包含24核。GPU则采用了AMD的CDNA 3架构。
由于Zen 4架构通常是8核设计,外界普遍猜测,9块计算芯片中有3块是CPU,6块是GPU。
另外,MI300拥有8颗共128GB HBM3显存。
性能方面,AMD并未公布太多信息,仅与Instinct MI250X进行了比较,相比于MI250X,MI300每瓦AI性能提升了5倍,AI训练性能整体提高了8倍。
而据Tom‘s Hardwre消息,AMD透露,MI300能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周。
Instinct MI300预计将在2023年下半年交付。届时,这颗芯片还将被部署到两台新的百亿亿次级别(ExaFLOP)超级计算机上。R9 7940HS在多线程性能方面,比苹果M1 Pro快34%;在AI任务处理上,比苹果M2快20%
参考链接:
[1]https://www.youtube.com/watch?v=OMxU4BDIm4M
[2]https://www.tomshardware.com/news/amd-instinct-mi300-data-center-apu-pictured-up-close-15-chiplets-146-billion-transistors
[3]https://www.anandtech.com/show/18721/ces-2023-amd-instinct-mi300-data-center-apu-silicon-in-hand-146b-transistors-shipping-h223
[4] https://www.macrumors.com/2023/01/05/amd-new-chips-against-m1-pro
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢