本报讯 记者王信豪报道:在12月7日举行的AMD Advancing AI大会上,AMD推出了AI加速芯片MI300X。
据了解,MI300X内置了8个XCD共304个CNDA 3架构的计算单元以及4个IOD,性能相较于此前普遍应用的MI250系列提升了约30%。在存储性能上,AMD使用8个HBM3堆栈,带来了高达192GB的内存以及5.3TB/s的最大带宽。
AMD首席执行官苏姿丰感慨道:“AI的发展速度比我们想象的快太多了。”她认为,AI加速器在2023年的市场规模将达到450亿美元,而在2027年将发展到4000亿美元。而在一年前,苏姿丰的预测仅是从2023年的300亿美元增加至2027年的1500亿美元。该预测不仅是对当前人工智能浪潮的期待,也是对AMD用于人工智能大模型训练与推理的新一代加速卡MI300X发布的铺垫。早在今年6月,AMD就已经传出将推出Instinct MI300的升级版产品,而在大会当天它终于揭开了神秘面纱。
“对于生成式人工智能而言,内存和带宽至关重要。”苏姿丰表示。现场信息显示,MI300X的存储表现优于英伟达的H100,而对比此前英伟达透露的H200,其存储性能规格也优于使用HBM3e的H200。
之后苏姿丰推出了由8块MI300X组成的MI300X Platform,并将其同当前市面上主流的英伟达HGX H100进行了性能对比。根据AMD现场提供的数据,在大模型训练能力上二者不分伯仲,而在70亿参数的Llama2和160亿参数的Bloom的推理上,由于AMD单卡具备更好的存储性能,推理效率已经超越了英伟达。然而,在加速器平台内部的卡间带宽上,由于英伟达拥有NVLink技术的加持,AMD 896GB/s的表现仍略低于英伟达。
会上AMD公布的另一产品,则是“世界首款专用于数据中心和AI的加速器”MI300A,与MI300X这类纯GPU产品不同,MI300A集成了AMD Zen4架构的CPU。AMD表示,凭借GPU和带宽的优势,MI300A在HPC中可提供比H100高达4倍的性能提升。
在此前AMD发布的第三季度财报中,苏姿丰表示:“我们强劲的收入和盈利增长得益于锐龙7000系列PC处理器和服务器处理器的销售。我们的数据中心业务正处于强势增长阶段,基于EPYC(霄龙)CPU产品组合的强大实力和Instinct加速器出货量的增长,我们将为超大规模、企业级和人工智能客户提供多种部署方案。”
在数据中心业务之外,PC也是AMD的重要增长点。AMD此次推出了Ryzen 8040系列APU。苏姿丰表示,这是专为客户端和消费类 PC设计的处理器,主要针对笔记本电脑市场,其中高端的版本可面向AI PC。据了解,此前高通发布了针对AI PC的处理器骁龙X Elite,而英特尔也将在12月中旬发布面向AI的新一代酷睿处理器。AMD入局后,围绕AI PC处理器的竞争将愈演愈烈。
除了硬件性能的大幅升级,AMD也在积极布局软件生态。众所周知,CUDA构成了英伟达的护城河,使用英伟达旗下产品的开发人员在长期研发的过程中建立了强力的黏性。AMD在大会当天更新了ROCm软件栈,并针对生成式AI进行了优化,会上的数据显示,“MI300X+ROCm6”的产品组合相较于此前的“MI250+ROCm5”,在Llama2上的文本生成效率提升了约8倍。
“CUDA为开发者提供了硬件的直接访问接口,而不必像传统方式一样必须依赖图形API接口来实现对GPU的访问。相比CUDA,ROCm作为开源生态系统可在多种操作系统和不同硬件架构上运行,这也为开发者提供了更好的灵活性和可移植性。”赛迪顾问研究员邓楚翔告诉《中国电子报》记者。
开源或许无法短时间内对CUDA的稳固生态带来影响,但越来越多的合作者,正在支持AMD的生态。微软CTO凯文·斯科特表示,Azure将开放Instinct MI300X虚拟机的预览,Meta高管也表示将在自己的AI和数据中心业务中使用MI300X。OpenAI致信表示:“我们正在与AMD合作,以支持开放生态系统。我们计划在Triton3.0版本中支持AMD的GPU。”