B-SportsAMD和英伟达两大GPU巨头在AI芯片市场展开激烈竞争,双方宣布将芯片发布速度由“两年一更”提速到“一年一更”。
02AMD发布名为Instinct MI325X的AI芯片必一运动,与英伟达发布的AI芯片展开正面交锋,双方宣称自己更胜一筹。
03然而,从市场占有率来看,英伟达无疑是大幅领先的,AMD短期内难以超越。
04由于市场竞争加剧和技术发展,AMD和英伟达都在加速AI芯片布局,推出新的产品以满足市场需求。
05专家表示,AMD在AI芯片市场面临的最大阻碍是生态系统建设,英伟达的成功在于其软件栈CUDA的成功。
AI浪潮的来袭,让AMD与英伟达两大GPU巨头之间追赶竞争变得愈加紧迫。此前,双方都宣布将芯片的发布由“两年一更”提速到“一年一更”。美国当地时间10月10日,AMD首席执行官苏姿丰进行了近2个小时的演讲,最新的服务器CPU、AI网卡、DPU以及AI PC移动处理器倾囊而出,其中重头戏是发布了名为Instinct MI325X的AI芯片,与英伟达此前发布的AI芯片展开正面交锋。
多位业内人士在接受《中国经营报》记者采访时表示,从产品更新节奏来看,无论是AMD还是英伟达,更新节奏都在变快的原因主要是市场竞争的加剧和技术的发展。然而,很难预估未来AMD与英伟达在AI芯片方面的地位,因为从各家公布的数据来看,两家公司都声称自己更胜一筹,但从目前市场占有率而言,英伟达无疑是大幅领先的,而且这种领先不是AMD能够在短期内超越的。
AI峰值算力是指计算系统在最佳情况下每秒能执行的最大浮点运算次数(FLOPS)。 这是衡量计算系统处理AI任务能力的一个重要指标,通常用于评估机器学习和深度学习任务的复杂性和速度
AMD此次发布的AI芯片名为MI325X必一运动,与上一代MI300X采用了相同的CDNA 4架构,不过,AMD首次启用了HBM3E高带宽内存,AI峰值算力达到21PFLOPS。按照官方给出的参数对照,MI325X正面对标英伟达去年11月发布的AI芯片H200 GPU,其内存容量是H200的1.8倍,内存带宽、FP16和FP8峰值理论算力都是H200的1.3倍。
苏姿丰表示:“在运行Llama3.1 405B大模型时,MI325平台能提供比英伟达H200高出40%的性能。”
据悉,MI325X将在2024年第四季度投入生产,预计从2025年第一季度开始将在包括戴尔、Eviden、技嘉、惠普、联想等在内的众多平台提供商的系统中使用。
除此之外,AMD在会上还披露了未来的AI芯片路线系列将在明年上市,届时会用上与MI300X、MI325X不同的新一代CDNA 4架构,半精度浮点数FP16下的AI算力达到2.3PFLOPS。而在此前英伟达CEO黄仁勋也宣布将加快AI芯片的更新速度,“由此前的两年一更实现每年一次的更新”。
产业观察家梁振鹏对记者表示,从产品更新节奏来看,无论是AMD还是英伟达,更新节奏都在变快的原因主要是市场竞争的加剧和技术的发展。随着人工智能技术的快速发展,对于芯片的计算能力和存储能力要求也越来越高,因此芯片厂商需要不断推出新的产品来满足市场需求。同时,随着云计算、大数据等新兴技术的发展,数据中心对于芯片的需求也越来越大,这也促进了芯片厂商的更新速度。
如果MI325X顺利上市,从性能来看,AMD与英伟达AI芯片只差一个代际的发布,也让两者之间的竞争重新回到聚光灯下。据CNBC报道,如果AMD的人工智能芯片被开发人员和云计算巨头视为英伟达产品的紧密替代品,这可能会给英伟达带来一定压力。
梁振鹏表示,AMD推出新产品,确实会对英伟达的数据中心营收产生一定影响。因为AMD的新产品在性能、价格、功耗等方面都具有优势,能够满足更多的市场需求,从而对英伟达的市场份额造成冲击。
不过,在Moor Insights & Strategy分析师Patrick Moorhead看来:“很难评估AMD与英伟达在数据中心GPU方面的地位。到处都有数据,两家公司都声称自己更胜一筹。AMD的新GPU,尤其是MI350,与前代产品相比,效率和性能都有所提高,对低比特率模型的支持也更好,这是一个巨大的进步。这是一场激烈的竞逐,英伟达遥遥领先,AMD正在迅速追赶并取得了有意义的成果。”
双方财报也显示了差距,在2024年,英伟达包含AI芯片的数据中心业务,Q2营收达到了创纪录的263亿美元,比去年同期增长154%,AMD方面,今年第二季度包含CPU、GPU等在内的数据中心事业部收入达28.34亿美元,同比增长115%。
“人工智能需求继续增长,超出了预期,现在展望未来四年,预计人工智能加速器市场将以每年60%的速度增长,到2028年市场将增长至5000亿美元。”苏姿丰表示。
而在人工智能专家郭涛看来,要想在AI芯片市场与英伟达掰一掰手腕,AMD最大的阻碍是生态系统建设必一运动。
在其看来,英伟达的成功不仅仅在于其芯片,更在于其软件栈CUDA的成功,CUDA已成为人工智能开发者的标准语言,也将开发者“锁定”在了英伟达的生态系统中。CUDA运算平台是英伟达独家开发的一种并行化计算加速平台和编程辅助软件,允许软件开发者和软件工程师使用英伟达GPU加速并行通用计算(仅支持英伟达GPU,无法兼容AMD以及英特尔等主流GPU)。
根据英伟达官网资料介绍,使用英伟达GPU进行CUDA编程和使用基础工具是免费的,但企业级应用和云平台上的CUDA服务可能需要付费。CUDA不仅通过GPU硬件销售带来收入,其在企业级应用和软件业务中的使用也是英伟达收入的重要来源。
不过,目前AMD正在加速AI布局,苏姿丰也介绍了在软件栈上的进展。近一年来,AMD打通了所有主要AI开发平台。获取了PyTorch的零日更新(可以在软件升级当天使用其新功能)支持及Triton的AMD硬件兼容。
除此之外,AMD也尝试用收购的方式拓展AI业务边界。今年8月,AMD宣布拟斥资49亿美元收购服务器制造商ZT Systems。苏姿丰表示,希望布局人工智能软件堆栈,随着这次收购,AMD将把各种元素结合在一起,提供一个真正的人工智能解决方案路线图。