作者 | 丁卯
编辑 | 张帆
11月5日,超威半导体(AMD)发布了2025年第三季度的财务报告。
本季度公司实现营收92.5亿美元,同比增长35.6%,大超市场预期。更受瞩目的数据中心业务,受益于Instinct MI350系列GPU的推广和服务器市场份额的增长,公司数据中心业务收入达到43.4亿美元,同比增长了22.3%。
10月以来,AMD利好不断。先是与OpenAI达成一项6GW算力的战略合作,紧接着又拿下甲骨文5万颗MI450系列的超级订单。
在此次财报后的业绩交流会中,AMD透露出,OpenAI的首GW部署将在26年下半年开始,预计未来几年将为公司贡献超1000亿美元的收入,极大地提升了公司未来业绩增长的确定性。
更重要的是,正如交流会中AMD所言,OpenAI、甲骨文等头部玩家的采纳,意味着AMD的Instinct平台和ROCm生态已具备成熟的性能与成本优势,标志着其在AI加速芯片和数据中心市场进入了快速增长和份额掠夺的新阶段。
业绩公布后,市场给予了积极反馈,当日收盘AMD股价上涨2.5%。拉长周期看,10月6日至今,公司股票累计涨幅更是达到了56%,市值扩张超1000亿美元。
这不禁让人联想到,当年AMD对英特尔发起的CPU“绝地反击战”。只是这次的战场聚焦于利润更丰厚的AI算力芯片,挑战对象也从CPU霸主Intel变成了GPU霸主英伟达。
那么,在这场关键战役中,AMD能否重演熟悉的反击戏码?AI芯片行业竞争格局又将迎来怎样的变化?
正如前文所言,大模型巨头和云巨头的超级订单,标志着AMD的Instinct 系列GPU正成为市场上可信赖且具备规模交付能力的英伟达替代方案,这奠定了其在AI时代的关键挑战者地位。
AMD能撕开英伟达垄断的口子,根源在于它精准击中了AI算力市场的两大痛点:英伟达的垄断定价和正在转向推理的算力需求。
过去几年,英伟达凭借高性能芯片,长期在AI训练中占据绝对垄断地位,形成了 “一家独大” 格局。富国银行数据显示,英伟达在AI加速器市场的份额长期保持在80%-90%之间。
图:数据中心GPU市场份额变化 数据来源:富国银行,36氪整理
受益于垄断带来的高定价和高毛利,近两年英伟达的基本面呈现加速扩张趋势。财报数据显示, 从23下半年开始,英伟达的数据中心业务营收持续高增,截止FY26Q2(至25年7月底)单季度营收高达411亿美元,连续九个季度维持高增速。
相比之下,AMD等竞争对手的GPU收入仍处于爬坡阶段。最新财报显示,尽管扩张迅速,但25Q3 AMD的数据中心收入规模仅为43亿美元,体量差距巨大。
图:英伟达业务构成及增速 数据来源:wind,36氪整理
图:英伟达和AMD数据中心业务收入对比 数据来源:wind,36氪整理
这种行业格局不仅加剧了中下游云计算、大模型厂商的供应链风险,也给其带来了巨大的成本压力,尤其是在AI下游应用落地速度并不理想、企业投入产出比较低的情况下。
面对这一痛点,中下游参与者急需寻求性价比更高的替代方案,以降低基础设施的总拥有成本(TCO),并实现供应链的多元化。
恰逢其时,随着大型语言模型的迭代速度放缓,市场对算力的需求从高精度、高功耗的“模型训练”转向低延时、大规模部署的“模型推理”。需求结构性变化,使得芯片的性能需求不再唯高精度论,转而更侧重内存带宽、容量和能效比。
正是这样的底层原因,为AMD的替代提供了现实可行的突破口。
一方面,AMD针对推理需求优化了系统级成本优势。其Instinct系列芯片通过更大的内存带宽和模型容量,减少了对多卡互联的需求,从而提升推理效率。以MI300X为例,其单卡带宽为192GB HBM3,远高于H100的80GB。这意味着在推理阶段,MI300X单卡能够承载H100需要2-3张卡才能处理的模型,节省了服务器、CPU、机架空间和功耗等系统级成本。
图:英伟达和AMD AI芯片对比 数据来源:36氪整理
另一方面,激进的定价策略带来了高额的Tokens/Dollar溢价。从单卡售价上,根据市场报告的早期估计,NVIDIA H100 GPU的价格在25000美元以上,紧缺时一度高达30,000-40,000美元。相比之下,AMD MI300X的价格估计在10,000美元-15,000美元左右,只有NVIDIA对应产品的一半甚至更少。
正是基于硬件成本和针对性性能优化的双重优势,AMD芯片在推理场景下更具性价比。根据云服务提供商RunPod的数据,AMD MI300X的Tokens/Dollar(每美元Tokens数量),在低延迟和高吞吐两端均表现出对英伟达H100显著的成本优势,最高可达33% 左右。
综合来看,AMD在GPU领域的高歌猛进,主要得益于其超高的性价比+差异化优势正好迎合了云巨头们在推理阶段对供应链多元化和成本效益的迫切诉求。
在此之下,AMD凭借更具吸引力的总拥有成本(TCO),击碎了英伟达一家独大的垄断壁垒,开始快速蚕食其市场份额。
这种打法旨在:先用“以价换量”打破英伟达的长期垄断和客户黏性,迅速获取市场占有率和生态基础,再凭借研发和技术迭代补齐高端化竞争的短板。最终凭借性价比优势下的规模效应+高毛利产品,带动营收和利润的正向循环。
这与AMD当年挑战Intel的戏码如出一辙。
2017年,AMD推出Zen架构,以远低于Intel对应型号的价格,将更高核心数、更强性能的处理器推向市场。
尤其是2019年基于Zen2架构的Ryzen和EPYC系列产品,通过引入台积电的先进制程,在性能、能效和核心数上全面反超Intel,迅速冲击其市场份额。
2016年AMD在CPU市场的份额不到18%,然而到2019年却重新站上30%,最新市占率在39%左右,并长期维持双寡头的格局。
图:CPU市场份额变化 数据来源:wind,36氪整理
在靠着性价比优势卡位成功后,AMD凭借台积电先进的制程工艺不断冲击高端化。
从ASP上看,AMD的芯片价格自2012年之后奋起直追,至2024年AMD产品均价已接近翻倍,而同期英特尔却只上涨了30%左右。
图:AMD芯片价格变化 数据来源:水星研究,美国银行,36氪整理
高端化的加速也带来了盈利能力的显著好转。
2017年后,AMD的毛利率从35%附近一路攀升,截至25Q3毛利率达到52%。而同期Intel的毛利率则从高位持续滑落,2022年被AMD超越,目前毛利率仅30%左右。
图:AMD毛利率变动 数据来源:wind,36氪整理
两家公司业绩的差异,同样也在资本市场有所反应。2017年后,AMD的市值一路上行,目前其市值已经达到了Intel的2.5倍。
如今,AMD的GPU凭借推理中的优势以及更低的售价,正试图复制当年的成功经验。但想要把英伟达拉下神坛,似乎仍面临着不小的挑战。
首先,虽然AMD GPU的单卡成本更低,且通过针对性的优化体现出系统级的成本优势,但事实上,软件生态系统差异所暗含的隐性成本,可能无形中增加了客户部署AMD的潜在成本。
尽管ROCm平台在推理方面进步显著,但其成熟度、稳定性和开发者社区支持仍不及CUDA。官方数据显示,目前CUDA生态已积累了近600万开发者,拥有超过300个加速库和600多个预优化AI模型。对于客户而言,这意味着客户迁移到AMD平台需要时间和资源来重新适配和验证模型,无形中面临着巨大的转换成本。
不过,近期甲骨文、Meta、微软等头部云商的陆续接入,无疑为ROCm生态的快速发展带来了好的开端。
其次,值得注意的是,回顾当年CPU的对局,Intel自身的研发停滞、创新乏力以及僵化的IDM模式,为AMD的成功搅局留下了宝贵的时间窗口。
2005-2020年间,Intel在研发费用上的投入落后于AMD等竞争对手,尤其是最为强势的2008—2013年,研发费用率最低一度跌破15%,而AMD则常年维持在20%以上。
图:AMD和intel研发费用率对比 数据来源:wind,36氪整理
相比之下,目前英伟达仍然处于研发驱动技术持续迭代的强产品周期中。根据财报,英伟达2025财年的研发费用已达到129.14亿美元,同比增长近50%,FY2026H1的研发费用为86亿美元,同比增速仍然维持40%以上,远高于同期AMD和Intel的研发增长。
图:AMD、Intel、英伟达研发费用增速对比 数据来源:wind,36氪整理
基于高强度的研发和资本开支,其始终在产品代际上领先竞争对手,并通过强大的软件生态和系统整合能力构筑了护城河。
这意味着,相比当年的CPU之争,在GPU领域AMD想要颠覆英伟达的难度更大,这也是AMD等“另辟蹊径”(如HBM容量优势)来寻求市场切入点的核心原因。
但面对进攻,英伟达不可能坐以待毙。未来很可能通过推出更具成本效益的推理优化芯片或进一步开放/简化CUDA部署来反击对手。
但不管如何演绎,不可否认的是,AMD确实已经通过 “性价比 + 开放生态 + 系统级全栈方案” 成功地从英伟达的垄断中撕开了一个口子。
这也标志着GPU的竞争格局从一家独大演变为一超多强。而随着下一代MI450的大规模部署,硬件市场的竞争或将进入白热化阶段。
这种良性竞争本就会带动整个行业在价格、技术和服务上的不断进步,最终推动AI算力成本的下降和普及。从这个角度来看,无论最终AMD能否逆袭,其强势入局都标志着,多元化竞争时代,卖方主导的市场格局或已走到了尽头。
*免责声明:
本文内容仅代表作者看法。
市场有风险,投资需谨慎。在任何情况下,本文中的信息或所表述的意见均不构成对任何人的投资建议。在决定投资前,如有需要,投资者务必向专业人士咨询并谨慎决策。我们无意为交易各方提供承销服务或任何需持有特定资质或牌照方可从事的服务。
发布时间:2025-11-06 17:01