10月27日消息,高通正式宣布进军数据中心AI芯片市场,推出两款全新AI加速器——AI200与AI250,以及配套的机架级服务器系统。这一战略转向标志着高通从移动设备芯片制造商转向AI基础设施供应商,直接挑战当前由英伟达与AMD主导的高性能计算市场。
受此消息推动,高通美股周一一度大涨逾20%,最高创下205.55美元的52周新高,随后股价回落。截至美股周一收盘,高通股价报187.68美元/股,收涨11.09%,公司市值约2025亿美元。
据了解,这两款新品主要面向AI推理(Inference)环节,而非模型训练。
高通表示,AI200将于2026年上市,AI250预计2027年推出,后续还将于2028年推出第三代产品,形成每年一代的更新节奏。
高通表示,这些芯片基于其核心技术Hexagon神经处理单元(NPU),从智能手机和PC芯片的NPU架构“放大”至数据中心级别,充分利用高通在移动AI和低功耗计算方面的优势。
根据高通介绍,AI200与AI250支持机架级液冷集成,最多可将72枚芯片协同组成一台“超级计算机”,满足大型AI实验室运行模型的需求。整机功耗约160千瓦,与英伟达的部分GPU服务器相当,但高通声称整体拥有成本(TCO)更低。
其中,AI200芯片是一款专为AI推理而设计的机架级解决方案,重点优化大语言模型(LLM)和多模态模型(LMM)等AI任务的运行效率。单卡可配备768GB LPDDR内存,在保持较低成本的同时提升内存容量,为大规模推理任务提供灵活的扩展空间。
AI250在此基础上引入了近存储计算(Near-memory Computing)架构,在内存带宽和能效方面实现代际跃升。该方案的有效内存带宽提升超过10倍,功耗显著降低,从而提高AI推理过程的硬件利用率,满足客户对性能与成本平衡的要求。
AI200与AI250均搭载高通为数据中心定制的AI软件堆栈,覆盖从应用层到系统软件层的完整链路,专为AI推理任务优化。该堆栈兼容主流的机器学习框架、推理引擎与生成式AI框架,并支持针对LLM与LMM的分布式推理(Disaggregated Serving)等优化技术。
高通同时强调其产品的灵活采购模式——客户可按需选择芯片、计算卡或整机系统。高通数据中心与边缘业务总经理杜尔加·马拉迪(Durga Malladi)指出:“客户既可全盘采用,也可混搭使用。甚至英伟达或AMD等竞争对手,也可能在系统中采购我们的CPU组件。”
马拉迪补充说,高通的目标是以低功耗和更优的成本效益帮助云计算企业应对数据中心建设中不断上升的能源与资本支出。麦肯锡数据显示,到2030年全球数据中心资本支出将超过6.7万亿美元,其中相当比例将流向AI芯片系统。
AI芯片市场目前仍由英伟达垄断,其GPU市占率超过90%,成为OpenAI、微软、谷歌等公司训练和运行大型模型的主要硬件平台。然而,随着AI计算成本飙升,业界正积极寻找替代方案。
本月初,OpenAI宣布将从AMD采购芯片,并考虑战略入股。与此同时,谷歌、亚马逊和微软均在自研AI加速器,以减少对英伟达的依赖。
高通此次入局被视为押注“AI推理市场”的关键一步。推理环节对功耗与成本更为敏感,这正是高通的技术优势所在。该公司在智能手机与笔电芯片中的NPU表现出色,如今希望将这一经验延伸至云端与大型数据中心。
高通此前曾尝试进军服务器芯片市场。2017年,高通与微软合作推出Centriq 2400平台,但因市场竞争与内部诉讼问题,项目最终搁浅。
随着AI需求爆发,高通欲借AI200与AI250重新启动数据中心战略,并已同沙特阿拉伯Humain公司签署部署协议,对方计划建设功率达200兆瓦的AI推理系统,成为高通首位大客户。
本文来自“腾讯科技”,编译:无忌,36氪经授权发布。
发布时间:2025-10-28 20:00