高通推两款AI芯片挑战英伟达,股价一度涨超20%

2025-10-29

10月27日消息,高通正式宣布进军数据中心AI芯片市场,推出两款全新AI加速器——AI200与AI250,以及配套的机架级服务器系统。这一战略转变意味着高通从移动设备芯片制造商转型为AI基础设施供应商,直接挑战当前由英伟达与AMD主导的高性能计算市场。

受此消息影响,高通美股周一一度大涨超20%,最高创下205.55美元的52周新高,随后股价有所回落。截至美股周一收盘,高通股价报187.68美元/股,涨幅达11.09%,公司市值约2025亿美元。

据悉,这两款新品主要针对AI推理(Inference)环节,而非模型训练。

高通表示,AI200将于2026年上市,AI250预计2027年推出,后续还会在2028年推出第三代产品,形成每年一代的更新频率。

这些芯片基于高通核心技术Hexagon神经处理单元(NPU),是从智能手机和PC芯片的NPU架构“放大”到数据中心级别,充分发挥了高通在移动AI和低功耗计算方面的优势。

AI新品亮点:低功耗、高性价比与模块化部署

据高通介绍,AI200与AI250支持机架级液冷集成,最多可将72枚芯片协同组成一台“超级计算机”,能满足大型AI实验室运行模型的需求。整机功耗约160千瓦,和英伟达的部分GPU服务器相近,但高通称整体拥有成本(TCO)更低。

其中,AI200芯片是专为AI推理设计的机架级解决方案,着重优化大语言模型(LLM)和多模态模型(LMM)等AI任务的运行效率。单卡可配备768GB LPDDR内存,在控制成本的同时增加内存容量,为大规模推理任务提供灵活的扩展空间。

AI250在此基础上引入了近存储计算(Near - memory Computing)架构,在内存带宽和能效方面有了显著提升。该方案的有效内存带宽提升超过10倍,功耗大幅降低,从而提高AI推理过程的硬件利用率,满足客户对性能与成本平衡的需求。

AI200与AI250均搭载高通为数据中心定制的AI软件堆栈,覆盖从应用层到系统软件层的完整链路,专为AI推理任务优化。该堆栈兼容主流的机器学习框架、推理引擎与生成式AI框架,并支持针对LLM与LMM的分布式推理(Disaggregated Serving)等优化技术。

高通强调其产品的灵活采购模式,客户可按需选择芯片、计算卡或整机系统。高通数据中心与边缘业务总经理杜尔加·马拉迪(Durga Malladi)表示:“客户既可以全部采用,也可以混合搭配使用。甚至英伟达或AMD等竞争对手,也可能在系统中采购我们的CPU组件。”

马拉迪还提到,高通的目标是以低功耗和更优的成本效益帮助云计算企业应对数据中心建设中不断增加的能源与资本支出。麦肯锡数据显示,到2030年全球数据中心资本支出将超过6.7万亿美元,其中相当一部分会流向AI芯片系统。

目前AI芯片市场仍被英伟达垄断,其GPU市占率超过90%,是OpenAI、微软、谷歌等公司训练和运行大型模型的主要硬件平台。不过,随着AI计算成本的大幅上升,业界正在积极寻找替代方案。

本月初,OpenAI宣布将从AMD采购芯片,并考虑战略入股。同时,谷歌、亚马逊和微软都在自研AI加速器,以减少对英伟达的依赖。

高通此次进入市场被看作是押注“AI推理市场”的关键一步。推理环节对功耗和成本更为敏感,而这正是高通的技术优势所在。该公司在智能手机与笔电芯片中的NPU表现出色,现在希望将这一经验拓展到云端与大型数据中心。

高通此前曾尝试进军服务器芯片市场。2017年,高通与微软合作推出Centriq 2400平台,但因市场竞争和内部诉讼问题,项目最终失败。

随着AI需求的爆发,高通希望借助AI200与AI250重新启动数据中心战略,并且已和沙特阿拉伯Humain公司签署部署协议,对方计划建设功率达200兆瓦的AI推理系统,成为高通的首位大客户。

本文来自“腾讯科技”,编译:无忌,36氪经授权发布。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com