电费仅占5%,算力成本的真正“吞噬者”是谁?——算力成本深度拆解,电费之外的核心变量
近期,沐曦在行业分享中披露的一组数据中心成本分析图表,引发了业内人士的广泛关注。

这张图拆解了一座1GW数据中心的成本账——总拥有成本达550亿美元,按四年折旧周期分摊后,GPU芯片占250亿,供电散热110亿,网络50亿,存储40亿。而电费仅27.5亿,占比5%。
这组数据推翻了圈内流传两年的“美好叙事”:此前不少人认为中国电价低于欧美,是AI时代的核心优势,毕竟大模型耗电巨大,低电价能带来持续竞争力。但沐曦的图表揭示了真相:在超大规模算力中心的成本结构中,电费在整体TCO(总拥有成本)里占比极低,对总成本影响有限,真正的成本大头是绕不开的GPU芯片。
01 一座550亿美元数据中心的成本流向
我们先细化这笔账。
图表中的550亿美元,是基于1GW数据中心的全周期测算,周期设定为四年。选择四年的原因是GPU折旧周期通常为四年,部分互联网大厂甚至缩短至三年或两年半——这并非会计保守处理,而是技术迭代的现实:新一代GPU推出后,老一代的单位算力成本与能效比会迅速失去竞争力。
550亿总成本中,GPU采购占250亿,占比45%,这还仅是芯片采购费用。供电和散热系统110亿,占比20%,这部分看似是“基础设施”,实则大半成本由GPU功耗倒逼产生——一颗H100功耗达700瓦,下一代B系列更是突破1000瓦,数万张卡集中部署时,供电与散热系统的复杂程度远超传统数据中心。
网络成本50亿,存储成本40亿,两者合计90亿,占比16%。超大规模集群的网络并非家用路由器,而是由数百公里光纤、几十层交换机构成的“毛细血管网”,成本与复杂度随GPU数量呈指数级增长。
四大硬件板块(GPU、供电散热、网络、存储)合计450亿,占总成本的82%。电费仅27.5亿,占比5%;其他运维成本7.5亿,占比不足1.5%。
可见,电费便宜在这个账本里几乎可忽略不计。即便电价打五折,省下的十几亿美元在550亿总盘子里掀不起水花。真正决定成本高低的,是GPU的选型、用量、集群互联方式及供电散热方案——这些都无法靠“低价”解决。
在AI算力的成本方程中,资源禀赋的权重远低于预期,技术与供应链才是核心决定因素。
02 GPU价格为何“难下降”
那么,GPU价格能否下降?若能,是否就能解决大半成本问题?
答案是:能降,但短期内难有大幅下降,且降价空间不在中国手中。
AI芯片的成本构成远比想象复杂。首先是制程,当前旗舰AI芯片均采用4nm或5nm工艺(如台积电N4P、N5),单次流片费用3-5亿美元起步,这是给代工厂的沉没成本——流片失败则资金打水漂,成功后还需几个季度爬坡良率。
其次是HBM(高带宽内存)。一颗H100配备80GB HBM3,仅内存成本就占芯片总成本的40%以上。HBM市场高度集中,海力士占大半份额,三星紧随其后,美光追赶。HBM产能扩张远跟不上AI芯片需求,近两年价格持续上涨。即便GPU设计出色,若HBM拿货难或成本高,整体芯片成本仍难下降。
还有先进封装。当前AI芯片几乎都采用CoWoS技术,该技术被台积电垄断。过去两年,CoWoS产能紧张是AI芯片供应链的最大瓶颈,台积电扩产速度直接决定英伟达、AMD及自研AI芯片厂商的出货节奏。
先进制程、HBM、先进封装这三大环节,占据AI芯片BOM成本的大头,且每个环节都被少数供应商垄断。本土GPU设计公司即便设计能力追上,也需面对相同供应链现状:流片依赖台积电、三星或国内追赶中的先进产线,HBM短期依赖韩国厂商,先进封装也以台积电为主。这意味着,国产GPU的物料成本短期内难低于英伟达,甚至可能因采购量小、议价能力弱而更高。
更关键的是,英伟达GPU不仅是芯片,更是完整系统。从NVLink互联到InfiniBand网络,从CUDA软件栈到开发者生态,英伟达用十几年构建了“软硬一体”壁垒。购买英伟达GPU,部分费用是为“确定性”买单——确保能用、性能达标、快速部署,这种溢价初期难以避免。
03 窗口期已至,但挑战更严峻
国产GPU是否就此无机会?
恰恰相反,2025-2026年是国产GPU的关键机遇期,核心原因是美国对华出口管制持续加码。
这种压力客观上为国产GPU打开了“被迫导入”窗口:过去国内AI公司选英伟达是性能与生态的最优解,如今最优解被人为切断,国产GPU从“备选”变为“必选”。
2025年下半年起,国内头部互联网公司与运营商加速部署国产算力集群:华为昇腾910B及后续型号在部分场景规模化落地;沐曦、壁仞、天数智芯等积极推动产品进入生产环境;百度昆仑、阿里平头哥自研芯片也在内部大规模应用。
但挑战同样突出:
第一是性能差距。国产GPU单卡算力快速追赶,但集群效率、互联带宽、软件栈成熟度仍落后英伟达。3000卡的国产集群,有效算力可能仅为同规模英伟达集群的60%-70%,完成相同训练任务需更多卡、更长周期、更复杂并行优化,最终转化为成本。
第二是软件生态的“隐形门槛”。CUDA经十几年积累形成庞大开发者生态,算法工程师从校园开始学习CUDA,开源模型默认适配CUDA,算子库、调优工具、分布式框架均以CUDA为基准。国产GPU厂商虽推出自有软件栈(华为CANN、沐曦MXMACA、壁仞BIRENSUPA),但生态建设需时间与投入,还需用户“多走一步”。
第三是供应链“天花板”。国产GPU制造依赖国内先进制程产线,而国内产线在产能、良率、成熟度上与台积电有差距;HBM方面,国内尚无HBM2E以上产品量产能力,短期仍依赖韩国供应商。即便设计能力提升,供应链自主可控程度仍有限。
回到沐曦的成本拆解图,还有一个隐藏信息:成本优化空间不仅在GPU本身。供电散热占110亿(20%),若压缩30%可节省33亿美元,远超电费总额。液冷是当前最确定的优化路径。
传统风冷数据中心PUE(电源使用效率)为1.4-1.5,液冷可降至1.1以下,不仅降低电费,还能大幅缩减供配电与散热系统的初始投资。随着GPU功耗突破1000瓦,风冷接近物理极限,液冷正从“可选”变“必选”。2025年下半年,国内运营商与云厂商新建智算中心的液冷渗透率明显提升,有望将供电散热占比从20%降至15%甚至更低。
网络占50亿(9%),超大规模集群中网络成本随GPU数量超线性增长——GPU需高速互联,传统以太网在“大象流”“多打一”场景效率低。英伟达NVLink与InfiniBand的壁垒,很大程度源于集群互联优势。但2025年,基于以太网的超大规模互联方案逐渐成熟,Ultra Ethernet Consortium(UEC)的推进为降低网络成本带来希望,若路径走通,网络占比有望进一步压缩。
存储占40亿(7%),AI训练要求海量小文件读写与高带宽吞吐,传统分布式文件系统效率低。2025年以来,国内存储厂商在AI原生存储上的探索值得关注——通过软硬协同优化,可在同等性能下降低存储节点配置需求,压缩成本。
这些系统级优化有一个共同逻辑:需对GPU集群有深入理解与掌控能力,并非简单堆砌GPU,而是从芯片到系统、硬件到软件的垂直整合。
这也是英伟达、谷歌、亚马逊向“云-芯-端”一体化发展的原因:谷歌TPU为自家TensorFlow框架设计,亚马逊Trainium和Inferentia深度绑定AWS服务,微软虽大量采购英伟达GPU,仍自研芯片并与英伟达在系统层面深度合作。
国内情况类似:华为昇腾的优势之一是同时拥有芯片设计与通信技术积累,能在芯片互联与集群组网层面深度优化;阿里平头哥、百度昆仑与各自云业务深度协同,也是同样逻辑。
04 没有捷径可走
那张成本拆解图的价值,不仅在于拆解成本结构,更在于打破思维惯性。
“靠电价优势实现AI算力赛道突破”的说法有市场,是因为符合“资源换优势”的旧逻辑——过去部分产业靠资源禀赋实现追赶。但AI算力本质是技术密集、资本密集、系统密集型产业,资源禀赋的权重被大幅稀释。
真正的竞争优势来自:GPU核心技术突破能力、先进封装与HBM等关键环节的供应链掌控力、软件生态的长期积累、系统级架构创新能力,以及商业模式与运营效率的持续进化。
这些都非易事,也无法靠“低价”获得。
过去两三年,国内智算中心建设迅速,但不少项目延续传统IDC模式——以园区建设、硬件部署、算力租赁为核心。然而AI算力与传统IDC商业逻辑差异明显:GPU硬件迭代快、折旧周期短,项目收益高度依赖算力利用率。若仅将GPU作为标准化租赁资源,缺乏底层算法优化、集群调度与运营能力,高昂硬件投入可能难以转化为持续稳定收益,还会带来较大资产压力。
好在产业界正回归理性。2025年下半年起,互联网大厂与运营商在算力投资上更务实——不再单纯“堆卡”,而是关注实际有效算力、单位算力成本及软硬协同的优化空间。
没有捷径可走。这句话虽老套,但在AI算力赛道上,仍是残酷且真实的底层逻辑。
本文来自微信公众号 “半导体产业纵横”(ID:ICViews),作者:方圆,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




