八成风投注入AI基建狂潮,万亿账单待解:谁会是最终付费方?
当前,资本正以前所未有的速度疯狂涌入AI赛道,这样的涌入规模在人类商业发展史上都极为罕见。
根据统计数据,2026年第一季度全球风险投资总额已经攀升至约3000亿美元,创下了有史以来的最高记录,而其中八成资金都流向了AI相关企业。
这一轮融资狂潮里,三笔顶级超级融资就拿走了大部分资金:
OpenAI、Anthropic、xAI这三家头部AI公司合计拿到了1730亿美元融资,占了当季全球风投总额的近六成。
在此之前,全球资本从未如此集中地涌入同一条赛道,而这些资金最终几乎都流向了同一个方向:AI算力基础设施。
据The Information报道,Anthropic和OpenAI的算力采购订单,已经占了亚马逊AWS、微软Azure、谷歌云三大云厂商积压订单的一半以上。
但在算力这个终点面前,整个行业都在刻意回避一个核心问题:
目前AI产业已经堆积出万亿级别的算力订单,最终会由谁来为这些订单付钱?

AI竞争进入重资产时代
过去两年,AI行业讨论的核心一直是模型能力的高低,但现在行业竞争的筹码已经彻底改变。
如今头部AI玩家争夺的核心,变成了谁能掌握更多数据中心、更长期的芯片供应配额、更稳定的电力支持以及更低的推理成本。
最直观的信号就是,大模型厂商开始主动向上游布局争抢算力资源。
今年5月7日,Anthropic官宣和SpaceX达成合作,直接租下了Colossus 1数据中心的全部算力容量。
这个超算集群搭载了大约22万块英伟达GPU,能在一个月内为Anthropic新增超过300兆瓦的算力,直接刷新了AI行业的算力扩容记录。
而且这次合作不是常规的按需租赁,是整栋数据中心完全独占。
Anthropic之所以选择这么做,真实处境是它早就和亚马逊、谷歌、微软等厂商签下了大量长期算力合同,但这些合同都要等到2026年底到2027年才能交付,Colossus 1是少数能在短时间内交付可用算力的选项。
所以Anthropic最终选择了更贵但更快的方案,放弃了更便宜但交付更晚的选项。
这也意味着,在算力窗口期面前,成本已经不再是首要考虑因素,抢占时间才是。
行业头部玩家OpenAI的布局要更早。
它和软银、甲骨文联合发起的“星际之门”项目,总投资计划达到5000亿美元,目标是在美国全境建设总容量10GW的AI数据中心,这个规模大约是Colossus 1的33倍。
2026年4月,OpenAI官宣该项目已经提前数年完成了原定目标,目前已经签署了总计10GW的AI算力合同。
从这些动作不难看出,算力已经成为大模型公司的核心战略资产。
现在的大模型公司,已经从纯粹的软件公司,慢慢转变成越来越接近云厂商、电力企业、半导体公司的重资产参与者。
与此同时,云厂商也在向下游整合打包生态,绑定用户。
过去,云计算厂商之间竞争,主要比拼的是IT基础设施的能力。
但进入AI时代,云厂商想卖的已经不单单是GPU实例,而是一整套“算力+芯片+模型”的整合方案。
2026年4月,谷歌宣布将向Anthropic提供最高400亿美元的投资。
但投资只是这份交易的一部分,交易还有另一半核心条件:
Anthropic承诺未来五年向谷歌云支付2000亿美元,用来采购云服务和谷歌自研TPU芯片的算力,这个金额占到谷歌云披露收入积压的40%以上。
和英伟达生产的GPU不同,TPU是谷歌自主研发的AI芯片。
围绕TPU搭建的软件工具链,意味着客户一旦接入谷歌云TPU生态,后续想要迁移到其他平台的成本会非常高。
Anthropic和谷歌签下这份协议,也就直接锁定了未来数年的TPU算力产能。
这一系列交易的背后,是谷歌非常清晰的战略布局。
谷歌正在把云基础设施、TPU芯片和大模型打包成一体化方案,向企业客户提供无法拆分拆解的全栈服务。
在这个趋势下,云厂商也在往重资产方向转型。
过去云厂商卖计算资源,比拼的是价格;现在卖生态体系,比拼的是谁能让客户形成依赖,再也离不开自己。
大模型公司看起来依然站在行业聚光灯下,但云厂商已经在重新定义整个AI行业的游戏规则。
在大模型厂商和云厂商的双重加码下,AI产业的重资产属性越来越明显:行业资本开支已经进入军备竞赛级别。
路透社数据显示,微软、Alphabet、亚马逊、Meta四家科技巨头,今年预计会在数据中心和AI相关基础设施上投入超过6000亿美元。
这个数字意味着什么?
2019年,同样是这四家公司,年度资本开支加起来大约只有800亿美元。
七年过去,这个数字翻了将近8倍;但同期全球GDP的增速,远没有达到这样的增长量级。
这样的投资增速,已经彻底脱离了根据利润回报逐步扩大投资的传统商业逻辑。
科技巨头内部甚至为此造出了一个新词:战略税。
意思就是,即便算不清楚具体能拿到多少回报,甚至不确定能不能回本,但如果不投这笔钱,就一定会被淘汰。
恐惧,而不是对利润的预期,才是这场资本军备竞赛最核心的推动力。
现在的AI竞争,已经变成一场围绕数据中心、电力、芯片、云合同展开的基础设施战争。
巨头之间的算力圈地运动
当大模型厂商和云厂商同时向基础设施领域加码,二者的布局也开始相互交织碰撞。
翻开Anthropic的投资和战略合作名单,几乎能看到所有硅谷巨头的名字:谷歌、亚马逊、英伟达、微软全都在列。
四家本身互为竞争对手的公司,同时出现在同一家大模型公司的股权结构里。
放在五年前的硅谷,这种情况会被叫做利益冲突;但放到今天,已经是行业里的正常状态。
最有戏剧性的就是微软的操作。
微软已经是OpenAI最大的外部股东,转头却又向Anthropic承诺提供最高50亿美元的投资,同时还收下了Anthropic向Azure采购300亿美元算力的合作。
一家云厂商,同时押注两家直接竞争的头部大模型公司。
有分析师这样总结这种操作背后的逻辑:“这是一种‘怕输就先买下来’的投资策略”。
谷歌的处境更加微妙,Anthropic的Claude模型在企业市场,直接和谷歌自研的Gemini模型正面竞争,但谷歌却是Anthropic最重要的投资方之一。
同样的情况也出现在亚马逊身上。
它一边投资Anthropic,一边又在全球云市场和自己投资的对象一起争抢同一个客户。
在AI产业的资本版图里,过去竞争对手之间泾渭分明、相互搏杀的边界正在慢慢消失。
这背后其实都是同一个交易逻辑在起作用:
巨头给模型公司投钱,模型公司再用这笔钱向投资自己的巨头采购算力,钱从一个口袋出来,绕了一圈,又流回了原来的口袋。
举个例子,谷歌给Anthropic投钱,Anthropic再用这笔钱向谷歌采购云服务,谷歌云的收入因此大幅增长,Alphabet的估值得到支撑,进而才有能力开展下一轮投资。
亚马逊和Anthropic的合作条款也一模一样:
亚马逊承诺给Anthropic最高250亿美元的投资,作为交换,Anthropic承诺未来十年在AWS技术和算力上投入超过1000亿美元,还锁定了最高5GW的Amazon Trainium相关产能。
微软和OpenAI的关系就更不用多说,多年累计投资已经超过数百亿美元,而OpenAI几乎全部的算力需求都运行在微软Azure平台上。
就这样一个自我强化的循环慢慢形成,资金一直在一个封闭系统内部流转,从来没有真正流出这个体系。
到这里,整个行业的完整图景已经清晰显现:
模型厂商和云厂商在往重资产转型的过程中,通过投资和采购互相绑定,正在编织一张你中有我、我中有你的利益网络。
它们的首要目标不是短期盈利,而是在算力成为稀缺资源的窗口期里,尽可能多的圈占未来AI基础设施的垄断地位。
这是一场发生在科技巨头体系内的算力圈地运动,但这场运动产生的最终账单,到现在都找不到明确的承担者。
万亿账单,谁来最终买单?
现在这个资本内循环的体量已经大到无法被忽视。
据The Information报道,OpenAI和Anthropic两家模型公司的算力采购合同,已经占到四大云厂商超过2万亿美元积压订单的一半以上。
核心问题在于,如果采购算力的钱和卖算力拿到的钱都来自同一批主体,那这笔账最后到底要谁来支付?
有分析师直接指出,科技巨头财报上体现的增长,很大一部分并不是来自终端客户,而是“循环交易”堆出来的数字,也就是靠资本在体系内流转堆砌出来的增长。
国际货币基金组织IMF已经发出警告,认为这种循环式的AI融资可能会催生系统性风险。
更紧迫的是,就算抛开这些质疑不谈,最基础的商业算账已经算不通了。
GitHub Copilot就是一个非常典型的例子。
早在2023年,就有华尔街日报披露,微软平均每个月要为每位GitHub Copilot用户倒贴超过20美元,重度用户的单月亏损甚至高达80美元。
2026年4月,GitHub官宣从6月开始全面转为按实际使用量计费的模式。
过去十年,科技行业的增长公式一直是:补贴换规模,规模换垄断,垄断换盈利。
但在AI巨大的算力消耗面前,这个已经被验证过的公式失效了。
AI的推理成本会随着使用量同步增长,并不会因为用户数量增加而被摊薄。
OpenAI的账目更难算清。
ChatGPT周活达到9亿,付费用户超过5000万,但付费率仅仅只有5.5%。
这意味着每100个用户里就有将近95个完全免费使用,而OpenAI必须为每一次免费推理承担对应的算力成本。
Sam Altman早在2025年1月就公开表示,就算是定价200美元的Pro订阅,OpenAI依然在亏钱。
用户越多,亏损越大,这完全是一个和传统商业常识反向运行的怪圈。
据媒体援引市场估算,预计OpenAI 2026年全年亏损会达到140亿美元,到2028年累计亏损可能会达到440亿美元。
对比之下,Anthropic走出了一条不一样的路径。
Anthropic大约八成收入都来自企业客户,今年一季度年化收入同比增长约80倍,在企业生成式AI市场的份额领先OpenAI。
部分市场分析认为,因为Anthropic的收入结构更偏向B端企业,有可能会比OpenAI更早实现现金流打平。
但不管是OpenAI做C端规模,还是Anthropic做B端收入,都绕不开同一个核心问题:
AI公司不能只证明有用户用自己的产品,还必须证明用户越多,单位经济模型越好,才能进入正向循环。
这恰恰是当前AI繁荣最脆弱的痛点。
如果未来智能Agent真的能深入企业核心业务流程,那么这些云合同、数据中心和芯片采购就会变成下一代有用的基础设施投资。
但如果企业投入AI的投资回报兑现速度慢于预期,或者AI公司只能一直靠融资补贴推理成本,那今天堆积出来的海量算力订单,明天就有可能变成一条长长的风险链条。
OpenAI的首席财务官就曾经发出警告,如果营收增长不能提速,公司可能没办法履行未来已经签下的数据中心合同。
现在时间已经走到两种行业预判的裂缝之间,万亿资本还在不断涌入,但万亿级别的终端付费意愿却远远没有出现。
但在2026年5月这个时间点,整个行业都没有人讨论这种供需断裂的风险。
所有参与者都在加速推进这个资本循环,毕竟没有任何一个玩家敢率先停下来。
本文来自微信公众号“世界模型工场”,作者:世界模型工场,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




