AI算力需求激增 云厂商与AI企业集体开启涨价模式
曾有人调侃:“要搞垮一家AI公司,只需上调其调用的API接口价格。”尽管这种极端情况尚未发生,但作为AI领域“卖铲人”的云计算巨头与大模型厂商,已纷纷启动涨价策略。
近期,阿里云与百度智能云两大行业巨头同步宣布涨价,针对AI算力、存储等相关产品上调价格,最高涨幅超30%。促使这两家曾深陷“价格战”的云厂商逆势提价的核心原因,是持续攀升的算力需求给核心硬件及相关基础设施成本带来了巨大压力。
这并非个例。在此之前,腾讯云智能体开发平台已宣布优化部分模型的计费策略,大模型厂商智谱也上调了旗下大模型的API调用价格。更早之前,今年亚马逊云、谷歌等国际巨头已悄然涨价。
追根溯源,AI市场中活跃的“小龙虾们”(以OpenClaw为代表的智能体应用)难辞其咎。
2026年被称为“AI应用元年”。自今年年初起,一款可本地部署的AI智能体OpenClaw,让用户见识到AI在工作场景中的强大能力,普通用户争相尝试,大厂也纷纷跟进,其带来的冲击不亚于几年前的ChatGPT。
AI应用爆发的背后,是对云服务器与大模型调用的高度依赖。指数级增长的Token产生的成本账单,让此前靠免费或低价维系用户的大模型厂商最先感受到压力,这种压力随后传导至AI算力核心的云服务厂商和大模型服务商。
当前的涨价主要源于短期算力缺口,而表象之下,是AI正逐渐成为刚需生产力。未来,不仅企业用户,专业个人用户也需为Token付费。
云厂商与AI厂商开启涨价周期
3月18日,百度智能云官网发布AI算力、存储等产品调价公告。公告称,自4月18日起,AI算力相关产品服务价格上调约5%-30%,并行文件存储等价格上调约30%。
调价原因是受全球人工智能应用快速发展影响,算力需求持续攀升,核心硬件及相关基础设施成本显著上涨。为保障平台长期稳定运行与服务质量,百度智能云对部分产品价格进行结构性优化。
同日,阿里云官网也发布涨价公告,平头哥真武810E等算力卡产品价格上涨5%—34%,文件存储CPFS(智算版)上涨30%。原因是全球AI需求爆发、供应链涨价,导致行业核心硬件采购成本显著上升。
感受到算力成本压力的还有腾讯云。
腾讯云此前宣布自3月13日起调整智能体开发平台部分AI模型的计费策略,本次调整主要涉及两类变更:模型价格调整与公测模型结束免费。
根据公告,具体安排为:一是公测模型结束免费,GLM 5、MiniMax 2.5、Kimi 2.5模型将于3月13日结束免费公测,转为正式商用服务;二是对混元系列模型Tencent HY2.0 Instruct与Tencent HY2.0 Think服务进行涨价,部分模型涨幅超4倍。

此外,腾讯云还宣布将于3月18日起,对视频处理、视频转码、综艺视频片段拆分等3款插件启动商业化计费,从免费提供转为套餐付费模式。
显然,在小龙虾智能体爆火后,Token消耗翻了四倍多,腾讯云也难以承受成本压力,此举是为了将价格拉回合理区间。
至此,国内三大云巨头均已启动涨价策略。今年1月,亚马逊AWS宣布对用于大模型训练的EC2机器学习容量块实施15%的价格上调。同月,谷歌云对CDN Interconnect、Direct Peering等数据传输服务价格进行了大幅调整。这与云厂商“价格战”的市场印象形成了一定反差。
与此同时,大模型厂商也已上调大模型API调用费用。3月16日,智谱在发布最新大模型的同时,将GLM-5-Turbo的API价格上调20%。而在一个月前,智谱在正式推出新一代旗舰模型GLM-5的第二天,就上调了GLM Coding Plan套餐价格,其中中国区涨价30%,海外版涨价超100%。一个月内两次涨价,使得智谱新一代大模型较上一代产品的涨价幅度达到83%。
自云计算商用以来,持续降价在用户看来是物理规律和边际成本等因素共同作用的必然结果。大模型也类似,早期凭借低价甚至免费吸引用户,随着算力效率提升来降低边际成本。
两年前,包括阿里云、百度云以及腾讯云等国内主要云厂商纷纷卷入价格战,行业进入“以价换量”阶段。尤其是在大模型爆发前期,云厂商需要通过价格战吸引开发者及企业用户入驻。
但云厂商的这种默契,被智能体应用的突然爆发打破。
AI应用爆发 算力消耗猛增
这一切的“元凶”,正是那只“小龙虾”(OpenClaw)掀起的AI应用普及浪潮。
过去几年,AI的能力升级有目共睹。从ChatGPT开始,市场对人工智能的想象力逐渐释放。国内科技产业界也卷入大模型开发,试图从聊天机器人中发掘更多可能,机器人、工作助手、智能搜索等行业都开启了变革。如今OpenClaw的出现,再次拓展了人类对AI的认知,AI正真正开始介入普通人的工作。
据了解,OpenClaw可部署在本地设备(如电脑、服务器),支持通过通讯软件(如微信、Telegram)下达指令,实现文件管理、邮件发送、网页操作等自动化任务。用户可自定义技能模块(Skills),赋予AI数据分析、内容创作等特定能力。
从技术原理来看,OpenClaw本身不依赖特定大模型,需接入外部大模型完成指令理解和任务执行。它通过“规划-执行-观察”循环模式,结合大模型能力实现复杂任务自动化。
这意味着,以OpenClaw为代表的智能体和众多AI应用,将大模型带入了推理时代。
与之前的对话式通用大模型不同,OpenClaw以任务为导向,通常涉及多轮理解、任务拆解、工具调用、状态衔接、时间触发和持续执行的长链路工作流。这使得智能体在实际场景中会反复消耗Token。
数据显示,OpenClaw用户的单日人均Token消耗量是传统聊天用户的20-50倍。“小龙虾”爆火后,国内AI模型调用量自春节后持续飙升,阿里云百炼平台在1-3月创下历史最高增速。目前中国主流大模型日均Token从2024年初的1000亿飙升至2026年的180万亿,谷歌月处理超1300万亿,字节、阿里等平台调用量同比增长10倍以上。
因此,以“开源免费”吸引用户的OpenClaw,实际使用成本远比想象中复杂,AI应用的运转也开启了Token时代的新格局。
AI全民化普及 推动巨头策略转向
在AI应用引发的暂时性算力缺口影响下,云厂商与大模型厂商被迫转变策略。
Token在新一轮AI潮流中占据了重要地位。Token即词元,是大语言模型处理信息的基本单位,指数据进入模型前,经切分、编码或量化得到的基本处理单元,如文本子词和图片像素方块。AI每一次接收和处理人类信息,背后都是Token的“燃烧”。
如今,AI产业已将Token置于前所未有的重要位置。
3月16日下午,阿里巴巴宣布成立Token事业群,由CEO吴泳铭直接负责,阿里将全面进军智能体AI时代。该事业群的核心目标是“创造Token、输送Token、应用Token”。
数小时后,英伟达CEO黄仁勋在GTC 2026上也提出了一套Token经济学,他指出在AI产业中,数据中心正从训练模型的场所,转变为生产Token的工厂。
如果说移动互联网时代数据流量是行业晴雨表,那么在AI时代,Token就是风向标。
“小龙虾”爆火的背后,是专业人士看到了智能体“干活”的新奇之处以及对高效率的渴望。OpenClaw也在中国带火了一个“虾圈”,云端、移动端各类“虾”层出不穷,腾讯甚至在半个月内将旗下QQ、微信、企微和元宝都作为“龙虾”部署渠道,打造了智能体矩阵。
由智能体普及带来的算力供不应求开启了涨价周期,这似乎成为云厂商新一波红利的开始。但实际上,这只是云厂商暂时性的供需错配。早期大模型产品不断推新,“训练”成为云厂商最主要的业务。而到了AI应用阶段,推理成为主角,云厂商早期因部署大量训练芯片而在推理环节面临冗余挑战,才导致“小龙虾们”的算力需求“不够吃”。
当Token效率问题暴露后,接下来需要从大模型底层进行进化升级,并探索新时代Token经济的新商业模式。
此前,智谱推出基于GLM-5-Turbo的“龙虾Claw套餐”,包含个人版和Team版。企业可通过Team版,根据实际员工规模灵活订阅,以可预期的成本实现Token的充分保障以及AI员工的稳定在线。
随着智能体应用的真正落地,成熟的AI生态正在形成。未来,当上游云厂商看到下游活跃的无数只“龙虾”,或许会重新定义自己的角色。
本文来自微信公众号“猎云精选”,作者:邵延港,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




