大模型“618”开启,阿里:我降价!百度:我免费!

商界观察
05-23 17:58

5 月 20 日晚间,阿里云用一条 " 明天,又有事发生 " 的公众号贴文,放出了降价风声—— 21 日早上 10:00,通义千问模型家族宣布降价,开源和闭源均有不同程度的限免和降价政策。

 

其中,阿里云商业化的主力大模型 Qwen-Long,输入价格降幅甚至达到了 97%,价格从原有的 20 元 / 百万 Tokens,直降为 0.5 元 / 百万 Tokens。

 

这一价格,以 0.0003 元 / 千 Tokens 的微妙优势,击穿了 5 月 15 日字节刚刚公布的 " 豆包大模型 " 的输入地板价:0.8 元 / 百万 Tokens。

 

然而,低价之王刚易位 4 小时,百度就前来 " 掀翻了价格地板 " ——文心一言两款模型 ERNIE Speed 和 ERNIE Lite,直接宣布 " 免费 "。

 

在 2023 年,模型的降价仍然遵从着训练效率优化和规模效应的自然趋势。

 

2023 年 11 月,百度的大模型平台 " 文心千帆 ",曾经调整了相同汉字数量对应的 Token 数,变相将模型的价格降低了 20%。与之对应地,是文心大模型的推理成本降低到了原来的 1%。

 

但 2024 年的模型价格战,开打得几乎毫无预兆。

 

价格断崖的开端,是一条名为 "DeepSeek V2" 的鲶鱼。DeepSeek 的出品机构 " 深度求索 " 的背后,是坐拥过万张英伟达 A100 GPU 的量化基金——幻方量化。

 

5 月 6 日,深度求索发布了 DeepSeek 大模型的新版本 V2。作为模型领域的 " 黑马 ",2360 亿参数规模的 DeepSeek V2,模型性能处于国产第一梯队,定价也没有什么包袱,支持 32k 上下文的模型 API 定价仅 1 元 / 百万 Tokens(计算)、2 元 / 百万 Tokens(推理),是彼时百度文心 4.0-8k 推理价格(120 元 /Tokens)的 1/60。

 

此后,大模型独角兽智谱 AI 率先加入了价格战。5 月 11 日,智谱 AI 旗下的 GLM-3-Turbo,价格从 5 元 / 百万 Tokens,降低到了 1 元 /Tokens。

 

" 黑马 " 搅局模型定价的另一面,则是更具性价比的小模型被重提。

 

不少从业者对智能涌现表示,小模型的潜力还没被完全发掘,完全可以通过数据治理、效率优化等策略,以小博大,这对于下游客户而言也是更有性价比的选择。

 

2024 年 4 月 22 日,Meta 发布的开源模型 Llama-3,就以 70B 的 " 小参数 ",和超过 20 倍参数量的 GPT-4 在性能上掰手腕。紧接着,微软又发布了 3.8B 的模型 Phi-3 mini,号称性能对标 GPT-3.5,还能在苹果 A16 芯片上流畅运行。

 

对于下游客户而言,昂贵的大模型不够 " 香了 "。大厂大模型的集体降价,也是在顺应市场选择。

 

不过,即便是价格砸穿地板,大厂们依然有利可图。大模型只是门面,大厂的渔翁之意,是通过模型卖自己的云服务。

 

以拥有自己的计算集群的幻方量化为例,据 SemiAnalysis 计算,在其算力服务力利用率最高的情况下,DeepSeek 每台服务器每小时收益可达 35.4 美元,毛利率在 70% 以上。

 

但对于被迫卷入价格战的小厂商和初创公司而言,营收的压力将会更大。2024 年 5 月 21 日,零一万物 CEO 李开复就直言,不参与价格战,最新模型 Yi-Large 的 API 定价仍为 20 元 / 百万 Tokens。

 

未来,小厂们唯有在单点或多点性能上和竞争对手们拉开差距,才能分到蛋糕。

 

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com