阿里打骨折,百度不要钱!

05-25 00:20

下面的文章来源于科创板日报 ,作者黄心怡


科创板日报.


《科技创新板日报》由上海报业集团主办,财联社出品。专注于新兴产业和资本,是科技创新板、新兴产业和资本的重要舆论前沿,深度覆盖新一代信息技术、半导体、生物医药、新能源、新材料、基金等。,并提供媒体、数据、城市、投资银行等产品体系服务。


昨日,阿里云抛出重磅炸弹,通义千问GPT-4级主模Qwen-Long,API输入价格从0.02元/千tokens下降到0.0005元/千tokens,即0.5%/千tokens,狂降97%。也就是说,1元钱可以买到200万tokens,相当于5本《新华字典》的字数。


随后,下午,百度智能云宣布文心大模型两大主要模型完全免费。今年3月推出的两款轻量级大型ERNIE Speed、ERNIE Lite,支持文本长度的8K和128k。此前,在字节豆包宣布全网大模型最低价后,阿里云昨日宣布主模型降价97%,降价后约为GPT-4价格的1/400,穿透了全球底价。


值得注意的是,本月智谱AI、字节跳动的大模型也宣布降价。其中,字节豆包的主要模型定价为0.0008元/千Tokens,即0.8%/千tokens,被视为推动大模型定价进入“厘时代”。


业界分析认为,这一轮大模型降价潮,是各厂商希望进一步占领市场,从而加速AI应用的商业化。


9款商业化和开源系列模型降价


Qwen-Long是通义千问的长文本增强模型,其性能与GPT-4相比,前后文长度最高1000万。除输入价格降至0.0005元/千tokens外,Qwen-Long的导出价格也降低了90%到0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet和Ernie-每千tokens的4.0输入价格分别为0.22元、0.025元、0.022元和0.12元。


通义千问的降价涵盖了9个商业化和开源系列模型。不久前发布的通义千问旗舰大模型Qwen-Max,API输入价格降至0.04元/千tokens,降至67元%。


不久前,智谱AI、字节跳动旗下的火山引擎也纷纷宣布降价。五月十一日,智谱AI大模型的新注册用户获得额度由500万tokens提高到2500万tokens,个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens下降到1元/百万tokens。GLM-3 Turbo Batch 批量处理API也便宜了50%,价格是1元/200万tokens。


十五日,火山发动机宣布豆包Pro 32k模型的价格是0.8%/千tokens。另外,豆包Pro 128k模型的价格是5厘钱/千tokens。


对于这一轮降价潮,很多行业分析指出,大模型已经开始从“卷大模型技术”向“卷大模型应用”转变,但推理成本过高仍然是制约大模型大规模应用的重要因素。


阿里云智能集团高级副总裁、公共云事业部总裁刘伟光在武汉AI智能领袖峰会上表示:“这次阿里云大幅降低了大模型推理的价格,只是为了加快AI应用的爆发。我们预计2024年大模型API的日调用频率将超过100亿。”


无论是开源模式还是商业模式,刘伟光判断,公共云 API将成为企业使用大型模型的主流方式。"云调用成本远远适用于私有云部署。公司在追求更大尺寸的模型时,要面对GPU采购、软件部署、网络费用、电费、人工费用等。伴随着大型模型规模的扩大,私有化部署的成本和复杂程度也越来越高。为了建立计算网络集群,去年也有不少公司考虑购买数百台GPU服务器。但是今年许多企业已经放弃了自建百台集群的大型研发。


“模型推理是最重要的长期机会之一,它将成为云业务的关键驱动力,”百度创始人李彦宏也在业绩会上表示。四月份,文心大模型API每天调用2亿次。去年12月,数据达到5000万次。


谁能抓住模型推理的市场机遇?


在接受《科创板日报》记者采访时,多位大模型行业专家对通义千问的降价幅度进行了评价,“力度很大”。、"很便宜"。


然而,也有云计算架构师向记者指出,实际效果仍然取决于“疗效”。


「市场上的大型模型太多了。疗效好,多少不贵;如果疗效不好,多少就贵了。」


记者了解到,目前头部企业会选择多种模式进行访问,在不同的应用领域选择更合适的模式,这意味着大型模型制造商之间的竞争非常激烈。


比如小米的人工智能助手“小爱同学”在接入文心大模型API的同时,也宣布与阿里云通义大模型合作,加强其在图片生成、照片理解等方面的多模态AI生成能力。


在今年第一季度发布的财务报告中,阿里和百度都提到了生成式AI对收入增长的积极影响。百度的智能云收入为47亿元,同比增长12%,其中生成式AI的收入占6.9%。据估计,百度第一季度生成式AI的收入约为3.24亿元。


阿里集团CEO吴泳铭在阿里财报电话会上表示,预计今年下半年云业务将恢复双位数增长,收入增长主要来自AI新产品。对于大模型的未来目标,吴泳铭表示,“我们将与阿里云先进的AI基础设施合作优化“通义千问”模型,为中国开发商或中国企业提供AI能力强、性价比高的AI大模型推理服务。”


开源闭源路线之争


值得注意的是,百度和阿里在模型是否开源方面选择了完全不同的路线。


四月底,阿里云开源了Qwen1.5-110B的1100亿参数模型。到目前为止,通义开源大模型的下载量已经超过了700万。


“通义的开源模型广泛应用于中国世界的开发者。当开发者使用阿里巴巴云的开源模型,需要在线部署应用时,自然会选择阿里巴巴云的服务。”吴泳铭说。


在百度方面,李彦宏多次宣传闭源的优势。Create 在2024百度AI开发者大会上,他曾直言“开源模式将越来越落后”。五月十五日,百度还宣布:“闭源大模型 公共云已成为全球AI市场的主流趋势。“闭源大模型” 与开源大模型相比,公有云可以实现性能更好、成本更低的综合效果,从而促进AI应用的生态繁荣。


目前,国际制造商在开放和关闭源的路线上有自己的侧重点。比如OpenAI的GPT-4模型采用闭源模式,而Meta则选择完全开放源码。其他大型公司开放模型“低版本”,关闭参数较高的模型。比如谷歌Gemini多模式模式闭源,今年2月宣布开源单模式Gemma语言模式。


中国IDC研究总监卢言霞表示,未来是开源还是闭源。这与头部企业的选择密切相关。目前这个领域还有很大的不确定性。


一位大型青年学者告诉记者,开源和闭源的路线各有特色,但是开源肯定更能促进行业的发展。


艾瑞咨询在一份AIGC产业报告中分析,大型技术前沿厂商会选择闭源或逐步从开源走向闭源,以保证模型的创新性、稳定性和安全性,以建设自己先进的模型堡垒和技术环城河的商业考虑。而且开源可以促进众多开发者和研究者的创新,从商业角度加快大模型的商业化进程和落地效果。艾瑞咨询认为:“未来,开源与闭源的大模型将共存并互补。”


原题:“阿里打骨折,百度不要钱!”


阅读原文


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com