大型“掘金卖铲”业务,AI 最好的机会来到Infra?
在19世纪的淘金热中,最赚钱的不是挖金矿,而是卖铲子和牛仔裤的人。就像卖铲子的人成为淘金热中最大的赢家一样,在当今的AIGC时代,AI Infra也扮演着类似的角色。
若采用云计算三层框架进行比较,AI Infra类似于PaaS级别,它是一个中间层基础设施,包括硬件、软件、工具链和优化方法等。,为大型应用开发提供一站式模型计算率部署和开发工具平台。计算率、算法和数据可以作为IaaS级别,各种开源和闭源模型是模型时代SaaS的新演变,即MaaS。
伴随着大模型应用的进程不断加快,AI 进一步释放了Infra的价值潜力。中金数据预测,目前,AI Infra产业正处于快速增长的早期阶段,未来3-5年,各细分赛道空间将保持30%的快速增长。
在大型模型进入大型应用落地阶段时,提供大型模型训练、部署和应用所需的基础设施成为关键环节,AI 在大型应用爆发背后,Infra成为“掘金卖铲”的最佳业务。
01 解锁AI生产力的中台方式
从ICT行业的演变轨迹来看,三层架构似乎是命运的终极场景。在传统的本地部署阶段,操作系统、数据库、中间件等基础软件可以通过调整硬件交互、存储系统数据、网络通信调度等功能,解决底层硬件系统的复杂问题,让上层应用开发者致力于创新领域模型。
IaaS也形成了云定义一切的时代。、PaaS、PaaS层提供应用开发环境和数据分析管理等服务,是SaaS协同进化的经典结构,为云计算加速渗透奠定了坚实的基础。
经过漫长的蛰伏期,AIGC按下了人工智能通用化进程的快进键,整个行业在飙升的氛围中迅速重构。计算率和应用无疑是最耀眼的主角,但它们之间的差距堪比一个障碍,大模型面临着“漂浮”或“踩空”的风险。
从这个意义上说,AI Infra就像一座桥,可以承担PaaS曾经扮演的类似基础软件或角色——通过构建新的软件栈和综合服务,赋能挖掘潜力,优化模型,开发应用程序,成为连接率和应用程序的中流砥柱。
AI Infra包含了所有与开发部门相关的工具和程序。随着云计算的不断发展,DataOps逐渐衍生出来、ModelOps、DevOps、MLOps、XOps的概念,比如LLMOps。
从宏观的角度来看,所有的XOps本质上都是为了提高部署生命周期的效率。例如,DataOps提高了IaaS层存储和PaaS层数据处理的效率。DevOps、事实上,MLOps是为了提高PaaS层开发部署的效率,LLMOps是为了提高MaaS层的效率。
事实上,在AIGC发生变化之前,关于AI中台的理论和实践已经如火如荼地进行着。但当时的AI中台更像是一个功能复杂、做了很多“脏活”的“救火队员”。、“累活”,却很难得到上下游的认可。
大型模型为AI平台构建了更广阔的舞台,同时也使AI平台 Infra“掘金卖铲”的思路更加确定,从而获得可观的发展前景。相关机构预测,未来3~5年AI Infra产业将保持30% 快速增长。
就像“三明治”一样,两片面包间可以有无数种隔层选择,AI位于算率和应用之间。 同样不拘一格的Infra。广义而言,AI Infra包括人工智能基本框架技术,涉及大型模型训练和部署领域的各种底层设施;狭义上,基础软件栈就是AI。 提高算率算法,促进应用落地,是Infra的关键组成部分。
AI 相对开放的Infra定义为探索不同路径提供了更多的可能性。基于各自的资源优势和市场定位,行业内的资深厂商和新兴玩家都在积极拓展AI。 Infra的疆界,有许多做法值得借鉴。

02 AI Infra将是下一个应用热点?
与模型价值相比,卷AI应用已经成为行业共识。李彦宏坚信,数百万应用将诞生在基本模型之上,它们对当前业态的改造比从0到1的颠覆更重要。
现在AIAPP的供应越来越多,IDC在年初预测,2024年全球将出现超过5亿个新APP,相当于过去40年出现的APP总数。
最近,视频生成模型产品聚集在一起,快手的灵魂、字节跳动的梦想、商汤的Vimi集体亮相。此外,AI搜索产品和AI陪伴产品层出不穷。
根据InfoQ研究所的数据,2030年AGI应用市场规模将达到4543.6亿元,模型网络层的巨大机遇已经吸引了几乎各行各业的参与。
但是在大模型应用下,AI Infra成了它爆发的隐藏推手。
目前,大型产业链大致可以分为三个层次:数据准备、模型建设和模型产品。在国外,AI模型的产业链相对完善,构成了大量的AI Infra(结构)企业,但是这个市场在国内还是比较空白的。
率先找到清晰的赛道,在不确定的道路上迅速建立显著的里程碑,至关重要。AI Infra市场仍处于混乱期,每一个科技巨头都希望在自己的生态中形成一个闭环。
国内,巨头们都有自己的训练结构。
比如华为模型采用三层架构,底层属于一般大型模型,具有很强的鲁棒泛化性,是行业大型模型和针对具体场景和工作流程的部署模型。这个框架的优点是,当培训好的大型模型部署到垂直行业时,就不需要重复培训,成本只有前一层的5%~7%。
无论是CV,阿里都为AI打造了一个统一的基础,、NLP、或者文生图大模型都可以装进这个统一的底座进行训练,阿里训练M6大模型所需的能耗仅为GPT-3的1%。
百度和腾讯也有相应的布局。百度有覆盖50多亿实体的中文知识地图。腾讯的热门启动专业学习可以将万亿大模型的练习成本降低到冷启动的八分之一。
总的来说,虽然每个大厂商的重点不同,但主要特点是降低成本,很大程度上得益于“一手安排”的闭环训练体系,才能实现这一点。
另一方面,在海外,完善的AI产业链构成了大量的AI。 Infra公司。
假如AI应用程序被视为建造房屋,那么AI应用程序 Infra是一个提供水泥钢筋的施工队伍。AI Infra施工队的价值点在于,它是一个集成平台,可以打开下层的计算率芯片层和上层的AI网络层,让开发者一键调用,降低计算率成本,提高开发效率,保持模型的优秀特性。
使应用更加简单,使AI落地更加快捷,是AI。 Infra的使命。AI应用的市场可以说是多少,AI Infra有多少机会?
AI 一些Infra公司专门从事数据标记、数据质量或模型结构。这些企业的专业性可以让他们在效率、成本和质量上比大工厂自己做的更好。
举例来说,数据质量企业Anomalo就是Google 通过ML自动评估和通用数据质量检测能力,Cloud和Notion的供应商可以实现数据深度观察和数据质量检验。
这就像汽车行业的Tier一样。 1.通过专业分工,大模型公司可以快速构建自己的模型框架,而不需要重复造轮子,只需要整合供应商资源,从而降低成本。
然而,中国在这方面并不成熟。原因是:一方面,国内大模型的主要玩家都是大工厂,都有自己的培训体系,外部供应商几乎没有机会进入;另一方面,中国缺乏足够庞大的创业生态和中小企业,AI供应商很难在大工厂之外找到生存空间。
以谷歌为例,谷歌愿意与其数据质量供应商分享自己培训的数据结果,帮助供应商提高数据处理能力。供应商技能提高后,将为谷歌提供更多高质量的数据,最终形成稳定的发展。
国内AI Infra生态的不足直接导致大规模创业门槛的提高。如果把在中国做大模型比作吃一顿热腾腾的饭,那就必须从挖地种菜开始。
现在,AI 在2.0热潮中,“两极化”是一个重要特征。:最受欢迎的要么是大模型层,要么是网络层。类似于AI 相反,Infra的中间层是一个巨大的真空区域,也可能是下一个机会。
03 铁铲难卖,金矿难挖
尽管目前模型应用爆发,AI Infra层隐藏着巨大的业务。但对于这些做AI的人来说。 对于Infra公司来说,即使他们在自己的专业领域如此强大,面对潮汐的变化,他们仍然是脆弱的。
在AI领域,英伟达CUDA生态已经发展了20年,首先在CUDA上运行的是最先进的模型和应用。
每个硬件之间都有不同的界面,CUDA统一了不同界面之间的语言,让用户可以使用一套标准语言来使用不同的硬件。在模型开发过程中,开发者必然会在同一语言系统中趋同完成自己的开发。事实上,这构成了英伟达CUDA的薄厚生态。
目前,CUDA生态系统在AI算率市场占有90%以上的份额。但随着AI模型的标准化,模型之间的结构差异越来越小,不再需要调度各种尺寸的模型,英伟达CUDA的生态厚度越来越薄。
即便如此,英伟达也是算率市场的绝对王者。据业内人士预测,英伟达将是未来3~5年整个AI硬件提供商的绝对领导者,行业发展份额不低于80%。
对AI 对于Infra层的铲运厂商来说,外面有英伟达守矿商,他们堵在门口卖票和铲子。他们终于找到了一条进入金矿的小路,但他们发现里面的挖掘者已经习惯了“徒手”挖掘,不再接受新的铲运。
在中国,公司愿意为软件付费,大多习惯于集成服务。如果AI是AI,国内SaaS的投资已经降到了冰点。 单靠销售硬件或软件,Infra层厂商很难实现商业化。
随着AI应用的快速发展,未来谁能为多样化的使用场景提供高效便捷的大模型一站式部署方案,谁就有可能在这场竞争中获胜。其中,底层技术、中层平台、上层应用缺一不可。只有让各方面的能力得到更全面、更均衡的发展,才能在AI的道路上走得更远、更稳。
放眼未来,人工智能重塑千行百业的进程刚刚拉开帷幕,Al Infra制造的厚雪长坡有利于这条超级赛道的稳定和深远。今年,数据基础设施在统筹规划中已经“独立门户”,人工智能基础设施的战略地位也不远了。
本文来自微信微信官方账号“科技云报道”(ID:ITCloud-BD),作者:科技云报道,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




