180天,苏中小城的国产算力破局之路
本文来自微信公众号:观网财经,作者:陈济深
春节前夕,江苏兴化,一条148米长的生产线正进行最后的试运行调试。
这是国内目前最长的直通式算力服务器产线——从裸板上线到整机下线,一台4U 8卡算力服务器走完全程,满产时仅需5分钟。服务器下线后,要经历连续三天三夜满负荷运行、模拟真实算力中心极端工况的老化测试,之后发往承德、石家庄、兴化等地的万卡集群项目,成为国产智算中心的基石。

算力服务器组装生产线
“生产一台服务器的时间,和酿一瓶酱油差不多,”汉腾科技董事长王皓霆对观察者网说,“以前讲深圳速度,现在我们叫汉兴速度。”
兴化是座以不锈钢和健康食品闻名的苏中小城,历史上没有算力和AI产业基础,但王皓霆看中的正是这种“白纸”状态——无历史包袱,地方政府全力配合,基建到投产的速度被压缩到极致。这条投资11亿元、预计年产10万台的算力服务器产线,从签约到投产仅用180天。
产线投产的时间,恰好赶上国产算力需求爆发的临界点。
工信部数据显示,随着我国AI行业快速发展,智算规模已达1590 EFLOPS。2026年被产业界视为国产算力规模部署元年,字节跳动、腾讯、百度对国产算力服务器的导入目标普遍较上一年翻倍。在国际地缘复杂的背景下,国产算力自主可控的紧迫性更显突出。
在此背景下,观察者网春节前走访了江苏兴化汉腾科技产线现场和无锡太初元碁硬件研发中心实验室。兴化这条148米产线上的故事,不只是一家企业的投产事,更是中国国产算力产业链从“能用”迈向“规模化部署”的缩影。
“拖拉机先开路,路好车自优”
在产线上,观察者网提出一个常被讨论的问题:国产算力制程并非全球顶尖,面对行业快速迭代,市场会买单吗?
王皓霆打了个比方:“国家修了国道,没必要只跑法拉利。”
全球最先进制程的芯片是“法拉利”,但国道不是为法拉利单独修的。王皓霆认为,目前8到12纳米制程的芯片,足以覆盖未来两到三年的主流算力需求——真正可能闲置的,反而是那些远超当前应用场景的过高制程产品。
“不是说先进制程不重要,而是现阶段我们的‘路’——应用场景和基础设施——还没到需要跑法拉利的程度。先让拖拉机跑起来,把路跑通,车自然会升级。”王皓霆解释。
事实上,“拖拉机”已跑出成绩。
监控全球大模型实际调用的平台OpenRouter最新数据就是明证,春节期间全球Token调用量前十中,中国模型占四席、份额过半,支撑这些模型运行的,相当一部分是基于国产算力的推理集群。市场并未因制程不最先进而拒绝国产算力,相反,当模型运行良好,用户根本不关心底层芯片是几纳米——他们在意的是响应速度和调用成本。
这种务实逻辑在兴化产线得到体现。这里生产的服务器搭载龙芯3C6000处理器和太初元碁自研的T100 AI加速卡——对当前算力需求来说够用、管用,完全自主可控,供应链稳定,性价比合理。用王皓霆的话说,现在要做的不是造法拉利,而是让足够多的拖拉机上路。
在距兴化约200公里的无锡惠山,太初元碁硬件研发中心实验室里,科研人员正进行关键工序:将国产AI芯片测试、封装成AI加速卡,再插装到对应服务器中,进行大规模软硬件协同调试。至此,服务器初步具备为大模型提供AI算力的能力。
太初元碁的技术路线与国内主流GPGPU架构厂商不同。它脱胎于国家超级计算无锡中心和清华大学团队,采用异构众核架构——简单说,不追求单一芯片的绝对性能,而是通过集成不同类型计算单元,让系统整体算力最大化。
太初元碁首席产品官洪源对观察者网表示:“异构的核心是将不同类型、不同特长的算力有机系统化结合”,而非“简单堆积不同处理器”。
这种思路呼应了王皓霆的“拖拉机论”:不追求单点最强,而是系统最优。
这条路已开始跑通。2026年初,基于国产芯片训练的AI大模型密集落地:智谱联合华为开源的GLM-Image成为首个依托国产芯片实现全程训练的SOTA多模态模型;中国电信开源的千亿级星辰大模型也在上海临港国产万卡算力池完成全流程训练。
国产算力不再是实验室样品,而是在承担真实训练任务。
“算力服务器不是拼积木,是系统工程题”
很多人认为算力服务器像拼积木一样把芯片插进机箱,实际并非如此。
在产线上,王皓霆指着一台正在组装的4U服务器解释:“算力服务器的核心技术在适配。一是CPU和GPU之间的适配,二是内部线路、冷却方案的适配。不同芯片用不同元器件适配,性能会有差异。”
他打了个更形象的比方:“四缸汽车和八缸汽车,不是互换发动机就能无缝运行。”
这意味着,算力服务器内部,CPU负责调度,GPU负责加速计算,供电方案影响算力释放效率,冷却方案决定芯片能否长期稳定运行——都不是简单拼装,而是深度耦合的系统工程。“也能通过电和冷却方案提升算力,这和大家以为的‘芯片决定一切’不一样。”
这也是汉腾选择联合龙芯、太初元碁、台达组成“国产梦之队”的原因。龙芯3C6000提供完全自主可控的CPU,王皓霆称它为“全汉字字典”,从指令集到微架构全自主研发;太初T100提供AI加速卡;台达提供电源和冷却方案——三者需大量适配和调试,才能让服务器释放最大算力。
这也说明,国产算力服务器的壁垒不仅在单一高精尖技术,更在打通产业链各环节、协同起来的系统集成能力。除了部件突破,各环节的适配磨合,也需要“系统集成者”。
这道系统工程题,放大到集群层面,难度再上一个量级。
“外界常说万卡万卡,好像一万张卡就是数量。其实万卡是难度标准,不是体量标准。”王皓霆对观察者网说。
一万张卡意味着数千台服务器、数万条高速互联线路、庞大的供电和冷却系统,以及复杂的软件调度——单台服务器的适配难题,在集群层面被放大数千倍。
王皓霆透露,汉腾已签署五大万卡集群建设合作协议,分布在承德、石家庄、兴化等地,面向金融、医疗、物流等行业场景。“先让自己的模型用自己的卡跑起来,了解实际流程才能最终实现国产替代。”
“电没增,算力就增了”
当外界目光聚焦芯片厂的“纳米之战”时,算力产业在物理世界撞上另一堵墙——电力。
王皓霆算了笔账:传统通用服务器时代,单机柜功率超12千瓦的很少。现在,一台4U 8卡智算服务器满载功耗近5.4千瓦,一个机柜塞8台,轻松突破40千瓦。这意味着,过去数据中心的配电网络、变压器乃至整体能耗指标(PUE),都面临“超载”瘫痪风险。
因数据中心高能耗,各地政府对其电网容量管控趋严——智算中心能拿到的总电量几乎是固定的。
芯片制程短期内按节奏推进,总电量也加不上。怎么办?
汉腾联合全球电源管理巨头台达,研发了SST技术(800V直流直供)。传统机房里,电从市电到芯片,要多次交直流转换,每次转换都有热损耗——这些热量不产生算力,却消耗电费和冷却资源。800V直流直供的逻辑很简单:减少转换环节,让电更“直”地到芯片。
在太初元碁的方案中,这项供电技术与自研AI芯片、高效液冷整合为“三位一体”系统:互联、供电、冷却的高密度集成。结果是,设备空间利用率较传统方案提升一倍,单机架可容纳128颗芯片,系统PUE降至1.15。
相比传统数据中心1.3到1.5的PUE,每降低0.1,万卡级智算中心一年省下的电费可达数百万元——更重要的是,省下来的每一度电、减少的每一分热损耗,都能转化为芯片开机时间。
在走访现场,王皓霆用朴素的话道出参数背后的逻辑:“你使劲算的时候,电没增加,算力肯定就增加了。”
在总电量固定的前提下,省下来的每一瓦,就是多赚的算力。当所有人讨论芯片晶体管数量和制程工艺时,一场藏在变压器和冷却液管路里的较量,正悄然重塑算力竞赛的底层规则。
“中国AI的优势在数据”
谈及中国算力产业如何走出自己的路,王皓霆给出了判断框架。
“美国是先有算力,再有大模型。我们拿到大模型,适配的是英伟达算力,现在要反过来——用自己的算力适配自己的模型。”
这是重要的认知差异。美国路径是“算力先行”:先有英伟达GPU集群,再有OpenAI的GPT系列。中国路径相反:先在英伟达算力上训练出有竞争力的大模型,现在要把底座换成国产算力——相当于在飞机飞行中换引擎,难度很大。
但王皓霆认为,中国有美国不具备的结构性优势。
“中美产业有个明显差异——美国优势在技术,我们优势在数据。12亿人每天产生的数据量,是美国人眼红的。”
数据是AI大模型的“燃料”。中国有全球最大规模的互联网用户群体,在电商、社交、出行、支付等场景每天产生海量数据,为大模型训练和优化提供天然素材。OpenRouter上中国模型Token调用量超六成的数据,从另一维度印证了这一点:庞大用户基数和丰富应用场景,不仅为模型训练提供素材,更在推理侧形成持续“飞轮效应”——用的人越多,模型迭代越快,调用量越大,对底层算力需求越旺盛。
中国可能暂时造不出最好的“发动机”(芯片),但有最丰富的“燃料”(数据)和最密集的“公路网”(应用场景)——路上已跑满“拖拉机”。
太初元碁首席产品官洪源也持类似观点。他对观察者网表示,目前初代AI加速卡内,单颗芯片算力可支持AI大模型同时处理100至500个并发问答任务。面对AI大模型爆发式增长的算力需求,实验室近期研发重点聚焦在算力性能突破、系统架构升级、实际场景深度融合三个方向。
“有需求、有数据、有场景,缺的就是时间,”王皓霆说,“给我们两到三年窗口期,中国算力市场不会比美国差。”
“决定未来的,除了算力,还有定力”
在全球数字经济发展大潮下,算力是核心生产力,也是驱动千行百业智能化升级的关键支撑。
除了算力,兴化当地一位官员对观察者网说:“决定AI发展未来的,一个是算力,一个是定力。”
他说的定力,不只是兴化这样的地方政府,愿意在产业空白上用180天建算力服务器产线的决心;也不局限于汉腾这样的民营企业,在华为、浪潮、中科曙光等巨头林立的市场中,从算法起家、逐步向算力上游延伸的耐心。而是整个国产算力产业链,在芯片被“卡脖子”的压力下,没有急于求成追最高制程,而是选择先把路跑通的务实路径。
王皓霆对未来的信心基于简单逻辑:“钱进来了,技术就会进来。技术进来了,所有问题都能解决。”他认为,算力产业的核心驱动力终究是市场需求,而中国需求端正在爆发。
产业端数据佐证了这一判断。当前算力租赁市场基本供不应求,服务器价格较上一年上涨约30%。行业预测国产算力服务器将迎来井喷式增长,国产AI芯片正从推理侧的“单点突破”迈向训练侧的“体系化崛起”。
下午四点,兴化冬日天色渐暗。148米的产线完成当天最后一轮试产调试,车间灯光次第熄灭。春节后,这条线将正式量产,每台下线服务器经老化测试后随即装车,沿高速公路驶向承德、石家庄——在那里,它们将与数千台同伴组成万卡级国产算力集群。
没人会记住一台台拖拉机的名字,但所有人会记住它压出的路,兴化这条148米的算力产线,只是国产算力突围的起点。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com


