市场需求井喷,液冷技术材料创新与产业新局
电子发烧友网报道(文 / 李弯弯)近年来,液冷技术飞速突破传统应用范围。它不再局限于 GPU 服务器,近期博通把液冷引入交换机设备,表明网络设备功耗接近液冷阈值;AMD 发布 MI350 系列新品,强调 MI355X 采用液冷平台;台系散热龙头如奇宏、双鸿等指出,未来两年水冷占比会快速上升,液冷产业已从概念走向实际。
随着算力密度不断提高,数据中心及算力设备的散热问题愈发突出。液冷技术作为解决高密散热的关键方案,市场需求急剧增长。行业人士称,全球高性能算力芯片加速出货将推动液冷渗透率快速提升,产业链将迎来订单爆发和业绩高速增长的双重红利。
技术路线和液冷系统各组件协同优化
液冷技术核心是通过液体介质高效热交换,根据液体与热源接触方式不同,形成冷板式、浸没式、喷淋式三大技术路线,在散热效率、系统复杂度、商用成熟度等方面各有优势。
冷板式液冷是当前市场占有率超 70% 的主流方案,通过铜、铝等高导热金属冷板间接接触 CPU、GPU 等核心部件,冷却液在封闭管道循环吸热。这种设计既保证服务器架构稳定,又大幅提升散热效率,散热能力是传统风冷的 1000 - 3000 倍,可将 PUE 值降至 1.1 以下,降低空调能耗 80%。浪潮信息与京东云联合开发的天枢液冷整机柜服务器,用冷板式技术使散热效率提升 50%、能耗降低 40%,已在京东云数据中心大规模部署。
该技术优势在于产业链成熟:服务器主板无需改造就能升级液冷模块,硬盘、光模块等部件可用风冷方案,“混合部署”降低了客户转型成本。中科曙光凭借 2011 年开始的液冷研发积累,部署超 5 万台冷板式服务器,其技术方案能支撑 100PFlops 级超算算力,在科研领域市占率超 60%。
当单机柜功率密度超 60kW 时,浸没式液冷优势明显。它将服务器整机浸没在绝缘冷却液中,通过液体沸腾或对流换热带走热量。根据冷却液相变特性,分为单相浸没式和双相浸没式:前者冷却液保持液态循环,适用于 25 - 50kW 功率场景;后者通过液气相变提升 30% 散热效率,可支持单机柜超 100kW 的极端算力需求。
芬兰 LUMI 超算中心用双相浸没式技术后,PUE 值低至 1.05,比传统风冷降低 40%;阿里云“麒麟”集群用该技术将噪音控制在 45dB 以下,保障高密度 AI 训练任务稳定运行。但技术突破使系统复杂度大增:定制化密封机箱成本高,氟化液价格是水的 100 倍以上,且维护需专业团队。这些因素使浸没式方案主要用于超算中心、AI 大模型训练等高端场景。
喷淋式液冷是新兴技术路线,通过特制喷头将冷却液精准喷到芯片表面,吸热后回流循环。微软在 Azure 服务器的试验显示,该技术液体用量比浸没式减少 50%,支持模块化部署,但喷嘴堵塞和液体分布均匀性问题使其商业化进程较慢。广东合一新材料研究院开发的芯片级喷淋技术,通过自主流道设计,将数据中心 PUE 值控制在 1.1 以下,连续四年入选工信部绿色节能目录,为边缘计算等场景提供新散热选择。
液冷技术突破不仅在于散热方式革新,还在于构建从芯片到数据中心的完整技术体系。这个四级架构通过组件协同优化,提升了散热效率和系统可靠性。
芯片级的微结构冷板采用 0.1 - 1mm 微通道设计,增加 30% 换热面积,配合垂直供电技术将电源模块集成到冷板,降低 CPU 核温 5 - 10℃。服务器级创新注重连接可靠性:快接接头(UQD)支持 10 万次热插拔维护,分液器将冷却液流量精度控制在 ± 1% 以内,避免局部过热。
机柜级核心是冷量分配单元(CDU),它像系统“心脏”,通过板式换热器实现一次侧(外部冷源)与二次侧(服务器侧)热量交换,热交换效率超 95%。曙光数创的分布式 CDU 方案,将单个设备服务能力从 300kW 提升到 800kW,支持超大规模数据中心部署。
数据中心级创新关注能源综合利用:微软北欧数据中心用自然冷却技术,全年 PUE 值维持在 1.1 以下;阿里云张北数据中心通过余热回收系统,将服务器废热用于城市供暖,能源利用率提升 90% 以上。这些技术让数据中心从能耗大户变为城市能源网络重要节点。
材料创新、智能控制和产业格局
液冷系统性能提升离不开材料科学和智能控制技术协同创新。材料领域,冷却液和导热材料革新重塑行业格局。冷板式系统常用的乙二醇水溶液成本低,但有腐蚀性,需加昂贵防腐剂;去离子水导热好,但易滋生细菌堵塞管道。行业在探索高沸点(>150℃)、低粘度、可生物降解的新型工质,预计降低冷却液成本 30% 以上。
导热材料创新也很关键。英维克开发的液态金属热界面材料(TIM),导热系数超 15W/m · K,是传统硅脂材料的 5 倍;中科曙光用的石墨烯涂层技术,降低芯片与冷板间热阻 40%。密封材料方面,耐氟化液腐蚀的陶瓷密封圈承诺 10 年无泄漏,为浸没式液冷大规模应用扫除障碍。
智能控制系统让液冷系统有了“思考”能力。英伟达 GB300 液冷方案通过动态流量控制技术,根据芯片负载实时调节冷却液流量,训练时延压缩 16% 的同时节能 20%;曙光数创的预测性维护系统,用 2000 + 个传感器实时监测温度、流量、压力等参数,AI 算法提前 72 小时预测故障概率,减少数据中心运维人员 60%。
中国厂商在这场散热革命中全球领先。冷板式领域,浪潮信息建成亚洲最大液冷研发基地,年产能超 10 万台,全栈液冷产品覆盖四大服务器系列,支持数据中心全生命周期解决方案;中科曙光液冷服务器部署量超 5 万台,与中科院联合研发的技术方案在超算领域市占率超 60%。
浸没式赛道竞争多元:曙光数创作为中科曙光子公司,专注数据中心高效冷却,浸没式产品收入近八成;高澜股份子公司高澜创新科技开发出融合字节跳动先进技术的浸没式解决方案,毛利率达 45%;浙江巨冷科技依托巨化集团产业资源,在冷却液配方、专用服务器设计等方面形成完整技术体系,已实现规模化商业落地。
喷淋式领域,中国长城推出国内首台国产化喷淋式液冷服务器,填补技术空白;广东合一新材料研究院的芯片级喷淋技术,通过自主流道设计将 PUE 值控制在 1.1 以下,为边缘计算场景提供新选择。这些成果表明中国厂商在液冷技术全赛道取得突破。
写在最后
全球数据中心年耗电量超 3000 亿度,液冷技术普及重塑行业生态。随着海外厂商 GPU 方案对液冷需求增加,冷板式液冷市场年复合增长率将超 30%,浸没式与喷淋式技术也将在特定场景爆发式增长。这场散热革命引发的产业变革,不仅推动数据中心 PUE 值逼近 1.0 极限,还将催生万亿级绿色算力经济。
更多热点文章阅读
点击关注 星标我们
将我们设为星标,不错过每一次更新!

喜欢就奖励一个“在看”吧!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



