2026年产业深度:AI时代的热管理革命,从液冷系统看冷却液的发展趋势
- 来源:国泰海通证券
- 发布时间:2026/01/27
- 浏览次数:87
- 举报
产业深度:AI时代的热管理革命,从液冷系统看冷却液的发展趋势.pdf
产业深度:AI时代的热管理革命,从液冷系统看冷却液的发展趋势。2025年可视为数据中心液冷的“落地元年”,其本质是算力密度物理极限与能效考核刚性约束两条曲线在同一时间窗口内交汇:一端是芯片制造商通过提升晶体管密度、增加核心数量和提高频率来增强算力,导致芯片功耗显著上升,从而使得风冷在技术和经济上同时失效;另一端是全球各地区对新建数据中心电源使用效率普遍提出硬约束,推动数据中心的节能减排,将液冷从“可选配置”推向“合规必选”。冷板式与浸没式两大技术路线的竞争与互补正主导着液冷行业发展的方向,目前冷板式以80%的市场占比坐稳商...
液冷技术兴起的背景:算力跃迁下的热管理危机
1.1. 算力需求爆发式增长,芯片功耗持续攀升
过去十年间,信息技术经历了翻天覆地的变化。云计算、大数据、人工智能、区 块链、元宇宙等新兴应用层出不穷,推动全球数据量呈爆炸式增长。据 IDC2024 年预测,到 2028 年全球数据量将增长至 393.8ZB,相比于 2018 年增长 9.8 倍。从 2024 到 2028 五年间生成的数据量将至少是过去 10 年生成的数据总量的 2.2 倍, 约为过去 5 年生成的数据总量的 2.9 倍。支撑这一海量数据处理能力的是日益庞 大的数据中心基础设施。根据 Synergy Research Group 的数据,超大规模运营商运 营的大型数据中心数量在 2024 年底增至 1136 个,过去五年实现翻倍。

2024 年全球数据中心市场在生成式 AI 爆发、云计算加速渗透以及数字化战略落 地的多重驱动下,迎来新一轮跃升,市场规模首次突破千亿美元大关达 1086.2 亿 美元,同比增长 14.9%。
然而,随着摩尔定律逐渐放缓,芯片制造商转而通过提升晶体管密度、增加核心 数量和提高频率来增强算力,导致芯片功耗显著上升。 以 GPU 为例,英伟达 2025 年即将发布的 GB300 热设计功耗 TDP(Thermal Design Power)为 1.2kW,较前 代 GB200 提升了近 20%。而在 AI 大模型训练场景中,单台服务器通常搭载 8 颗 以上高端 GPU,GB300 NVL72 整个机柜的能耗仍保持在 132kW。
在这种高功率密度环境下,传统风冷散热方式已接近物理极限。空气的比热容和 导热系数均较低,且受气流组织不均、局部涡流、灰尘积聚等因素影响,难以实 现均匀高效的热量转移。当单机柜功率超过 15kW 时,风冷系统的冷却效率急剧 下降,极易形成“热点”(hot spot),导致设备降频运行甚至宕机,严重影响计算 任务的稳定性与连续性。人工智能尤其是大模型训练已成为液冷技术最核心的应 用场景。训练一个千亿参数级别的语言模型(如 GPT-3),需要数千张 GPU 连续 运行数周,产生巨大的热量积累。根据思瀚产业研究院测算,AI 训练集群的平均 机柜功率已达 25-50kW,部分峰值会更高,远超传统风冷的承载能力(一般不超 过 20kW)。

液冷能够精准控制芯片温度,避免因过热导致的性能降频,确保 AI 训练任务稳定 高效执行。例如,在双相浸没式液冷系统中,冷却液在芯片表面沸腾吸热,相变 潜热极大提升了散热效率,使得 GPU 可在满负荷状态下长时间运行,显著缩短训 练周期。此外,量子计算、基因测序、气候模拟等 HPC 领域同样依赖超高性能计 算平台,对散热系统提出严苛要求。液冷不仅能满足其高热通量需求,还能减少 振动和电磁干扰,提升系统稳定性。
1.2. 能效压力加剧,绿色低碳成刚性要求
除了散热瓶颈外,能源效率问题也成为制约数据中心发展的关键因素。据国际能 源署(IEA)统计,2024 年全球数据中心总用电量约为 415TWh,占全球电力消费 的 1.5%,其预测到 2030 年,数据中心的用电量将增长一倍以上,达到约 945 太 瓦时,将略高于日本目前的用电总量。 传统风冷数据中心的电源使用效率(PUE, Power Usage Effectiveness)普遍在 1.5 左右,意味着每消耗 1 度电用于 IT 设备,还需额外 0.5 度电用于制冷、供电损耗 等辅助设施。面对日益严峻的碳排放压力,各国政府纷纷出台政策推动数据中心 节能减排。《欧盟数据中心能效准则最佳实践指南(2025)》明确规定基础能效指 标包括 2025 年新建数据中心 PUE 需≤1.3,存量数据中心 2027 年前完成 PUE≤ 1.4 的改造,冷却系统效率(CLF)需≤0.25;中国《数据中心绿色低碳发展专项 行动计划》明确 2025 年底全国数据中心平均 PUE 降至 1.5 以下,国家枢纽节点PUE≤1.2,其中北京、上海等一线城市实施差异化管控,北京规定 PUE 高于 1.25 的新建项目不予备案;美国环保署(EPA)也将液冷列为“最佳可用技术”(BAT)。 在此背景下,企业 ESG(环境、社会与治理)评级压力加大,苹果、谷歌、微软、 亚马逊等科技巨头均已承诺在 2030 年前实现碳中和,倒逼其采用更高能效的冷却 方案。
液冷技术凭借卓越的热传导性能,可大幅降低制冷能耗。液冷技术凭借卓越的热 传导性能,可大幅降低制冷能耗。据行业实践数据,采用液冷技术的数据中心, PUE 值可降低 0.2-0.4,年度能耗成本节省 15%-30%。冷板式液冷的散热功率可达 200-500W /冷板,适配 10-30kW /机柜的密度需求,PUE 值可降至 1.15-1.25;而 浸没式液冷散热效率较冷板式提升 2-3 倍,散热功率可达 1000W/L 以上,适配 30- 100kW /机柜的超高密度场景(如 AI 计算集群、高性能计算中心),PUE 值可降至 1.05-1.15。此外,液冷系统减少了对空调压缩机和大型风扇的依赖,降低了机械噪 声和运维成本,有助于打造绿色、静音、可持续的数据中心运营模式。 在实践案例层面,某超大型互联网数据中心采用“冷板式液冷+浸没式液冷”混合 架构,部署 1 万台服务器,其中高密 AI 服务器(50kW /机柜)采用浸没式液冷, 普通服务器(20kW /机柜)采用冷板式液冷:改造后整体 PUE 值从 1.6 降至 1.12, 年度能耗减少 1200 万度,节省电费 960 万元;通过热量回收系统,冬季为周边社 区供暖,替代传统供暖方式,年度额外收益 100 万元;硬件故障率从 8%降至 5%, 年度硬件维护成本减少 80 万元。该案例表明,通过合理的技术选型与能效优化, 液冷技术可显著降低数据中心 PUE 值,同时带来可观的经济收益与环境效益。
1.3. 空间利用效率提升,边缘计算催生新需求
随着 5G、物联网和自动驾驶等技术的发展,数据处理正从集中式云中心向边缘侧 迁移,“边缘计算”成为新的增长极。然而,边缘站点往往位于城市楼宇、基站机 房或工业现场,空间极为有限,无法容纳传统风冷所需的庞大通风结构和冗余散 热通道。 液冷技术因其高热通量承载能力和紧凑型设计,特别适合高密度部署场景。例如, 浸没式液冷允许服务器垂直堆叠,同时也无需复杂的冷热通道隔离设计,简化了 机房布局,提高了空间利用率。这对于土地资源紧张的大都市或需要快速部署的 临时计算节点而言具有重要意义。此外,液冷系统支持模块化部署,便于快速安 装与扩展。一些厂商已推出“即插即用”型液冷机柜,可在数小时内完成上线,满 足突发性计算需求。 综上所述,液冷技术的兴起并非偶然,而是算力跃迁、能效约束与空间优化三大 趋势共同作用的结果。它不仅是应对当前热管理挑战的技术选择,更是构建未来 可持续数字基础设施的战略支点。
液冷系统的分类及技术特点
根据集邦咨询最新液冷产业研究,随着 NVIDIA GB200 NVL72 机柜式服务器于 2025 年放量出货,云端业者加速升级 AI 数据中心架构,促使液冷技术从早期试 点迈向规模化导入,预估其在 AI 数据中心的渗透率将从 2024 年 14%,大幅提升 至 2025 年 33%。
根据对服务器的散热方式的不同,液冷技术按可分为冷板式、浸没式和喷淋式三 种类型,而冷板式与浸没式两大技术路线的竞争与互补,正主导着行业发展方向。 目前冷板式以 80%的市场占比坐稳商业化落地的主流位置,浸没式则凭借极致的 散热潜力,被公认为未来高密算力场景的核心方向。
2.1. 冷板式液冷(Cold Plate Liquid Cooling)
冷板式液冷因其良好的兼容性、较高的可靠性与适中的部署成本,成为当前应用 最广泛、商业化程度最高的液冷技术。冷板式液冷是一种间接接触式液冷技术, 其核心在于通过金属冷板与发热元件(如 CPU、GPU、FPGA 等)直接接触,利 用液体作为传热介质将热量带走,从而实现高效散热。
2.1.1. 系统组成与工作原理
典型的冷板式液冷系统由以下几个关键部分构成: (1)冷板(Cold Plate):通常由导热性能优异的铜或铝合金制成,内部设有微细 流道。冷板紧贴于芯片表面,通过热传导吸收热量。 (2)冷却液循环管路:连接冷板与外部换热系统的封闭管道网络,常见冷却液包 括去离子水、乙二醇水溶液或专用绝缘液体。(3)冷却分配单元(CDU, Cooling Distribution Unit):负责驱动冷却液循环,并 调节流量、压力和温度,同时集成过滤、除气等功能,确保系统稳定运行。 (4)外部换热器(Heat Exchanger):将从服务器端带回的热量传递至外部冷却源 (如冷水机组、冷却塔或自然冷源),完成热量释放。 (5)泵送系统与控制系统:监控液温、流速、压力等参数,实现智能调控,保障 安全运行。

冷板式液冷的工作过程包括(1)冷却液在 CDU 驱动下进入冷板内部微通道;(2) 芯片产生的热量通过热传导传递至冷板,再由流动的冷却液吸收;(3)吸收热量 后的高温液体返回 CDU,在换热器中将热量排出;(4)冷却后的液体再次循环至 冷板,形成闭环散热。由于冷却液不直接接触电子元器件,仅通过金属冷板进行 热交换,因此该技术兼具高效性与安全性,适用于大多数标准服务器架构。
2.1.2. 冷板式液冷的优势
(1)高散热效率,支持高功率密度。水的导热能力远超空气,冷板式液冷可支持 单机柜功率提升至 20kW 以上,显著高于传统风冷(一般不超过 20kW)。这对于 AI 训练、科学计算等高负载任务至关重要。 (2)兼容性强,易于改造升级。冷板式液冷无需对现有服务器结构做大规模改动, 只需替换原有的风冷冷凝器(散热片+风扇)为液冷冷板即可。许多主流服务器厂 商如浪潮等均已推出支持冷板式液冷的标准化机型,便于数据中心在不停机的情 况下逐步过渡。 (3)运行安静,改善运维环境。由于减少了大型风扇的使用,冷板式液冷系统噪 音水平大幅降低,通常可控制在 60 分贝以下,远低于风冷系统的 80–90 分贝。这 不仅提升了数据中心工作人员的舒适度,也更适合部署在城市中心或办公楼宇内 的边缘计算节点。 (4)能效优异,降低 PUE。传统风冷数据中心 PUE 普遍在 1.5 左右,而采用冷 板式液冷后,制冷能耗显著下降,PUE 可降至 1.2-1.4。 (5)安全性高,维护便捷。冷却液不直接接触电路板,避免了漏液导致短路的风 险。即使发生轻微泄漏,也可通过密封设计和传感器及时报警,不会造成设备损 坏。此外,冷板可拆卸更换,不影响其他硬件运行,维护成本较低。
2.1.3. 冷板式液冷的劣势
(1)散热覆盖有限:冷板仅能覆盖主要发热芯片(如 CPU、GPU),而对于内存、 电源模块、主板供电电路等次级热源无法有效冷却。这些区域仍需依赖少量风扇 辅助散热,限制了整体散热能力的进一步提升。 (2)安装精度要求高:冷板与芯片之间的接触面必须平整且压紧力适中,否则会 产生“接触热阻”,影响导热效率。若安装不当,可能导致局部过热,反而降低系 统稳定性。这对装配工艺和质量控制提出了更高要求。 (3)初期投入较高:虽然低于浸没式液冷,但冷板式液冷仍需新增 CDU、管路 系统、二次冷却设施等基础设施,单位机柜改造成本较风冷高 30– 50%。对于中 小型企业而言,初始资本支出仍是重要考量因素。 (4)冷却液管理复杂:去离子水易滋生微生物或产生结垢,需定期更换和维护; 乙二醇溶液虽防冻但有毒性,存在环保隐患;部分专用冷却液价格昂贵。此外, 管路老化、接头松动等问题也可能引发泄漏风险,需建立完善的监测与应急机制。 (5)空间布局受限:液冷系统需要铺设大量管道,可能影响机房布线规划。特别 是在老旧数据中心改造时,如何合理布置主干管路、避免与其他设施冲突,是一 大工程难题。
2.1.4. 冷板式液冷系统的革新:两相式冷板及微通道冷板
随着英伟达 Rubin 平台及更高功率 ASIC 集群逐步应用在算力中心场景中,传统 单相冷板的散热上限被突破,但为了适配高功率平台的散热需求,业界也在单相 式液冷系统基础上升级成两相式及微通道等形式的革新版本。
两相式冷板通过在冷板内部引入低沸点含氟工质,利用液气相变潜热进行换热, 利用相变潜热显著提升单通道的换热能力,解热效率明显优于单相冷板,可适用 于单柜两百至三百千瓦的场景,但目前定性为过渡方案,在更远期的未来应用于 功率越来越高的平台来说仍存在较大的局限性。微通道盖板通过在冷板基板内部 集成数量级为百至千个 30-150 微米的微尺度冷却通道,将冷却液直接引至高热流 密度区域,理论功率上限可覆盖单柜五百至六百千瓦的场景。
2.2. 浸没式液冷(Immersion Cooling)
传统风冷与冷板式液冷逐渐逼近散热极限,亟需更高效的热管理方案。浸没式液 冷作为目前散热效率最高的冷却技术之一,正加速从实验室走向商业化应用,成 为高密度计算场景下的关键支撑。浸没式液冷是一种直接接触式液冷技术,其核 心是将服务器或关键计算模块完全浸入非导电、不燃或难燃的冷却液中,利用液 体的高比热容和优异导热性能实现高效散热。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
- 专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告.pdf
- 新材料——散热材料行业深度报告(一):AIGC与新能源驱动液冷散热景气上行.pdf
- 英维克首次覆盖深度报告:国内温控龙头,AI时代液冷前景广阔.pdf
- 2025年液冷全产业链解析:AI时代散热革命,各环节下的价值拆解.pdf
- 德昌电机控股公司研究报告:车用电机龙头,AIDC液冷+机器人开启成长新曲线.pdf
- 正泰安能:向设计要效益:AI自动化设计的实践与回报.pdf
- 艺恩报告:智驾未来:AI重塑汽车消费新纪元.pdf
- 清鹏算电:AI与电力市场应用探索——清鹏能源大模型智能体实践与展望.pdf
- 启信慧眼:全球布局洞见先行:构建AI时代的供应链韧性-2026供应链风控白皮书.pdf
- 计算机:通过AI原生,提升驾驶敏捷性和商业价值统一采购平台(英文版).pdf
- 银轮股份深度报告:从车用到全场景,平台型热管理龙头腾飞.pdf
- 慧博研报炼金之研报头条精华:AI时代的热管理革命,从液冷系统看冷却液的发展趋势.pdf
- 儒竞科技公司研究报告:热泵、数据中心、汽车热管理三箭齐发.pdf
- 三花智控:热管理领军者加速全球化进程,机器人业务打开成长天花板.pdf
- 科创新源:高分子业务稳健,热管理上新台阶.pdf
- 相关标签
- 相关专题
- 相关文档
- 相关文章
- 全部热门
- 本年热门
- 本季热门
- 1 充电桩行业深度报告:车桩比矛盾凸显,液冷超充步入量产元年.pdf
- 2 数据中心液冷及冷却液行业分析:算力提升驱动液冷方案推广,氟化液迎来发展机遇.pdf
- 3 服务器液冷温控行业专题报告:AI推动液冷从0到1,产业链共振迈入新技术周期.pdf
- 4 储能温控行业分析:液冷方案是未来趋势,具备积累的企业将领先.pdf
- 5 800V高压快充新技术专题报告:超充桩建设加速,液冷技术升级.pdf
- 6 液冷行业专题报告:算力时代散热革命,AI液冷拐点已至.pdf
- 7 新能源汽车充电系统趋势(更新):高电压、大功率和液冷.pdf
- 8 华为全液冷超快充解决方案彩页合集 .pdf
- 9 数据中心液冷行业专题报告:人工智能行业快速推动,液冷有望成为高成长性新赛道.pdf
- 10 液冷数据中心专题研究报告:数据中心进入液冷时代,制冷革新减耗“东数西算”.pdf
- 1 华为全液冷超快充解决方案彩页合集 .pdf
- 2 AI液冷行业专题报告:AI液冷,1-N及从国内到出海,共同促进产业链量利齐升.pdf
- 3 AI行业分析:AI算力持续迭代升级,液冷加速渗透行业高景气.pdf
- 4 科创新源研究报告:“材料+部件”垂直整合,卡位服务器液冷赛道前排.pdf
- 5 液冷行业分析报告:AI算力时代,液冷需求爆发.pdf
- 6 通信行业专题报告:数据中心互联技术专题五,液冷—智算中心散热核心技术.pdf
- 7 维谛技术研究报告:高算力需求推动散热迭代,液冷龙头前景可期.pdf
- 8 电子行业深度分析:被动散热材料持续迭代,液冷成为主动散热新增长点.pdf
- 9 中国信通院:智算中心液冷产业全景研究报告(2025年).pdf
- 10 液冷散热行业系列报告:金刚石材料——高效散热破局之选.pdf
- 1 AI产业链行业系列报告一:26年算力景气度持续上行,关注互联、液冷、供电板块.pdf
- 2 通信行业深度报告:超节点,光、液冷、供电、芯片的全面升级.pdf
- 3 通信行业深度报告:超节点:光、液冷、供电、芯片的全面升级.pdf
- 4 液冷行业深度:行业前景、技术路线、产业链及相关公司深度梳理.pdf
- 5 中航光电:我国连接器领先企业,受益高速互联及液冷趋势.pdf
- 6 计算机行业专题报告:GPU+ASIC渗透加速,液冷市场规模再添增量.pdf
- 7 数据中心液冷行业深度研究报告:AIDC投建带动液冷市场扩容,汽零公司快跑入局.pdf
- 8 英维克公司研究报告:温控系统龙头,AI算力服务器液冷构筑新增长极.pdf
- 9 通信行业周报:AI新变化,光纤光缆或涨价、谷歌液冷和光模块需求或提升、国内AI招标或提速.pdf
- 10 产业深度:AI时代的热管理革命,从液冷系统看冷却液的发展趋势.pdf
- 全部热门
- 本年热门
- 本季热门
- 1 2026年专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告
- 2 2026年英维克首次覆盖深度报告:国内温控龙头,AI时代液冷前景广阔
- 3 2026年德昌电机控股公司研究报告:车用电机龙头,AIDC液冷+机器人开启成长新曲线
- 4 2026年荣亿精密公司研究报告:深耕精密零部件,液冷打开新增长曲线
- 5 2026年通信设备行业“液冷加速度”系列报告三:液冷0→1后,从头部厂商表现再看行业变化
- 6 2026年机械行业2月投资策略:重点关注AI基建供电端和液冷端的投资机会
- 7 2026年伟隆股份公司研究报告:“小而美”的水阀领先供应商,将受益中东城市化、工业化与IDC液冷系统需求提升
- 8 2026年敏实集团公司研究报告:汽零全球化标杆,电池盒放量高增,迈向机器人+液冷星辰大海
- 9 2026年兴瑞科技公司研究报告:新能源业务持续推进,入局液冷服务器等新领域
- 10 2026年汽车行业汽零切入数据中心液冷产业链:看好ASIC数据中心增长,重视国产链机会
- 1 2026年专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告
- 2 2026年英维克首次覆盖深度报告:国内温控龙头,AI时代液冷前景广阔
- 3 2026年德昌电机控股公司研究报告:车用电机龙头,AIDC液冷+机器人开启成长新曲线
- 4 2026年荣亿精密公司研究报告:深耕精密零部件,液冷打开新增长曲线
- 5 2026年通信设备行业“液冷加速度”系列报告三:液冷0→1后,从头部厂商表现再看行业变化
- 6 2026年机械行业2月投资策略:重点关注AI基建供电端和液冷端的投资机会
- 7 2026年伟隆股份公司研究报告:“小而美”的水阀领先供应商,将受益中东城市化、工业化与IDC液冷系统需求提升
- 8 2026年敏实集团公司研究报告:汽零全球化标杆,电池盒放量高增,迈向机器人+液冷星辰大海
- 9 2026年兴瑞科技公司研究报告:新能源业务持续推进,入局液冷服务器等新领域
- 10 2026年汽车行业汽零切入数据中心液冷产业链:看好ASIC数据中心增长,重视国产链机会
- 1 2026年专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告
- 2 2026年英维克首次覆盖深度报告:国内温控龙头,AI时代液冷前景广阔
- 3 2026年德昌电机控股公司研究报告:车用电机龙头,AIDC液冷+机器人开启成长新曲线
- 4 2026年荣亿精密公司研究报告:深耕精密零部件,液冷打开新增长曲线
- 5 2026年通信设备行业“液冷加速度”系列报告三:液冷0→1后,从头部厂商表现再看行业变化
- 6 2026年机械行业2月投资策略:重点关注AI基建供电端和液冷端的投资机会
- 7 2026年伟隆股份公司研究报告:“小而美”的水阀领先供应商,将受益中东城市化、工业化与IDC液冷系统需求提升
- 8 2026年敏实集团公司研究报告:汽零全球化标杆,电池盒放量高增,迈向机器人+液冷星辰大海
- 9 2026年兴瑞科技公司研究报告:新能源业务持续推进,入局液冷服务器等新领域
- 10 2026年汽车行业汽零切入数据中心液冷产业链:看好ASIC数据中心增长,重视国产链机会
- 最新文档
- 最新精读
- 1 2026年中国医药行业:全球减重药物市场,千亿蓝海与创新迭代
- 2 2026年银行自营投资手册(三):流动性监管指标对银行投资行为的影响(上)
- 3 2026年香港房地产行业跟踪报告:如何看待本轮香港楼市复苏的本质?
- 4 2026年投资银行业与经纪业行业:复盘投融资平衡周期,如何看待本轮“慢牛”的持续性?
- 5 2026年电子设备、仪器和元件行业“智存新纪元”系列之一:CXL,互联筑池化,破局内存墙
- 6 2026年银行业上市银行Q1及全年业绩展望:业绩弹性释放,关注负债成本优化和中收潜力
- 7 2026年区域经济系列专题研究报告:“都”与“城”相融、疏解与协同并举——现代化首都都市圈空间协同规划详解
- 8 2026年历史6轮油价上行周期对当下交易的启示
- 9 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 10 2026年创新引领,AI赋能:把握科技产业升级下的投资机会
