液冷采用必要性、优势与市场规模测算

液冷采用必要性、优势与市场规模测算

最佳答案 匿名用户编辑于2025/08/27 11:50

AI 集群算力密度突破 50KW/机架,传统风冷已接近极限。

根据 Kontronn,目前高密度机架约在 40-125 千瓦之间,而极高密度机架甚至可 达到 200 千瓦甚至更高。但这个衡量标准不是一成不变的,因为在不久前 10kW 以上已经被认为是高功率密度机架。 随着 AI 集群算力密度突破 50kW/机架,传统风冷技术已接近极限。根据前文提 及,以英伟达 H100 为例,按照 H100 功率 700W 计算,通常人工智能(AI)服务 器由 8 卡 GPU 或 NPU 模组构成,则单台 8 卡 H100 的 AI 服务器的功耗在 5.6kW, 叠加 CPU、内存、硬盘、风扇等功耗,单台 H100 模组整机服务器满配的情况下 功耗达到 10.2kW。相对应地,按照一台机柜 8 个服务器计算,机柜功率密度达 80kW 左右,即使是安装 4 台服务器的风冷机柜功耗也要 42kW。而如果采用更高 性能的 B100、B200、GB200 等将达到更高的功率密度。

因此,单机柜功耗从通算中心(传统数据中心)的 4-6KW 的逐渐增加至智算中 心(AIDC)的 20~40kW,未来逐步发展至 40~120kW 甚至还要更高,智算中心 机柜呈现高密度化趋势。这将导致智算中心在 IT 负载和市电引入规模上大大高 于通算中心,也意味着将消耗更多的能源,同时也对资源产生众多新的需求。

从不同冷却方式下国产 GPU 和英伟达 GPU 对应单机架功耗来看,液冷方式可以 匹配的机架功耗明显高于风冷方式。根据维谛预测,2024-2025 年 Blackwell 芯片系列机柜单机柜峰值功率或将达到 130-250kW,2028-2029 年 Rubin Ultra 系列机柜峰值功率或将超过 1MW。随着功率面密度的逐渐提升,液冷或逐渐成为 必选项,预计相变式冷板液冷、浸没式液冷也将得到更多应用。

能效提升趋势:液冷总利用效率高出空冷 15%,能耗大幅降低。从能耗角度看,数据中心约 52%的能耗用于计算设备(即需求端),而 48%的能 耗用于支持系统(供给端),其中支持系统近 8 成的能耗来自于冷却系统,约占 数据中心总能耗的 38%。而长期以来,控制能源效率(PUE)是数据中心得以高 效运行的关键之一,PUE =数据中心总设备能耗/IT 设备能耗。PUE 基准是 2,越 接近 1 表明能效水平越好。2023 年我国算力中心平均 PUE 值 1.48,过去几年逐 年改善,其中,超大型算力中心平均 PUE 为 1.33,大型算力中心为 1.43,规划 在建算力中心平均 PUE 约为 1.29。

而根据发改委等印发《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新 型基础设施绿色高质量发展实施方案》的通知,到 2025 年全国新建大型、超大型数据中心平均 PUE 降到 1.3 以下,国家枢纽节点进一步降到 1.25 以下,绿色 低碳等级达到 4A 级以上。 液冷系统无需压缩机、风机等高耗能设备,仅需水泵等少量低耗电器件,与空 冷相比,液冷的总利用效率高出 15%,能耗大幅降低,为企业节省大量成本。另 据 DOIT,华为已在多个数据中心部署液冷方案,单机柜功率密度提升至 100kW,能耗降低 30%。相对应地,液冷机组的 PUE 值显著低于风冷,据中国信 通院数据,目前部分液冷机组工程案例 PUE 值可达 1.1。 从占地面积来看,液冷也更节省空间。据中国信通院数据,同等 IT 负载下,液 冷占地面积较风冷数据可降低 20%,且风机较小或无风机,噪声也显著降低。

经济性:机柜功率大于 15KW 时,液冷 TCO 成本优势明显。液冷虽然在初始投资上贵于传统风冷,但从全生命周期的成本,即 TCO 角度来 看,在机柜功率密度 15KW 以上时,液冷 TCO 成本已经低于风冷,成本优势明 显。

在 Capex 方面,冷板液冷、浸没式液冷的经济性,一方面体现在提升机房楼 IT 产出的增加来降低单 kW 成本,另一方面,液冷的土建对承重要求要低于风冷, 风冷数据中心承重至少在 1 吨以上,一般设计的时候在 1.5 吨,此外,风冷外 电和能评的成本也要高于液冷。而在 Opex 方面,将电费、水费都计入,液冷的 电费要明显低于风冷。根据北京奕信通科技有限公司测算,当机柜功率密度在 30kW 以上时,冷板液冷的 TCO 成本最低,其次为风冷、单相浸没比风冷略贵一 些,但也有一定假设条件。 通常我们认为液冷的成本可能更高主要是由于液冷服务器的价格更贵,但实际 上配套基础设施冷板液冷仍然有优势,因此综合成本来看,冷板液冷和风冷的 成本基本相当。总体上,当机柜功率大于 15kW 时,冷板液冷 TCO 成本优势明 显,当功率大于 30kW 时,液冷的 TCO 开始出现优势(但如果使用冷却液较贵, 优势可能并不明显)。

据 The Insights Partners 数据,2023 年全球数据中心冷却市场规模为 132.9 亿美元,另据 GMI 数据,2023 年全球数据中心液冷市场规模约为 32 亿美元 (约合 224 亿元),对应在整个冷却市场中金额市占率约为 24%。其中,2023 年 美国数据中心液冷市场规模约为 8.4 亿美元(约合 58.8 亿元)。此外,GMI 预 计 2024-2032 年全球数据中心液冷市场规模将以 19%的 CAGR 增长至 2032 年的 164 亿美元。 从国内来看,根据我们的产业链调研,目前传统制冷形式(非液冷)的渗透率 约为 82%,液冷占比约为 18%。 而从单位功耗投资成本看,根据我们的产业链调研,目前风冷价格约为 2200- 2300 元/kW,而冷板液冷约为 4200 元/kW,浸没式液冷价格则达到 8500 元/kW 左 右。目前液冷价格较高与产品成熟度以及通用件产量有关,未来随着应用规模 扩大,液冷价格有望与风冷接近。我们对液冷市场规模测算做如下假设: 1)机架数量方面,据中投网预测,2024 年我国在用机架数量约为 1050 万台, 另据《中国数据中心产业发展白皮书》预测计至 2025 年“十四五”规划期末, 拟实现数据中心机架规模增长至 1400 万台,对应 24/25 年在用机架数量同比增 速分别为 29.6%、33.3%,我们假设 26-28 年增速分别为 25%/20%/15%,对应机 架数量分别为 1750/2100/2415 万台。 2)渗透率方面,我们假设 2024-2028 年液冷渗透率以每年 5%的速度提升渗透 率。 3)单位成本方面,随着冷板液冷规模化生产,单位成本有望实现逐渐降低,但 考虑到随着机架功率密度的增加,造价更高的浸没式液冷也将得到更多应用, 总体上我们假设液冷平均单价保持不变。

据此,我们初步测算,2023 年算力/数据中心冷却市场规模约为 100 亿元,其 中,风冷市场约为 73 亿元,液冷市场规模 27 亿元,预计到 2028 年冷却市场规 模有望达到 238 亿元,其中液冷市场规模 136 亿元。

参考报告

算力基建系列深度分析:算力产业链及液冷设备投资机会梳理.pdf

算力基建系列深度分析:算力产业链及液冷设备投资机会梳理。智能算力成为新引擎,算力基建市场规模达千亿。算力产业链主要包括上游IT软硬件设备、中游的算力网络及平台、下游各类应用场景。根据使用设备、提供算力强度的不同,算力中心可分为通用算力中心(即传统数据中心)、智算中心、超算中心三类。据中国信息通信研究院数据,截至2023年底,全球算力总规模达到910EFLPOS(FP32),同比增长40%,其中,智能算力规模增速达136%,远超算力总规模增速,智能算力逐渐占据重要地位,且智能算力占比达到37%,在新增算力市场规模中,智能算力占比更是达到74%,是主要驱动力。同年我国算力总规模达237EFLPOS...

查看详情
相关报告
我来回答