国内外液冷市场现状与驱动因素分析

国内外液冷市场现状与驱动因素分析

最佳答案 匿名用户编辑于2025/08/21 13:12

ChatGPT 引爆的生成式 AI 浪潮让智能算力需求呈爆发式上升,数据中心产业投资开始从通用算力中心迅速转向智能算力中心。

一、国内外市场现状

1、海外:龙头加速液冷需求增长与技术革新

GPU 性能迭代加速。随着高性能计算(HPC)和人工智能等计算密集型应用的快速发展,市场对更强大计算能力的需求不断增长,这一趋势带动了硬件功率需求的显著提升。以英伟达的GPU 为例,从2016年的 P100 到 2020 年的 A100,HPC 性能提高了约 11 倍。 然而,性能提升的同时,设备功耗也急剧上升。以英伟达的主要 GPU 产品为例:2016 年发布的P100GPU的热设计功耗(TDP)为 250W,2017 年的 V100 增加到 300W,而 2020 年的 A100 达到了400W。2022年发布的 H100GPU 在性能提升的同时,功耗进一步攀升至 700W,预计于 2024 年发布的B200GPU,其TDP将达到 1000W,对比 2016 年至最新的 2022 发布的 H100 功耗增长了 180%。这种逐步增加的功耗反映了计算密集型任务的性能需求,而传统风冷方案已难以有效应对,液冷技术成为数据中心领域的关键方案。

英伟达逐步推动数据中心的冷却革新。这一趋势带动了冷却技术的不断演进,从早期的风冷方案到现代的液冷和混合冷却技术。

早期发展阶段(1993-2004 年):其冷却技术经历了从基本风冷到改进风冷的过渡。最初GPU 功耗较低,英伟达主要依赖传统风冷散热技术,通过散热片和风扇组合来满足需求。1999 年,随着GeForce256的发布,英伟达引入了硬件变换和光照功能,被称为“世界上第一款 GPU”。这一技术突破使GPU 的功耗和热量显著增加,推动英伟达对风冷系统进行优化,采用更大面积的散热片和更高效的风扇,以提升散热效率并应对更强的性能需求。 多 GPU 系统,SLI 技术与散热挑战(2004-2010):2004 年,英伟达推出 SLI(Scalable Link Interface)技术,允许多块 GPU 协同工作,显著提升性能。然而,多 GPU 布局带来了更高的热量,英伟达在散热设计上进行了改进,包括优化风道和增加散热片面积。 液冷技术的引入应对高功耗(2022 年):随着 GPU 功耗的持续上升,传统风冷逐渐难以满足散热需求。2022 年,英伟达推出了基于 A100 芯片的首款液冷 GPU,采用直接芯片冷却技术,以提升数据中心的能效。 混合冷却方案风冷与液冷结合(2024 年):维谛与英伟达的专家团队在深圳共同测试并发布了针对GPU高密度数据中心的创新制冷方案。实验在配置 VertivTM Liebert®PCW、XDU 液冷装置和AFC 冷水机组的环境下进行,分析显示,约 75%的 IT 负载可通过冷板液冷实现有效冷却,这一方案将服务器风扇的用电量减少了多达 80%,使总体使用效率提高 15%以上。与传统风冷相比,风液混合冷却方案在降低10%年度能耗的同时减少了同等比例的碳排放。此外,维谛还参与英伟达的 COOLERCHIPS 计划,共同开发集冷板液冷和浸没液冷于一体的混合冷却系统,该系统可在高达 40°C 环境下支持单机柜200kWIT 功率,达到更高的运作效率和更低的碳足迹。

2、国内:运营商加速推进液冷落地

液冷服务器市场近年来迅速增长,特别是在数据中心和高性能计算领域。根据工业和信息化部发布的《新型数据中心发展三年行动计划(2021-2023 年)》,中国在推动绿色、低碳的数据中心技术应用方面制定了明确的发展目标,以及国际数据公司(IDC)发布了最新的《中国半年度液冷服务器市场(2023 全年)跟踪》报告的最新数据,中国液冷服务器市场规模已达到 15.5 亿美元,同比增长52.6%。市场中的主流液冷解决方案以冷板式液冷为主,占比高达 95%以上。这种增长背后是计算需求的激增,2023 年市场前 3 大厂商(浪潮、超聚变、宁畅)合计占据 70%的市场份额。这一高速增长背后是不断增加的计算需求,特别是来自人工智能、5G 及云计算的推动。液冷技术不仅能够提高散热效率,还能显著降低数据中心的 PUE 值,有助于实现低碳环保的目标。

三大电信运营商推进液冷技术标准化、创新应用与规模试点。自 2012 年起,中国移动开始在南方基地试点气液双通道冷板液冷技术,并取得年均 PUE 保持在 1.2 以下的成果。此后,公司逐步在呼和浩特、河北和山东等地应用冷板式和浸没式液冷技术,进行安全性、节能性等方面的测试。2023 年,中国移动在呼和浩特的数据中心启动了液冷的大规模试点,旨在通过大规模应用和技术验证,推动液冷技术的产业化进程,降低数据中心 PUE,并进一步建立完善的产业生态。

中国电信在液冷应用和低碳化研究方面表现突出。2019 年在贵州进行的大容量路由器冷板式液冷研究取得了显著节能效果,PUE 值约为 1.15,并因此获评“2021 信息通信产业创新贡献奖”。此外,中国电信在多个 5G 基站和数据中心机房进行了喷淋式和浸没式液冷试点,以有效应对5G 设备的高热量问题。2023 年,中国电信将在京津冀数据中心和安徽等地增加液冷机柜的应用,计划通过大规模冷板式和浸没式液冷技术的部署,为数据中心的低碳高效运行提供技术支撑。 中国联通在液冷技术的基础理论和应用扩展方面积极开展研究。专注于冷板式液冷的热阻分布、浸没式液冷的结构设计以及芯片散热的液冷适应性,形成了液冷冷却模型的理论基础,在郑州对5GBBU 设备进行了液冷喷淋试点,PUE 值达 1.254,芯片温度有效降低,延长了设备使用寿命。中国联通计划继续在数据中心推进液冷应用,提升液冷技术的传热性能与成本效率,以实现更环保、低能耗的运营模式。

二、驱动因素

根据 TrendForce 预测,2025 年液冷在全球数据中心的渗透率将从 2024 年的 10%增长至20%以上,虽然风冷在存量市场仍占主导地位,但在算力需求提升、节能减排的社会目标下,液冷正在成为芯片/机架级冷却的主流解决方案。 一方面,英伟达最新发布的 GB300OEM/ODM 供应商均采用全液冷方案;另一方面,2024 年7 月由四部委发布的《数据中心绿色低碳发展专项行动计划》提出,到 2025 年底,全国数据中心平均电能利用效率(PUE)降至 1.5 以下,而根据 2025 年 6 月 1 日新闻,最新一批“国家绿色数据中心”的PUE 平均值已降至 1.26,PUE 指标持续下降是新建及存量数据中心改造的必然趋势。

1、需求层面:智算中心催生高算力芯片,系统级功耗大幅提高

ChatGPT 引爆的生成式 AI 浪潮让智能算力需求呈爆发式上升,数据中心产业投资开始从通用算力中心迅速转向智能算力中心。 通用算力是基于 CPU 提供的基础计算能力,智能算力是依靠 GPU、FPGA、ASIC 等芯片加速特定类型的运算;根据工信部印发的《算力基础设施高质量发展行动计划》定义,智能计算中心是通过使用大规模异构算力资源,包括通用算力和智能算力,主要为人工智能应用(如人工智能深度学习模型开发、模型训练和模型推理等场景)提供所需算力、数据和算法的设施。 智算中心在芯片体系、网络拓扑和软件栈上都与传统数据中心存在本质差异,其核心价值在于按需聚合、调度 GPU 级别的高并行算力,机柜功率、带宽密度和服务器整机规模均远超传统云数据中心。为了满足不断攀升的算力需求,海外以英伟达为首,国内以华为为首的服务器供应商陆续推出匹配智算中心需求的芯片架构及系统方案: 英伟达:Blackwell 架构下已经实现量产出货的三款产品 B100-B200-GB200,单芯片半精度(FP16)算力从 1.8Pflops 提升至 5Pflops,同时最大热设计功率(TDP)从 700W 提升至2700W,从最新发布的B300/GB300 来看,GB300 算力较 GB200 提升 50%,B300TDP 较 B200 增加 200W。华为:910B 半精度(FP16)算力达 320Tflops,最大功耗 400W,2024 年 Q4 推出910C,半精度(FP16)算力飞涨至 780Tflops,相同任务下功耗降低 30%。

虽然从单芯片参数上,国内与海外还存在代差,但华为提出基于 910C 的纵向扩展解决方案CloudMatrix384 半精度算力达到英伟达 GB200-NVL72 的 1.7 倍,CM384 通过多对多拓扑连接384 个昇腾910C 芯片,且由于横向及纵向拓展网络大规模采用 400G 光模块而非铜缆,总系统功耗较高、接近600kW。

随着单芯片及机柜级功率密度提升,传统的风冷方案难以充分冷却设备,TGG 建议把15-25kW 机柜功率作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,一般认为机柜功率密度20kW 以上的人工智能集群不适宜采用风冷方案。据统计,英伟达 GB300OEM/ODM 厂商均采用全液冷架构。国内华为 910C 单芯片虽然还未达到必须采用液冷的功耗门槛,但从系统级能耗来看,CM384 方案对散热提出了更高要求。

2、政策层面:数据中心 PUE 指标趋严,老旧存量项目面临关停

PUE(Power Usage Effectiveness)是评估数据中心效率水平的重要指标,PUE=数据中心消耗的所有能源/IT 负载消耗的能源,其中 IT 负载消耗是指用于计算、存储和网络设备的电力和能源,PUE 越接近1,数据中心的能效水平越好。 作为“新基建”的数字底座与核心代表,数据中心在国家“双碳”目标战略框架下被赋予更高维度的绿色发展使命。国家层面对于大型数据中心 PUE 指标要求逐年提高,根据 2024 年7 月国家发改委、工信部、能源局、数据局联合发布的《数据中心绿色低碳发展专项行动计划》,要求到2025 年底,新建及改扩建大型和超大型数据中心 PUE 降至 1.25 以内,国家枢纽节点数据中心项目PUE 不得高于1.2。

除了国家层面对数据中心能耗指标提出硬性要求外,各省市对不符合要求的存量低效数据中心提出了严格的改造或关停要求。例如北京市《北京市存量数据中心优化工作方案(2024-2027 年)》中提出引导全年电力能源消耗量在 5GWh 及以上、PUE>1.35 的存量数据中心完成绿色低碳改造、转型为智能算力中心,2026 年起对 PUE 值高于 1.35 的数据中心征收差别电价;上海市《上海市推动大规模设备更新和消费品以旧换新行动计划(2024-2027 年)》中提出加快既有数据中心升级改造,将规模小、效益差、能耗高的小散老旧数据中心纳入产业限制和淘汰目录,加大高效制冷技术和新能源推广应用力度。

在运行成本结构中,制冷系统一直是仅次于 IT 负载的第二能耗大户,当前数据中心制冷能耗占约20%-30%,传统风冷方案下能耗可达 50%-70%,因此降低制冷系统的能耗可以显著提高数据中心的电能利用效率,相比空气,液体凭借更高的热传导效率,能够在更低的能源消耗下实现更好的散热效果,从而进一步降低 PUE。

参考报告

液冷行业深度分析:驱动因素、市场空间、产业链及相关公司深度梳理.pdf

液冷行业深度分析:驱动因素、市场空间、产业链及相关公司深度梳理。全球算力需求高速增长,推动芯片功耗及数据中心单机柜功率密度持续攀升,传统风冷已难满足相关散热需求,具有更高散热效率的液冷或成为必选方案。同时,“双碳”宏观形势下,政府部门对数据中心PUE监管日益趋严,液冷作为降低PUE指标的有效方案,有望在数据中心中加速渗透。根据中国信通院的预测,2023—2027年期间,中国液冷数据中心市场将以59%的复合增长率持续蓬勃发展。以下内容我们就沿着液冷行业的持续发展趋势,对相关问题展开分析梳理。当前液冷市场的现状怎样?驱动该行业发展的具体因素有哪些?不同的液冷技术...

查看详情
相关报告
我来回答