数据中心电气及热管理相关的设备受益 AI 算力的高增长,将迎来高质量增长。
1.AI 发展将带动电力需求高增长
AI 应用驱动的算力增长,将成为全球主要的电量增长驱动。我们认为 AI 应用将成为全球的 重要电力需求增长来源。如我们在此前报告《能源转型-但问路在何方》(2023.12.01)中强 调的,未来的经济发展可能是低碳的,但是未必是低电耗的,电气化、AI 应用等新的需求 驱动,将不断拉动新兴的电力增长驱动。以中美为例,2022 年数据中心用电占到社会用电 量的 3-4%。基准预期下,我们预期至 2030 年,中美的数据中心年用量将超 9500/6500 亿 度,均达到 2022 年的 3.5 倍以上。乐观预期下,2030 年中美数据中心年用电量将达 1.7/1.2 万亿度电,均达到 2022 年的 6 倍以上。
1. 2022 年中美数据中心用电分别占社会用电量的 3/4%。 2022 年中国数据中心用电量 达 2700 亿度电1,同比增长 25%,占中国当年度全社会用电量的 3.1%;美国 2022 年 数据中心用电量占美国电力需求约 4%2,对应约 1500-1700 亿度电左右。 2. 基准算力预期:信通院预期全球 2025/2030 年的算力将超过 3 ZFLOPS 与 20 ZFLOPS (FP32 算力等效),较是 2022 年的 3.3/22.1 倍。根据信通院《中国算力发展白皮书 2023》,2022年全球算力规模(FP32等效)约 906 EFLOPS,其中中国约 302 EFLOPS, 美国 308 EFLOPS,占比分别约 33%/34%。信通院预测至 2025 年/2030 年,全球算 力将超过 3 ZFLOPS 与 20 ZFLOPS。 3. 乐观算力预期:华为预期 2030 年全球通用算力达 3.3 ZFLOPS,AI 算力达到 105 ZFLOPS3,全球总算力将超过 108 ZFLOPS,是 2022 年的 120 倍。 4. 基准预期下,我们测算中美至 2030 年,数据中心用电量将超过 9500/6500 亿度电, 是 2022 年的 3.5 倍以上,2022 年到 2030E CAGR 达到 17%/18%。乐观预期下,我 们测算中美至 2030 年,数据中心用电量将达到 1.7/1.2 万亿度,是 2022 年的 6 倍以 上,2022 年到 2030E CAGR 达到 26%/27%。 5. AI 数据中心配套设备的市场空间将结构性的获得更高增速与高质量的发展,基准/乐观 预期下,中美数据中心配套设备合计的市场空间于 2030 年将分别达到约 3700/1.1 万 亿元,是 2022 年的 3/9 倍,2022-2030E CAGR 分别达到 14%/31%。我们考虑的数 据中心配套设备包含供配电系统、热管理系统、机柜系统及软件/服务,根据维谛 (Vertive)指引,传统数据中心单位价值量在 2.5-3 百万美元每兆瓦,AI 数据中心则 将达到 3-3.5 百万美元每兆瓦。核心的变化在于热管理系统的液冷化,以及供配电系 统质量要求、功率密度的全面提升。AI 数据中心将带来核心配套设备的高成长空间。

AI 应用快速发展。自 2022 年 11 月 30 日 OpenAI 首次发布 ChatGPT,并于 2023 年 1 月 累计用户超过 1 亿,世界演示了 AI 发展接近实际应用的可能性,也全面开启了投资界对 AI 投资的热潮。从目前的 AI 应用来看,其应用领域广泛,包含文本交互,搜索,图像,语音 翻译等功能,目前自动驾驶的底层逻辑也是 LLM,我们认为 AI 对人类逻辑的理解能力,使 得未来其人机交互能力成为核心,有望大幅降低人类对计算机功能的使用门槛,成为新的 流量端口。根据腾讯研究院《AIGC 发展趋势报告 2023》4,AIGC 已经率先在传媒、电商、 影视等数字化程度高,内容需求丰富的行业取得重大创新发展,与此同时,金融、医疗、 工业等各领域 AIGC 的应用也都在快速发展。 AI 对应的算力芯片需求与电量需求初现规模。根据文献5,SemiAnalysis 预期 OpenAI 需要 3617 个英伟达 HGX A100 服务器以支持 ChatGPT 的交互,包含 28936 个 GPU,对应约 564MWh/天的用电量。同时,AI 需求的爆发也将驱动更多的进入者与持续的需求增长,以 谷歌搜索为例6,若每次搜索中都嵌入 AI 应用,则对应需要约 40-51 万套英伟达 HGX A100 服务器以支持,对应约 62-80GWh/天的用电量。
算力功耗与数据中心用能效率将影响远期用电量。我们认为数据中心的用电量预期受几大 要素的影响,1)算力增长的预期,2)芯片功耗的预期,3)数据中心用能效率的预期。其 中算力我们在前述已讨论基准与乐观的两种预期情景。
1. 芯片算力功耗的优化对 AI 用电有重要的影响。从 2020 年 NVDA 发布 A100 到 2024 年发布 B100/200,每 W 的算力(FP32 等效)由 49GFLOPS 提升至了 152GLOPS, 增长了 200%以上。而这一过程还会随着芯片制程与 GPU 系统架构的优化而持续有进 步的空间。根据 AMD 在 2021 年 ISSCC 大会上的预期7,未来芯片的每 W 算力将每 2.2 年翻倍。此外,根据 IMEC,芯片的制程工艺与封装工艺将持续迭代,2024 年 GAA 芯片有望得到全面使用,并于 2032 年后实现 CFET 芯片的量产化。
2. 数据中心 PUE 或在 AI 趋势下得到进一步优化。 A. 行业整体 PUE 在 1.5-1.6 左右。根据《数据中心产业发展白皮书 2023》,中国 2021 年全国数据中心平均 PUE 为 1.49,相较于 2019 年的 1.6 有持续的提升,核心原 因在于热管理系统与供配电损耗的优化。全球范围来看,根据 Uptime Institute 的全球数据中心调研,全球数据的平均 PUE 在 2021 年为 1.57。 B. 部分互联网巨头在数据中心能耗优化上走在前列。谷歌在数据中心的功耗管理上 处于领先地位,其数据中心 PUE 基本上维持于 1.1 左右。
C. 数据中心非 IT 设备部分的功耗优化主要源于热管理系统与供配电系统的效率,我 们预期新建设的 AI 数据中心 PUE会在 1.3及以下。从数据中心的能耗分布来看, 非 IT 设备部分的能耗主要集中于热管理系统与供配电系统,其中供配电系统主要 源于系统的电损(转换损耗、线损等),热管理系统则主要源于其散热效率。提升 数据中心 PUE 的核心措施包括:1)使用更高效率的散热模式,如风冷转液冷。 2)采用更高效率的 UPS 与配电系统设计。政策层面,根据 2021 年/2022 年相 关的数据中心产业指引政策(见图表 10),中国 2025 年的新建数据中心的 PUE 有望下降至 1.3 及以下。产业发展的变化上,机柜更高的功率密度也将推动液冷 的进一步使用。我们预期全球新建设的 AI 数据中心 PUE 将达到 1.3 及以下。
3. 基于以上讨论,在基准与乐观的算力预期下,考虑不同的 PUE 迭代与算力功耗情景。
2.AI 数据中心配套设备质量与价值量共增长
数据中心电气及热管理相关的设备受益 AI 算力的高增长,将迎来高质量增长。着眼于数据 中心核心的供配电与热管理相关的装备,我们认为 1)在 AI 算力的增长带动下,AI 专用数 据中心的建设将显著提速,2)AI 数据中心能量密度与用能质量要求显著高于传统数据中心, 带动热管理、传统供配电设备的产品要求迭代,质量要求提升,价值量增长。结论性来看: 1. 我们测算中国/美国数据中心核心服务器累计名义功率 2022 为 34GW/20GW,受益于 AI 驱动的数据中心建设提速,中长期供配电与热管理相关设备市场空间将快速增长。 A. 基准情景:2030 年将增长至 116/76GW,2030 年增量功率达到 14/8.7GW,对 应配套装备的市场空间分别达到 250/268 亿美元,合计市场空间是 2022 年的 3 倍,2022 年到 2030E CAGR 达到 14%。 B. 乐观情景:2030 年将增长至 251/163GW,2030 年增量功率达到 44/25GW,对 应配套装备的市场空间分别达到 783/768 亿美元,合计市场空间是 2022 年的 9 倍,2022 年到 2030E CAGR 达到 31%。 2. 根据维谛(Vertive)指引,传统/AI 数据中心配套单 MW 核心 IT 设备的相关装备价值 量分别达到 2.5-3 百万美元与 3-3.5 百万美元,供配电占约 1/3,热管理占约 1/3,机 柜、软件服务占 1/3。 3. 我们认为 AI 数据中心的供配电与热管理设备相较于传统数据中心,对产品功率密度, 质量稳定性要求更为严苛,准入门槛提升,更利于行业头部企业。

数据中心相关配套装备可分为三大类 1. 数据中心供配电装备。中压侧包含中压自动转换开关(ATS)、中压备电系统(传统数 据中心一般使用柴油发电机)、10kV 配电与变压器。低压侧则包含 400V 主配电柜, UPS 及精密配电柜系统。 2. 热管理系统。一般分为风冷与液冷,其中风冷又可进一步分为传统风冷与氟泵风冷, 主要的设备均为风冷空调系统;液冷目前技术的主流为单相浸没式液冷与冷板式液冷。 核心设备为冷源、液冷分配单元(CDU)、冷却液等。 3. 机柜、数据中心软件与服务。
根据维谛指引,高能量密度计算的数据中心(即 AI 数据中心)每 MW 的核心 IT 设备所对 应的配套设备的价值量,将由目前的 250-300 万美元,增长至 300-350 万美元。 1. 维谛是全球三相大型 UPS、数据配电与开关集成、热管理系统的领军企业,产品涵盖 除了备电柴发外的几乎所有数据中心相关装备。因此我们认为其收入结构可一定程度 上代表数据中心相关装备的价值量分布。 2. 整体来看,热管理系统、供配电系统均占的数据中心配套装备市场空间的约 1/3。3. 根据维谛指引,每 MW 的数据中心核心 IT 设备的配套相关设备的价值量,在传统数 据中心为 250-300 万美元,在 AI 数据中心,则有望提升至 300-350 万美元。其核心 驱动因素源于两部分,一方面是高功率机柜将更大比例的使用液冷,另一方面高功率 的机柜与整体数据中心能量密度的提升,也将使得供配电环节的产品要求提升,带来 单位价值量的增长。
以英伟达 DGX 服务器的演变为例,基于 V100 的 DGX-1 的服务器最大功率仅 3.5kW,而 基于 H100/B200 的服务器最大功率则增长至 10.2/14.3kW。考虑一个机柜包含 4 个 DGX 服务器,机柜的功率将由 DGX-1 的 14kW 增长至 DGX H100/B200 的 41/57kW。机架的体 积不变,但功率持续提升下,风冷的散热效率开始逐步难以满足要求,液冷的需求占比将 持续提升。
供配电等环节的质量与性能要求也需要同步提升。此外,由于整体数据中心低压侧的电压 并不会有变化,但整体功率大幅提升下,核心的精密配电单元的数目或可承载电流则需要 大幅提升。整体上,数据中心功率密度的大幅提升,对供配电,以及热管理,乃至整体的 系统控制 ,都将提出更高的要求。
我们认为 AI 数据中心供配电及热管理相关设备,由于其更高的质量、性能要求,将使得进 入门槛抬升,各环节的龙头企业具备更优的竞争格局,享受质价双增。
3.AI 数据中心可能带来稳定电源紧缺与区域性缺电风险
我们已经看到数据电力需求在 AI 的带动作用下或将快速增长。从总量角度,以 2022 年的 用电量为基准,基准情景下中/美 2030 年的数据中心用电量将达到总用电量的 12/18%,乐 观情景下则将达到总用电量的 20%/31%。结构来看,由于数据中心区域分布并不均衡,以 及 AI 需求下对电能质量的要求明显提升,将形成两方面的电力紧缺可能性,带来结构性的 投资机遇。
1. 区域性缺电风险存在提升的可能性,特别是北美。美国目前数据中心主要分布于加州、 德州、弗吉尼亚(Virginia)州等。其中,弗吉尼亚州因其电价低、营商环境好、光纤 网络便利,拥有全球约 35%的超大规模数据中心(Hyperscale datacenter),是美国 最重要的数据中心集中区域。我们估算到 2025/30 年弗州数据中心用电需求占比将达 到当前州内全部用电量的 43%、89%(vs 当前:21%),或可能形成区域性缺电。乐 观情景下,按同样假设,弗州数据中心用电需求将达到 2022 年总用电量水平的 1.63 倍,缺电风险进一步提升。 2. 高质量的稳定电源或供不应求,北美短期核电最为受益。以 H100 SXM 与 A30 作为 GPU 为对比,考虑一个数据中心包含 5000 台服务器,每台服务器中包含 8 个 GPU。 数据中心服务器总价值量将相差近 6.4 倍,其中使用 H100 SXM 数据中心的服务器总 价值量将达到 16 亿美金以上。耗电量上则将相差 4 倍,数据中心供应配电与热管理设 备的价值量占比由 18%下降至 13%。
同时,AI 数据中心的用能负载率也较高(训练在 特定时间内可达 100%)。综上原因,将使得数据中心对于电能的可靠性、连续性有更 高的要求。虽然供配电系统可以平抑一定的波动,但发电电源本身的电能质量,也开 始得到进一步的重视。我们认为: A. 稳定性电源相较于非稳定电源,在 AI 数据中心的电力应用上,有望获得溢价。 B. 结合清洁性的要求,短期兼备稳定/不间断/清洁要求的电源主要为核电,远期氢 能与小堆或成为重要的补充性稳定基荷能源与备用电源。 3. AI 作为重要的电力增长驱动,也将带动稳定的基荷电源具备增量的装机成长空间,并 驱动基荷性的新型电源迎来市场化的机遇。优质的发电装备企业迎来新的成长周期。