2024年能源转型专题:AI发展对电力存在哪些影响与机遇?

  • 来源:华泰证券
  • 发布时间:2024/03/25
  • 浏览次数:341
  • 举报

AI 发展将带动电力需求高增长

AI 应用驱动的算力增长,将成为全球主要的电量增长驱动。我们认为 AI 应用将成为全球的 重要电力需求增长来源。如我们在此前报告《能源转型-但问路在何方》(2023.12.01)中强 调的,未来的经济发展可能是低碳的,但是未必是低电耗的,电气化、AI 应用等新的需求 驱动,将不断拉动新兴的电力增长驱动。以中美为例,2022 年数据中心用电占到社会用电 量的 3-4%。基准预期下,我们预期至 2030 年,中美的数据中心年用量将超 9500/6500 亿 度,均达到 2022 年的 3.5 倍以上。乐观预期下,2030 年中美数据中心年用电量将达 1.7/1.2 万亿度电,均达到 2022 年的 6 倍以上。

1. 2022 年中美数据中心用电分别占社会用电量的 3/4%。 2022 年中国数据中心用电量 达 2700 亿度电1,同比增长 25%,占中国当年度全社会用电量的 3.1%;美国 2022 年 数据中心用电量占美国电力需求约 4%2,对应约 1500-1700 亿度电左右。 2. 基准算力预期:信通院预期全球 2025/2030 年的算力将超过 3 ZFLOPS 与 20 ZFLOPS (FP32 算力等效),较是 2022 年的 3.3/22.1 倍。根据信通院《中国算力发展白皮书 2023》,2022年全球算力规模(FP32等效)约 906 EFLOPS,其中中国约 302 EFLOPS, 美国 308 EFLOPS,占比分别约 33%/34%。信通院预测至 2025 年/2030 年,全球算 力将超过 3 ZFLOPS 与 20 ZFLOPS。 3. 乐观算力预期:华为预期 2030 年全球通用算力达 3.3 ZFLOPS,AI 算力达到 105 ZFLOPS3,全球总算力将超过 108 ZFLOPS,是 2022 年的 120 倍。 4. 基准预期下,我们测算中美至 2030 年,数据中心用电量将超过 9500/6500 亿度电, 是 2022 年的 3.5 倍以上,2022 年到 2030E CAGR 达到 17%/18%。乐观预期下,我 们测算中美至 2030 年,数据中心用电量将达到 1.7/1.2 万亿度,是 2022 年的 6 倍以 上,2022 年到 2030E CAGR 达到 26%/27%。 5. AI 数据中心配套设备的市场空间将结构性的获得更高增速与高质量的发展,基准/乐观 预期下,中美数据中心配套设备合计的市场空间于 2030 年将分别达到约 3700/1.1 万 亿元,是 2022 年的 3/9 倍,2022-2030E CAGR 分别达到 14%/31%。我们考虑的数 据中心配套设备包含供配电系统、热管理系统、机柜系统及软件/服务,根据维谛 (Vertive)指引,传统数据中心单位价值量在 2.5-3 百万美元每兆瓦,AI 数据中心则 将达到 3-3.5 百万美元每兆瓦。核心的变化在于热管理系统的液冷化,以及供配电系 统质量要求、功率密度的全面提升。AI 数据中心将带来核心配套设备的高成长空间。

AI 应用快速发展。自 2022 年 11 月 30 日 OpenAI 首次发布 ChatGPT,并于 2023 年 1 月 累计用户超过 1 亿,世界演示了 AI 发展接近实际应用的可能性,也全面开启了投资界对 AI 投资的热潮。从目前的 AI 应用来看,其应用领域广泛,包含文本交互,搜索,图像,语音 翻译等功能,目前自动驾驶的底层逻辑也是 LLM,我们认为 AI 对人类逻辑的理解能力,使 得未来其人机交互能力成为核心,有望大幅降低人类对计算机功能的使用门槛,成为新的 流量端口。根据腾讯研究院《AIGC 发展趋势报告 2023》4,AIGC 已经率先在传媒、电商、 影视等数字化程度高,内容需求丰富的行业取得重大创新发展,与此同时,金融、医疗、 工业等各领域 AIGC 的应用也都在快速发展。 AI 对应的算力芯片需求与电量需求初现规模。根据文献5,SemiAnalysis 预期 OpenAI 需要 3617 个英伟达 HGX A100 服务器以支持 ChatGPT 的交互,包含 28936 个 GPU,对应约 564MWh/天的用电量。同时,AI 需求的爆发也将驱动更多的进入者与持续的需求增长,以 谷歌搜索为例6,若每次搜索中都嵌入 AI 应用,则对应需要约 40-51 万套英伟达 HGX A100 服务器以支持,对应约 62-80GWh/天的用电量。

算力功耗与数据中心用能效率将影响远期用电量。我们认为数据中心的用电量预期受几大 要素的影响,1)算力增长的预期,2)芯片功耗的预期,3)数据中心用能效率的预期。其 中算力我们在前述已讨论基准与乐观的两种预期情景。

1. 芯片算力功耗的优化对 AI 用电有重要的影响。从 2020 年 NVDA 发布 A100 到 2024 年发布 B100/200,每 W 的算力(FP32 等效)由 49GFLOPS 提升至了 152GLOPS, 增长了 200%以上。而这一过程还会随着芯片制程与 GPU 系统架构的优化而持续有进 步的空间。根据 AMD 在 2021 年 ISSCC 大会上的预期7,未来芯片的每 W 算力将每 2.2 年翻倍。此外,根据 IMEC,芯片的制程工艺与封装工艺将持续迭代,2024 年 GAA 芯片有望得到全面使用,并于 2032 年后实现 CFET 芯片的量产化。

2. 数据中心 PUE 或在 AI 趋势下得到进一步优化。 A. 行业整体 PUE 在 1.5-1.6 左右。根据《数据中心产业发展白皮书 2023》,中国 2021 年全国数据中心平均 PUE 为 1.49,相较于 2019 年的 1.6 有持续的提升,核心原 因在于热管理系统与供配电损耗的优化。全球范围来看,根据 Uptime Institute 的全球数据中心调研,全球数据的平均 PUE 在 2021 年为 1.57。 B. 部分互联网巨头在数据中心能耗优化上走在前列。谷歌在数据中心的功耗管理上 处于领先地位,其数据中心 PUE 基本上维持于 1.1 左右。

C. 数据中心非 IT 设备部分的功耗优化主要源于热管理系统与供配电系统的效率,我 们预期新建设的 AI 数据中心 PUE会在 1.3及以下。从数据中心的能耗分布来看, 非 IT 设备部分的能耗主要集中于热管理系统与供配电系统,其中供配电系统主要 源于系统的电损(转换损耗、线损等),热管理系统则主要源于其散热效率。提升 数据中心 PUE 的核心措施包括:1)使用更高效率的散热模式,如风冷转液冷。 2)采用更高效率的 UPS 与配电系统设计。政策层面,根据 2021 年/2022 年相 关的数据中心产业指引政策(见图表 10),中国 2025 年的新建数据中心的 PUE 有望下降至 1.3 及以下。产业发展的变化上,机柜更高的功率密度也将推动液冷 的进一步使用。我们预期全球新建设的 AI 数据中心 PUE 将达到 1.3 及以下。

3. 基于以上讨论,在基准与乐观的算力预期下,考虑不同的 PUE 迭代与算力功耗情景。

AI 数据中心配套设备质量与价值量共增长

数据中心电气及热管理相关的设备受益 AI 算力的高增长,将迎来高质量增长。着眼于数据 中心核心的供配电与热管理相关的装备,我们认为 1)在 AI 算力的增长带动下,AI 专用数 据中心的建设将显著提速,2)AI 数据中心能量密度与用能质量要求显著高于传统数据中心, 带动热管理、传统供配电设备的产品要求迭代,质量要求提升,价值量增长。结论性来看: 1. 我们测算中国/美国数据中心核心服务器累计名义功率 2022 为 34GW/20GW,受益于 AI 驱动的数据中心建设提速,中长期供配电与热管理相关设备市场空间将快速增长。 A. 基准情景:2030 年将增长至 116/76GW,2030 年增量功率达到 14/8.7GW,对 应配套装备的市场空间分别达到 250/268 亿美元,合计市场空间是 2022 年的 3 倍,2022 年到 2030E CAGR 达到 14%。 B. 乐观情景:2030 年将增长至 251/163GW,2030 年增量功率达到 44/25GW,对 应配套装备的市场空间分别达到 783/768 亿美元,合计市场空间是 2022 年的 9 倍,2022 年到 2030E CAGR 达到 31%。 2. 根据维谛(Vertive)指引,传统/AI 数据中心配套单 MW 核心 IT 设备的相关装备价值 量分别达到 2.5-3 百万美元与 3-3.5 百万美元,供配电占约 1/3,热管理占约 1/3,机 柜、软件服务占 1/3。 3. 我们认为 AI 数据中心的供配电与热管理设备相较于传统数据中心,对产品功率密度, 质量稳定性要求更为严苛,准入门槛提升,更利于行业头部企业。

数据中心相关配套装备可分为三大类 1. 数据中心供配电装备。中压侧包含中压自动转换开关(ATS)、中压备电系统(传统数 据中心一般使用柴油发电机)、10kV 配电与变压器。低压侧则包含 400V 主配电柜, UPS 及精密配电柜系统。 2. 热管理系统。一般分为风冷与液冷,其中风冷又可进一步分为传统风冷与氟泵风冷, 主要的设备均为风冷空调系统;液冷目前技术的主流为单相浸没式液冷与冷板式液冷。 核心设备为冷源、液冷分配单元(CDU)、冷却液等。 3. 机柜、数据中心软件与服务。

根据维谛指引,高能量密度计算的数据中心(即 AI 数据中心)每 MW 的核心 IT 设备所对 应的配套设备的价值量,将由目前的 250-300 万美元,增长至 300-350 万美元。 1. 维谛是全球三相大型 UPS、数据配电与开关集成、热管理系统的领军企业,产品涵盖 除了备电柴发外的几乎所有数据中心相关装备。因此我们认为其收入结构可一定程度 上代表数据中心相关装备的价值量分布。 2. 整体来看,热管理系统、供配电系统均占的数据中心配套装备市场空间的约 1/3。3. 根据维谛指引,每 MW 的数据中心核心 IT 设备的配套相关设备的价值量,在传统数 据中心为 250-300 万美元,在 AI 数据中心,则有望提升至 300-350 万美元。其核心 驱动因素源于两部分,一方面是高功率机柜将更大比例的使用液冷,另一方面高功率 的机柜与整体数据中心能量密度的提升,也将使得供配电环节的产品要求提升,带来 单位价值量的增长。

以英伟达 DGX 服务器的演变为例,基于 V100 的 DGX-1 的服务器最大功率仅 3.5kW,而 基于 H100/B200 的服务器最大功率则增长至 10.2/14.3kW。考虑一个机柜包含 4 个 DGX 服务器,机柜的功率将由 DGX-1 的 14kW 增长至 DGX H100/B200 的 41/57kW。机架的体 积不变,但功率持续提升下,风冷的散热效率开始逐步难以满足要求,液冷的需求占比将 持续提升。

供配电等环节的质量与性能要求也需要同步提升。此外,由于整体数据中心低压侧的电压 并不会有变化,但整体功率大幅提升下,核心的精密配电单元的数目或可承载电流则需要 大幅提升。整体上,数据中心功率密度的大幅提升,对供配电,以及热管理,乃至整体的 系统控制 ,都将提出更高的要求。

我们认为 AI 数据中心供配电及热管理相关设备,由于其更高的质量、性能要求,将使得进 入门槛抬升,各环节的龙头企业具备更优的竞争格局,享受质价双增。

AI 数据中心可能带来稳定电源紧缺与区域性缺电风险

我们已经看到数据电力需求在 AI 的带动作用下或将快速增长。从总量角度,以 2022 年的 用电量为基准,基准情景下中/美 2030 年的数据中心用电量将达到总用电量的 12/18%,乐 观情景下则将达到总用电量的 20%/31%。结构来看,由于数据中心区域分布并不均衡,以 及 AI 需求下对电能质量的要求明显提升,将形成两方面的电力紧缺可能性,带来结构性的 投资机遇。

1. 区域性缺电风险存在提升的可能性,特别是北美。美国目前数据中心主要分布于加州、 德州、弗吉尼亚(Virginia)州等。其中,弗吉尼亚州因其电价低、营商环境好、光纤 网络便利,拥有全球约 35%的超大规模数据中心(Hyperscale datacenter),是美国 最重要的数据中心集中区域。我们估算到 2025/30 年弗州数据中心用电需求占比将达 到当前州内全部用电量的 43%、89%(vs 当前:21%),或可能形成区域性缺电。乐 观情景下,按同样假设,弗州数据中心用电需求将达到 2022 年总用电量水平的 1.63 倍,缺电风险进一步提升。 2. 高质量的稳定电源或供不应求,北美短期核电最为受益。以 H100 SXM 与 A30 作为 GPU 为对比,考虑一个数据中心包含 5000 台服务器,每台服务器中包含 8 个 GPU。 数据中心服务器总价值量将相差近 6.4 倍,其中使用 H100 SXM 数据中心的服务器总 价值量将达到 16 亿美金以上。耗电量上则将相差 4 倍,数据中心供应配电与热管理设 备的价值量占比由 18%下降至 13%。同时,AI 数据中心的用能负载率也较高(训练在 特定时间内可达 100%)。综上原因,将使得数据中心对于电能的可靠性、连续性有更 高的要求。虽然供配电系统可以平抑一定的波动,但发电电源本身的电能质量,也开 始得到进一步的重视。我们认为: A. 稳定性电源相较于非稳定电源,在 AI 数据中心的电力应用上,有望获得溢价。 B. 结合清洁性的要求,短期兼备稳定/不间断/清洁要求的电源主要为核电,远期氢 能与小堆或成为重要的补充性稳定基荷能源与备用电源。 3. AI 作为重要的电力增长驱动,也将带动稳定的基荷电源具备增量的装机成长空间,并 驱动基荷性的新型电源迎来市场化的机遇。优质的发电装备企业迎来新的成长周期。

总量:分布的不均匀性可能带来区域性缺电风险

总量层面,数据中心对电力增长的拉动效应美国高于中国。基准与乐观情景下,平均年用 电增量较 2022年用电量的弹性美国/中国分别达到 1.5%/1%与 3.2%/2.2%。2018-2022年, 中国用电量 CAGR 达到 6%,美国仅 0.44%,几乎无增长。由此,AI 将成为美国的重要的 电力增长的驱动要素,拉动美国电力重新回归正增长。

结构来看,美国数据中心分布相对集中,部分州数据中心占用电需求达到州内总用电量的 可观比例,带来区域性缺电的可能性。 1. 数据中心的分布往往会考虑靠近应用、低电价、稳定供电等因素,具备一定的集中性。 以弗州为例,因其电价低、营商环境好、光纤网络便利,拥有全球约 35%的超大规模 数据中心(Hyperscale datacenter),是美国最重要的数据中心集中区域。弗州的工业 电价相对于美国整体较低,主要受益于天然气发电占比高(电力供应的 54%来自天然 气,且其中 80%+是成本相对优势的煤层气,此外 31%为稳定核电)且零售电价竞争 放开带动电价优化。 2. 美国前三大的数据中心集中地为弗吉尼亚、德州、加州。根据 Datacentermap 统计, 美国目前数据中心主要分布于加州、德州、弗吉尼亚(Virginia)州等,按数据中心数 量来看分别占比 12%、10%、8%。数据中心在部分州已经占据其州内总用电量可观比 重,如根据弗州最大的公用事业企业道明尼能源披露(Dominion Energy,在弗州售电 量份额约三分之二),其在弗州 2022 与 2023 年电力销售中 21%/24%流向数据中心。 3. 以弗吉尼亚为例,AI 需求的爆发会对周内的电力需求带来紧缺的可能,提高了其州内 公用事业企业支出增长的增速。弗州为例,我们估算弗州贡献全美数据中心用电量的 ~18%。基准情景下,我们预期美国 2025/30 年数据中心用电量达到 32、66 亿度电, 若弗州维持 18%的占比,则到 2025/30 年弗州数据中心用电需求占比将达到当前全部 用电量的 43%、89%(vs 当前:21%),电力缺口较大。此外,德州州长亦于近期表 态8,若要满足德州由居民、石油钻井、数据中心等拉动的电力需求,德州电力装机需 要每年增长 15%。道明尼能源在其 2023 年年报中也提及数据中心会为弗吉尼亚未来 10 年带来持续且可观的电力需求增长,因此从供给层面面临挑战,需要在发电与输电 层面加大投资以匹配持续增长的需求,其 2024 年规划的弗吉尼亚州业务资本支出(包 含发电、输电与配件)较 2023 年增长 31%,达到 94 亿美元。

质量:高可靠、不间断、清洁性驱动稳定发电电源需求

我们认为 AI 数据中心将驱动稳定与清洁型电源需求提升,短期最合适的电源类型为核电, 中长期考虑清洁性下,氢基燃料电池或氢燃机,以及核电小堆或将成为重要的技术发展方 向。 1. 波动带来的成本损耗远高于传统数据中心。AI 数据中心的价值量随着 GPU 算力与价 格的提升而快速增长,因此在同样的电源所引发的硬件损耗的概率下,AI 数据中心的 损失都将更高。由此,电源接入本身的选择也将追逐更为稳定的来源。 2. 电源稳定不间断:AI 的应用不论是训练还是推理,都可能在较高的负载率下工作(训 练可能达到 100%),因此其用电负载波动性小,对电源的稳定性、连续性的要求相较 于负载波动率大的传统数据中心更高。 3. 电源具备清洁性:北美互联网巨头已经成为美国最重要的绿电 PPA 买家,因此清洁性 对于其 AI 数据中心的发展同样重要。

AI 数据中心随着单卡算力与价格的不断提升,数据中心的核心价值体量在快速提升,潜在 电源波动带来的损失将更高。我们以 A30 与 H100-SXM GPU 为对比,考虑一个 5000 台服 务器的数据中心,每台服务器包含 8 个对应的 GPU。从下图可以清晰的看到,从服务器价 值量,最大总功耗等各环节,H100-SXM 均是 A30 数据中心的数倍。同时,由于数据中心 的占地面积并不会等比例扩大,因此功率密度也大幅提升。在同样的电源的波动概率下, AI 数据中心潜在的受损额将更高。

AI 数据中心的负荷率或进一步高于传统数据中心,对电能的稳定性要求更高。根据施耐德, AI 训练的工作负载可达 100%(即一直以最大功率运行),而模型的单次训练时间并不短, 如 GPT-4 的单次训练时长可达 5-6 个月9,由此将进一步提升对电能稳定与不间断性的要求。

AI 数据中心在用电质量要求上,将进一步高于传统数据中心,特别是对电能稳定性,以及 电能不间断性的要求。虽然说通过 UPS、备电等供配电系统的优化,可以将市电进行优化, 但考虑到极高的价值量与潜在的波动性带来的损失,我们认为优质的发电电源,也将成为 AI 数据中心重要的选择一环。 北美互联网与云巨头同时在电力供给上追求清洁性。根据 BNEF 数据,以 2022 年统计为 例,美国清洁能源购电协议(PPA)的头部买家均为北美互联网与云巨头,其中前四大买 家包括 Amazon、Meta、Google、Microsoft,其分别在 2022 年单年采购了 10.9、2.6、1.6、 1.3GW 的清洁能源 PPA(风电+光伏),上述 TOP4 企业合计 16.4GW 的采购量占到北美 2022 年清洁能源 PPA 总签订规模的~70%。

结合稳定、不间断、清洁性,目前可选的发电侧电源相对有限,北美以核电为主。供给基 本无增长,需求高增长下,供需不匹配可能会加速 AI数据中心对存量北美核电的资源对接。 1. 当前美国核电贡献全部发电量~18%,短期内无新增机组、存量机组陆续延寿。美国目 前在运核电站 96.95GW/94 座,2022 年实现发电量 769.5TWh,贡献美国发电量的 18%。美国核电建设高峰主要系 1970-80 年代,因此目前在运核电机组加权平均寿命 达到 42 年。1979 年三里岛核事故后美国核电新机组审批冻结 30 余年,直至 2012 年 小规模重启核准了三座新增核电站,并已陆续于 2016 年、2023 年、2024 年投产。目 前美国无已核准待建/在建核电项目,考虑到美国新核电机组需要 4~6 年审批+6~8 年 建设周期,在未来十年内美国新增核电机组能见度较低。存量机组则可以再到寿前申 请延寿(基准寿命 40 年,可申请 40 年延寿至 60 年,以及 60 年延寿至 80 年),申请 周期一般在 2-3 年。 2. AI 数据中心对存量核电的资源对接提速。包括:1)2023 年 1 月 Talen Energy 旗下 Cumulus Data 的首个 48 兆瓦数据中心由宾夕法尼亚州东北部 2.5 GW 的萨斯奎哈纳 核电站直接供电;Amazon 后续于 2024 年 3 月收购了该项目并计划将数据中心规模扩 大至 475MW 及以上。2)Dominion Energy 于 2023 年 1 月宣布计划在康涅狄格州中 部的米尔斯通核电站附近建造一个数据中心园区。美国最大核电上市运营商 CEG 在其 业绩演示材料中亦传达了数据中心需求有望给其核电电力带来额外价值创造的预期。

中长期来看,从增量角度出发,分布式、清洁性、高稳定的发电电源的发展看核电小堆与 氢基发电。 1. 数据中心需求和技术进步带来 SMR(小型模块化机组)的建设热情。Green Energy Partner GEP 提交申请位于弗吉尼亚州萨里的核动力数据中心园区获批,该基地将采 用小型模块化核反应堆。2022 年美国核电监管委员会(NRC)批准了一项决定允许 SMR 建设在相对人口密集区的决定,并于 2023 年批准了首个 SMR 堆型设计(来自 NuScale)。NRC 预计到 2029 年会看到不少于 25 座 SMR 核电站的建设申请,且美 国第一个 SMR 小堆有望于 2029 年投产。相关行业参与者包括 GE、Nuscale 等2. 氢基燃料电池、小型氢气轮机是远期清洁基荷电源的又一选项。氢基燃料电池、小型 氢气轮机同样具备小型模块化、清洁稳定、分布式灵活等适配数据中心(尤其是边缘 数据中心)用电需求的特征。一方面,如美国 Bloom Energy 的 SOFC 燃料电池模式, 当前通过天然气重整供给燃料电池进行发电,从而为客户提供全天候(7 天/24 小时全 在线)的稳定电力供应,服务于包括美国、韩国的公用事业、数据中心、农业、制造 业等多个行业的客户。未来通过绿氢替代天然气亦具备技术基础、关键看绿氢平价节 奏。根据 BloomEnergy 4Q23 业绩展示材料披露 ,截止 2023 年末公司在手订单约 120 亿美金,折合约 3GW 规模。另一方面,GE 子公司 GE Vernova 针对数据中心场 景主推 30MW 级 Aero 系列燃气轮机,且未来计划持续通过燃机掺绿氢替代以降低机 组的碳排放强度。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至