2025年AI电气设备专题:把握电源、液冷与配套电力设备机遇

  • 来源:方正证券
  • 发布时间:2025/02/25
  • 浏览次数:432
  • 举报
相关深度报告REPORTS

AI电气设备专题:把握电源&液冷&配套电力设备机遇.pdf

AI电气设备专题:把握电源&液冷&配套电力设备机遇。电源:数据中心供配电由于其用电特殊性,电源价值量及冗余配置大幅提升,价值量大+技术持续迭代+敏感度不高。机柜外:1)HVDC和UPS的对比:HVDC核心在效率和可靠性上有所升级,效率方面:拓扑结构比UPS简单,少半个变压器,成本更低,转化效率更高,不过UPS升级后效率差异有所减小。可靠性方面:蓄电池挂载位置不同,HVDC直流电流直接挂载在直流母线上,后端出问题时仍能顶上,宕机率比UPS低。2)规模测算:按照UPS电源国内价格大约在0.6元/W(不含铅酸电池);HVDC电源大多是集采所以价格更低,大约0.5元/W(整流器件和PS...

电源 ——机柜内>机柜外,价值量确定增长方向

从IDC到AIDC,场景变革带来量的飞跃

在智算中心(AIDC,Artificial Intelligence Data Center)是专门为人工智能计算任务提供算力服务、数据服务和算法服务的新型算力基础设施,与通用数据中心相比主要在搭载芯片类型+应用场景+机柜功率等方面存在显著差异。

电如何一步步送入芯片?

虽然数据中心的各种供电架构方案五花八门,新产品层出不穷,但其实整个供电系统只为了解决两个问题:在哪里把交流转换成直流?在哪里接入备电系统? 1)UPS/HVDC:UPS 即不间断电源。市电输入UPS后,UPS需要首先进行ACDC转换,用于给蓄电池直流充电,然后进行DCDC,把电压等级转换到合适后续设备工作的电压,再进行DCAC逆变到230V或400V交流电,用于后续的交流设备供电2)ACDC:即机柜内部的 Powershelf,将交流电转换为算力硬件所需的稳定直流电,一般输出电压为48V。3)DCDC 电源模块,将48V电压进一步下变压至适用于算力芯片的工作电压,如 0.8V,1.3V。其中具体供电策略由Drmos与多相电源控制器芯片决定。

AC/DC环节:非标+标准化程度较高,功率提升进一步抬高溢价

根据维谛预测,2024-2029 年 AI 服务器平均机架密度将从 40-100kW 增加至 350-500kW。 根据英飞凌的技术预测,随着数据中心机架功率需求突破300kW 门槛,AI服务器电源单元(PSU)正经历显著的技术迭代。目前 主流的ORv3-HPR标准5.5kW电源将逐步演进:第二代PSU的功率 预计提升至8-12kW区间,而第三代产品更将达到22kW的功率水 平。

数据中心的骨架——供配电架构

当前供配电系统多采用 2N 系统架构,未来朝着DR和RR架构演绎。 传统数据中心供配电系统普遍使用 2N 系统架构(N代表一个完整的供电系 统),由两个供配电单元组成,每个单元均能满足全部负载的用电需要,两个 单元同时工作,互为备用。正常运行时,每个单元向负载提供50%的电能,当 一个单元故障停止运行时,另一个单元向负载提供100%的电能。 DR:分布冗余,由N(N ≥ 3)个配置相同的供配电单元组成,N个单元同时工 作。将负载均分为N组,每个供配电单元为本组负载和相邻负载供电,正常运 行情况下,每个供配电单元的负荷率为66 %。当一个供配电系统发生故障,其 对应负载由相邻供配电单元继续供电。 RR:后备冗余。由多个供配电单元组成,其中一个单元作为其它运行单元的备 用。当一个运行单元发生故障,通过电源切换装置,备用单元继续为负载供电。

UPS和HVDC对比

高压直流系统相较传统UPS取消了两级变换(分别是UPS端的 逆变环节和服务器电源端的整流环节),整体效率更高。 高压直流系统蓄电池作为电源直接并联在输出母线上,当停 电时,蓄电池可以直接供给负载,提高了供电可靠性。 高压直流系统拓扑结构更加简单。

HVDC具备渗透率提升的基础

UPS部分缺陷: 1)传统UPS采用AC/DC整流,DC/AC逆变的双变换,从UPS输入到末端设备负载变换次数多,每次变换都有能量损耗,降低了系统供电效率。另外,由于UPS采用冗余设计,正常情况下单台UPS负载率只在30-40%左右,很难达到最高效率点,实际运行效率较低 2)传统UPS以整机形式出现,整机设备容量较大,况且如果需要扩容改造牵涉进出线设备的大量改动,比较繁琐不便。虽然模块化UPS的出现部分解决了此问题,但同样存在多模块设计并机复杂引起的可靠性问题3)传统UPS的拓扑结构比较复杂,会影响其单机可靠性。为了解决单点故障问题,通常设计成2N,甚至2(N+1)的冗余模式。

UPS和HVDC对比

HVDC优点:效率更高:现在采用功率MOS 高频开关技术的240V 高压直流系统效率可高达96%以上,比采用晶闸管或IGBT的传统UPS效率更高,体积更小。和交流UPS系统相比,直流供电系统去掉了逆变环节,而一般逆变环节的损耗在5%左右,因此电源的效率得以提升。其次,由于并机技术简单,可以采用大量的模块并联,每个模块的负载率可达70%~80%,比起传统交流UPS系统提高很多。 模块化设计,扩容方便,维护成本低:高压直流系统采用模块化设计,可大容量并机集中式供电,也可小容量一体柜分布式供电,供电方式非常灵活。由于采用模块化结构,设计初期预留好机架空间,扩容是非常便捷的。电源维护成本低,在维修成本方面,高压直流供电采用的整流模块化结构,现场替换非常方便; 缺点:兼容性+新增断路器成本。兼容性:交流供配设备基本为通用型,而直流供配设备尚存在服务器PSU兼容性等问题。直流断路器:直流系统因无法实现过零切换,在断路器操作过程中容易产生拉弧现象,从而增加维护难度和相应成本。

液冷 —冷板式逐步放量,浸没式静待花开

液冷:随机柜功率攀升,液冷有望成必选项

单机柜功率已超100kW,2029年AI GPU机架峰值密度有望突破1MW。英伟达GB200/300 NVL72的单机柜功率高达132kW,采用液冷散热方案。根据Vertiv数据,新建平均机架密度在不同的工作负载应用和市场领域中不断增长,随着英伟达的GPU架构从Blackwell逐步进化为Rubin Ultra,AI GPU机架的峰值密度有望从2024年的130kW到2029年突破1MW。单机柜功率已突破风冷方案极限,液冷大势所趋。根据Vertiv数据,当机架密度低于20kW,尚可采用风冷方案;当机架密度在20kW到75kW时,主要利用风冷和液冷相结合的热管背板热交换器技术,来解决数据中心散热问题;当机架密度超过75kW时,只有直接式液冷方案能够满足高功率密度机柜的散热需求。未来AI GPU单机柜功率将远高于100kW,采用液冷技术是大势所趋。

液冷技术路线演进:从冷板到浸没

在液冷方案演进上,浸没式液冷目前主要存在冷却液物性要求高、服务器定制化程度高、与现有基础设施体系不兼容、生态不完善等问题,随着冷却液国产化替代性能的提升,浸没式液冷应用场景将进一步拓展。另外,相变浸没式液冷控制复杂、要求高,喷淋式液冷应用仍较少。

浸没式价值量重点在冷却液

浸没式冷却液价值量占比较高,可达浸没式液冷约60%的价值量。浸没式液冷其核心制冷要素是将带电状态下的完整服务器或其组件浸没在冷却液中,因此充当换热介质的冷却液必须是导热能力强但不导电(或具有足够低导电性)的介电液体,这样的介电液体通常不溶(或难溶)于水及其它离子性介质,可最大限度保障其绝缘性不被轻易破坏。同时,其本身在气味、毒性、降解难易、可维护性等方面特性对环境和操作人员应尽可能友好。基于以上考虑,目前在浸没液冷领域应用讨论最广泛的冷却液主要分为碳氢及有机硅化合物类和碳氟化合物类。

配套电气设备—变压器&母线&电能质量设备

数据中心多用干变

变压器是利用电磁感应的原理来改变交流电压的装置,按绝缘及冷却方式可分为干变和油变,干变是指铁芯和线圈不浸在绝缘液体中的变压器,主要靠空气对流进行冷却;油变是将铁芯和绕组浸在绝缘油中的变压器。 干变、油变因特性不同适用不同场景。相对于油浸式变压器可燃、可爆的特点,干式变压器具有安全性高、维护成本低、阻燃性能好和防潮能力强等优点。

母线:随机柜功率提升,母线槽逐步取代列头柜

由于相关技术不够成熟,数据中心建设和规划过程中并未考虑 到高功率密度的单机柜需求,传统的列头柜配电模式足以支撑 1~3kW单机柜功率密度的需求。但随着信息科技的快速发展, 业务量大幅度提升,支撑数据存储与计算的数据中心面临着巨 大压力,提升单机柜密度是业内更倾向采取的措施,毕竟对于 数据中心来说,提升利用效率需要的造价,远低于扩大建筑面 积产生的成本,小母线的应用,从某些程度上避免了传统列头 柜配电模式的弊端,在新的数据中心建设形势下,有着巨大的 优势。

报告节选:


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至