数据中心产业链专题研究:AI+散热,站上新风口.pdf

  • 上传者:九阳神功
  • 时间:2023/04/23
  • 浏览次数:611
  • 下载次数:61
  • 0人点赞
  • 举报

数据中心产业链专题研究:AI+散热,站上新风口。AI 带动算力芯片、IDC 机柜功率密度升高,液冷降低能耗压力,满足数据中心建设需求。随着 AI 模型训练推理等应 用增加,多样化算力协同成常态,英伟达 H100 功率达 700-800W,单 IT 机柜主流功率密度将从 6-8KW/柜提高到 12- 15KW/柜,超算、智算中心功率密度将提升至 30kW 以上。后摩尔定律时代 AI 芯片性能和功耗(含热设计功耗)同步 大幅提升,风冷芯片级散热功耗上限在 800W 左右,风冷达到功率上限后性价比下降。液体吸热能力更强,水的热导 率是空气的 23 倍以上。多地对数据中心提出规划方案,要求新建数据中心 PUE 限制在 1.3 以下,存量数据中心 PUE 不高于 1.4。据 uptime institute,数据中心 PUE 下降趋势放缓,亟需冷板式/浸没式液冷技术降低 PUE 和整体能耗。

芯片级散热模块价值量成倍提升,液冷系统价值量高且经济效益突出。目前芯片级散热主要以由热管、均热板和 3D VC 等构成的风冷散热模组为主,对应的散热功耗上限、成本差距明显,风冷对应功耗上限在 700-800W,传统风冷模 块单机价值量是 15-20 美金,随着功耗提升 3D VC 价值量翻倍,水冷功耗可突破千瓦,价值量有 3-4 倍差距。制冷 系统是 IDC 前期建设和后期运营的主要成本之一,根据施耐德电气和 CDCC 统数据,制冷系统在数据中心 CAPEX 占 20-25%,OPEX 电力成本占 40%。市场普遍认为液冷初始投资较高且后期维护较复杂,我们根据施耐德电气测算发现, 液冷数据中心建设能够去掉冷冻水机组、减少机架和节省 IDC 占地面积,降低 IDC 前期整体建设成本;同时液冷更 加节能,节省电费减少运营成本。测算表明,功率密度为 10kW/机架风冷和液冷数据中心的投资成本大致相等(7 美 元/kw)。在提升数据中心功率密度时,液冷数据中心在节省占地空间和机架数量的成本优势愈发明显,提升 2 倍功 率密度(每机架 20kW)可使初投资可降低 10%;提升 4 倍功率密度(每机架 40kW)可节省 14%的投资成本。制冷系 统在整个前期 CAPEX 占比也由风冷的 15%提升至液冷的 30%,对应制冷系统价值量由 0.98 美元/W 提升至 1.83 美元/W。

AIGC 驱动芯片级散热模块、液冷市场总量增加和边际增速提升。当前冷板式液冷采用微通道强化换热技术具有极高 的散热性能,行业成熟度最高;浸没式和喷淋式液冷实现 100% 液体冷却具有更优的节能效果。当前通用算力机架规 模占比超过 90%,超算、智算中心逐步从早期实验探索走向商业试点,预期规模增速将达到 70%。我们测算,国内科 技公司和院校推出的 AI 大模型训练+推理会带来 40 亿元的液冷市场空间,随着模型参数增加、日活增加和时延降低 等发展,未来四年带来液冷市场 60%+复合增速,其中服务器芯片级散热模块保持 29%复合增速。

1页 / 共30
数据中心产业链专题研究:AI+散热,站上新风口.pdf第1页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第2页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第3页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第4页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第5页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第6页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第7页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第8页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第9页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第10页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第11页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第12页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第13页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第14页 数据中心产业链专题研究:AI+散热,站上新风口.pdf第15页
  • 格式:pdf
  • 大小:2.7M
  • 页数:30
  • 价格: 3积分
下载 兑换积分
留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至