HBM概念、市场规模、下游应用与需求分析

HBM概念、市场规模、下游应用与需求分析

最佳答案 匿名用户编辑于2025/09/16 11:42

打破AI算力传统内存墙瓶颈,3D堆叠DRAM的16年崛起之路.

1.HBM复盘 :从HBM1到HBM3E(容量1GB→36GB/带宽128GB/s→1.2TB/s),“内存墙”的突破之路

HBM(High Bandwidth Memory, 高带宽存储器) :专为满足海量数据处理需求设计的DRAM技术,通过堆叠内存芯片和TSV(Through-Silicon Via, 硅通孔)技术与微凸点 (Microbump)互连来实现更高的带宽、更大的内存容量和更低的功耗,从而解决传统内存技术在处理高性能计算和图形密集型应用时面临的带宽瓶颈问题。

2.HBM市场爆发:AI服务器拉动下,预计25年/26年HBM总位元需求量同比增速分别达+89%/+67%

HBM市场规模:美光预计将2025年HBM市场规模上修至350亿美元,据Yole预测2026年HBM市场规模将达460亿美元(YoY+35%),到2030年全球HBM市场有望达980 亿美元,24-30年CAGR~33%。AI服务器强劲需求带动下,HBM市场正在经历指数级增长,根据Yole预测,2025年全球HBM市场将增至340亿美元。据Yole预测,到 2030年,全球DRAM市场规模预计为1940亿美元,其中全球HBM营收预计将超过DRAM市场的50%,将达到980亿美元,复合年增长率达33%,其中测算2026年HBM市 场规模将达460亿美元,同比增长35%。2025年4月,据芯智讯报道,美光近期已将2025年HBM市场规模从300亿美元上修至350亿美元。据SK海力士HBM业务规划组织 主管Choi Joon-yong表示,受惠于终端用户对AI的刚性需求支撑,HBM市场规模还有很大成长空间,预估至2030年,每年成长幅度(CAGR)应有机会达到30%。

HBM总位元需求量&增速:据美光预计,2025年HBM总位元需求量将达22.5亿GB。测算2026年HBM总位元需求量将达34.05亿GB(YoY+67%),以每颗HBM3e-12Hi 提供36GB计算,需求量至少高达9458万颗。据Yole数据,自2022年底ChatGPT横空出世以来,生成式AI蓬勃发展,推动2023年HBM比特出货量同比+187%,2024年更是 进一步飙升193%。据美光预计,2025年全年HBM需求容量将达22.5亿GB,以每颗HBM3e-12Hi提供36GB计算,需求量至少高达6250万颗。我们测算2026年HBM总位元 需求量将达34.05亿GB(同比增长67%),以每颗HBM3e-12Hi提供36GB计算,需求量至少高达9458万颗。

3.HBM下游应用场景:25年AI服务器出货占比将升至15%以上,未来两年AI服务器出货量CAGR~17%

据TrendForce预测,2025年全球AI服务器出货量年增速将达24.3%,预计占比有望提升至15%以上,预计26-27年全球AI服务器出货量有望分别年增17.2%/16.8%。据 TrendForce,北美大型CSP(Cloud Service Provider, 云服务提供商)目前仍是AI Server(服务器)市场需求扩张主力,加上tier-2数据中心和中东、欧洲等主权云项目助力,需 求稳健。在北美CSP(云服务提供商)与OEM客户需求驱动下,预估2025年AI服务器出货量将维持双位数成长,TrendForce预测2025年全球AI服务器出货量年增24.3%,预 计25年AI服务器出货量占整体服务器比例有望进一步提升至15%以上。据TrendForce预计,2026-2027年全球AI服务器出货量将有望分别年增17.2%/16.8%。

AI已成为云业务增长的核心驱动力,北美四大CSP(云服务提供商)均对AI投入保持坚定,据彭博一致预期数据,全球四大CSP(云服务提供商)25/26年预期资本开支合 计分别同比+52%/+19%。据TrendForce报道,1)Microsoft:2025年仍聚焦投资AI领域,AI Server布局方面,Microsoft主要采用NVIDIA的GPU AI方案,自研ASIC的进展 相对较慢,预估其2026年新一代Maia方案才会较明显放量。2)Meta:2025年因为新数据中心落成,对通用型Server的需求显著增加,多数Server采用AMD平台,也积极布 局AI Server基础设施,同步拓展自研ASIC AI,预估其MTIA芯片2026年出货量有机会达翻倍成长。3)Google:2025年受惠主权云项目以及东南亚新数据中心落成,显著提 升Server需求。此外,Google本是自研芯片布局比例较高的业者,其针对AI推理用的TPU v6e已于上半年逐步放量成为主流。4)AWS:自研芯片目前以Trainium v2为主力 平台,AWS已启动不同版本的Trainium v3开发,预计于2026年陆续量产。受惠于Trainium平台扩充与AI运算自研策略加速,预估2025年AWS自研ASIC出货量将达双倍成 长,为美系CSP(云服务提供商)最强。据彭博一致预期数据,全球四大CSP(云服务提供商)25/26年预期资本开支合计分别同比+52%/+19%达3294亿美元/3930亿美元。

4.HBM下游需求格局:2025年NVIDIA GPU消耗HBM超五成,预测2026年ASIC需求或同比激增50%以上

HBM主要面向AI服务器领域应用,其下游客户主要为GPU厂商和ASIC厂商,其中据TrendForce数据,2024年NVIDIA、AMD的GPU分别占HBM消耗量的62%、9%, 其余(主要为CSP(云服务提供商)的ASIC)合计占29%。在高端AI服务器领域,GPU搭载HBM芯片已经成为主流配置,广泛应用于高性能计算、人工智能等场景。HBM主 要面向AI服务器领域应用,其下游客户主要为GPU厂商和ASIC厂商。据EEWORLD报道,据Trendforce数据,2024年,整体HBM消耗量达6.47B Gb、年增237.2%,其中 NVIDIA、AMD的GPU分别占消耗量的62%、9%,其他业者(主要为CSP(云服务提供商)的ASIC所需)占29%,分产品看HBM2e、HBM3、HBM3e贡献的消耗量成三足鼎 立,尤以HBM3e 8hi 及HBM2e 8hi最多;2025年,预估整体HBM消耗量将达16.97B Gb、年增162.2%,较上季预估的16.40B Gb小幅上修,因NVIDIA及AWS的AI芯片出 货预估上修,其中NVIDIA、AMD、Google、AWS、其他业者分别占消耗量的70%、7%、10%、8%、5%,分产品而言HBM3e为消耗量大宗,尤以HBM3e 12hi最多。

定制AI芯片需求的激增正在重塑竞争格局,预计26年以Google TPU为代表的ASIC HBM位元需求量将大幅增长,测算同比增速或有望超50%。专用ASIC(专为运行特 定AI模型而设计)已被证明比Nvidia或AMD日益昂贵的GPU更具成本效益和能效,包括亚马逊、谷歌和Meta在内的科技巨头纷纷加速自研专用ASIC。HBM对于处理AI工 作负载中的高速数据至关重要,随着ASIC的普及,对HBM的需求也日益增长:据2025年6月美光业绩发布会上提到,“ASIC平台”公司与英伟达和AMD并列为其HBM 大批量出货的四大客户;亚马逊、谷歌等企业自研ASIC平台正成为HBM采购新主力。随着全球科技企业掀起ASIC自研热潮,考虑到北美四大CSP(云服务提供商)均有 ASIC规划且25/26年预期资本开支合计分别同比+52%/+19%,预计26年以Google TPU为代表的ASIC HBM位元需求量将大幅增长,测算同比增速或有望超50%。

参考报告

电子行业分析:深度剖析HBM千亿蓝海,AI算力激战下供需新格局.pdf

电子行业分析:深度剖析HBM千亿蓝海,AI算力激战下供需新格局。HBM(HighBandwidthMemory,高带宽存储器):专为满足海量数据处理需求设计的DRAM技术,通过堆叠内存芯片和TSV(Through-SiliconVia,硅通孔)技术与微凸点(Microbump)互连来实现更高的带宽、更大的内存容量和更低的功耗,从而解决传统内存技术在处理高性能计算和图形密集型应用时面临的带宽瓶颈问题。

查看详情
相关报告
我来回答