HBM需求情况如何?

HBM需求情况如何?

最佳答案 匿名用户编辑于2025/01/16 11:38

AI 大模型爆发拉动 HBM 需求。

内存墙问题阻碍人工智能发展。根据《AI and Memory Wall》,过去 20 年中服务器硬件 FLOPS 峰 值每 2 年扩大至 3 倍,远超 DRAM 和互连带宽增速,我们认为该差异是限制人工智能应用的瓶颈 之一。 HBM 方案解决了内存墙问题,直接受益于 AI 模型需求。GPU 显存一般采用 GDDR(Graphics Double Data Rate)或者 HBM 两种方案,但 HBM 性能远超 GDDR:根据 AMD 发布的 HBM 与 DDR(Double Data Rate)内存参数对比,从时钟频率看,HBM 为 500MHz,远小于 GDDR5 的 1750MHz;从显存带宽来看,HBM 的一个堆栈大于 100GB/s,而 GDDR5 的一颗芯片为 25GB/s。 根据海力士官网,其 GDDR6 产品带宽在 56GB/s,而 HBM2 和 HBM2E 的带宽分别达到 256 GB/s 和 368GB/s,远超 GDDR6 产品。

根据《高带宽存储器测试技术研究》,HBM 采用 3D 堆栈技术实现高带宽和大容量存储,通过硅通 孔(TSV)堆栈方式将 DRAM 裸片叠加,连同 SoC 裸片和中介层封装在一起,构成了完整 3D 封装 芯片。根据《高带宽存储器测试技术研究》,相比传统 DDR,HBM 优势是:1)HBM 具备高带宽 优势。通过 TSV 将 DRAM 裸片叠加,HBM 可以达到更高 I/O 数量,助力显存位宽达到 1024 位, 远超 GDDR 的 32 位。2)HBM 总带宽上限高于 GDDR5。GDDR 采取大幅提升 I/O 数据速率手段 改善总带宽,而 HBM 则利用 TSV 技术提升 I/O 数和单个 I/O 位宽。

主流数据中心 GPU 均采用 HBM 技术。根据《英伟达 H100 GPU 白皮书》,英伟达 V100、A100 和 H100 产品均采用 HBM 内存,其中 A100 使用 HBM2,H100 产品则升级到 HBM2E 和 HBM3。 根据 AMD 官网,其 MI300 芯片采用 HBM3 产品。我们看到英伟达和 AMD 的主流 GPU 产品均采 用 HBM2E 和 HBM3 产品,凸显了 HBM 在数据中心 GPU 中的主导地位。

HBM 技术伴随下游客户需求不断演进。根据 SK 海力士和半导体行业观察,HBM2 是 SK 海力士在 2018 年发布的产品,其 I/O 速率和带宽分别是 2Gbps 及 356GB/s,能够满足下游客户的传输和存 储需求。随着 GPU 及云服务大厂 AI 加速器的推出,三星电子和美光在 2020 年相继发布了 HBM2E。随着英伟达发布 A100 和 H100 系列,由于传统的 HBM 带宽无法满足高速存储数据联通 的需求,相应 HBM3 在 2023 年正式问世,带宽为 819GB/s,速度相比第一代 HBM1 提升超过 3 倍。 功耗相同的前提下,HBM 带宽和容量提升带动性能提升。根据半导体行业观察微信公众号,提升 HBM 容量方法包括:1)增加 DRAM 裸片堆栈层数,例如 HBM3E 常见为 8 层或 12 层 DRAM 裸 片堆栈,但进化到 HBM4 时代, 可选择的包括 4 层、8 层、12 层和 16 层 TSV 堆栈;2)增加每 片 DRAM 裸片(Die)的存储容量,例如单 Die 容量从 2GB 升级到 3GB。单颗 HBM 容量=DRAM 堆栈层数×每片 DRAM 容量。HBM 带宽提升方法包括:1)提高 I/O 数据传输速率;2)加大 I/O 总线位宽。 除了单颗 HBM 容量,单颗 GPU 中 HBM 存储总容量还取决于 GPU 中包含的 HBM 颗数。未来进 化到 GB200,会出现 2 颗 GPU 搭配 8 颗 12 层 HBM3E(36GB)的技术方案。

HBM4 是 HBM3 的进化版本,旨在进一步提高数据处理速率及带宽,并降低功耗和堆栈容量。根据 半导体行业观察,相较 HBM3,HBM4 的提升之处体现在:1)HBM4 把内存堆栈接口从 1024 位扩 展至 2048 位,对应的 I/O 引脚数量增加两倍。2048 位内存接口将显著增加通过内存堆栈布线的硅 通孔数量。2)外部芯片接口将凸块间距缩小到 55nm 以下,同时大幅增加微凸总数。3)DRAM 裸 片的堆栈层数有望达 16 层。HBM4 有望在一个 HBM 产品中堆栈 16 层裸片,即 16Hi 堆栈。

我们认为三大原厂明确 HBM4 产品的推出时间有助于 提升 HBM 产品容量。1)根据半导体行业观 察,三星电子在其设备解决方案部成立了 “HBM 开发团队”,旨在增强其 HBM 竞争力,而这一举 措是在副董事长 Kyung Kyehyun(庆桂显)就任设备解决方案(DS)部门负责人一个月后采取的。 2)根据 SK 海力士 2Q24 业绩会,公司表示将在 2025 年下半年推出下一代 HBM4,并计划在 HBM4 芯片中采用台积电的先进逻辑工艺。3)根据美光中国官方微信公众号,美光预计 2025-26 年推出 12Hi 和 16Hi 的 HBM4,容量分别是 36GB 和 48GB,两款产品速度均在 1.5TB/s 以上。继 HBM4,HBM4E 和 HBM5 将于 2028 年问世。根据美光中国官方微信公众号,HBM4E 预计将获得 更高时钟频率,并将带宽提高到 2TB/s 以上,容量提高到每个堆栈 48GB 到 64GB。

参考报告

半导体行业HBM市场更新:HBM高端产品供不应求时间或长于预期.pdf

半导体行业HBM市场更新:HBM高端产品供不应求时间或长于预期。2024-27年期间,我们认为HBM供不应求局面将持续存在。美光科技或持续提升其在HBM市场的市占率。16层HBM4时代,HBM市场份额争夺或愈发激烈。HBM供需分析。与市场观点不同,我们认为2024-27年HBM(高带宽存储器)产品将供不应求。2024-25年,我们预计AI直接拉动的HBM需求量或达14.0亿/23.6亿吉字节(GB)。供给侧,2024/25年底SK海力士、美光和三星电子三家合计的HBM供应量达10.1亿/20.1亿GB。展望2026-27年,我们预计三家公司HBM供给或达34.1亿/49.1亿GB;而需求量受益...

查看详情
相关报告
我来回答