HBM优点、发展历程、需求及竞争格局如何?

HBM优点、发展历程、需求及竞争格局如何?

最佳答案 匿名用户编辑于2024/04/28 13:39

AI 算力核心载体,需求持续高速增长。

1、HBM 突破了内存容量与带宽瓶颈,性能优势突出

HBM(High Bandwidth Memory)即高带宽存储器,突破了内存容量与带宽瓶颈, 被视为新一代 DRAM 解决方案。其通过使用先进的封装方法(如 TSV 硅通孔技 术)垂直堆叠多个 DRAM,并与 GPU 封装在一起。相较于常见的 GDDR5 内存, HBM 拥有着更高的带宽,大幅提高了数据容量和传输速率,并且相同功耗下具有 超 3 倍的性能表现,和更小的芯片面积。

具体来看,HBM per stack 和 GDDR per chip 的标准参数对比之下,从单体可扩展 容量、带宽、功耗上 HBM 整体优于 GDDR。相对于 GDDR,HBM 主要有以下几 个优点: 1. 可扩展更大容量:HBM 具有可扩展更大容量的特性。HBM 的单层 DRAM 芯 片容量可扩展;HBM 通过 4 层、8 层以至 12 层堆叠的 DRAM 芯片,可实现更大 的存储容量;HBM 可以通过 SiP 集成多个 HBM 叠层 DRAM 芯片,从而实现更 大的内存容量。 2. 更低功耗:由于采用了 TSV 和微凸块技术,DRAM 裸片与处理器间实现了较 短的信号传输路径以及较低的单引脚 I/O 速度和 I/O 电压,使 HBM 具备更好的内 存功耗能效特性。 3. 更小体积:在系统集成方面,HBM 将原本在 PCB 板上的 DDR 内存颗粒和 CPU 芯片一起全部集成到 SiP 里,因此 HBM 在节省产品空间方面也更具优势。

2.HBM 发展历程

自 2014 年首款 HBM 产品发布至今,HBM 技术已经发展至第五代,分别是:HBM (第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E (第五代),HBM 芯片容量从 1GB 升级至 24GB,带宽从 128GB/s 提升至 1.2TB/s, 数据传输速率从 1Gbps 提高至 9.2Gbps。 HBM:2013 年 10 月,JEDEC 发布了第一个 HBM 标准 JESD235A;2014 年 SK Hynix 和AMD宣布联合开发 TSV HBM 产品;2015年6 月,SK Hynix 推出HBM1, 采用 4×2 Gbit 29nm 工艺 DRAM 堆叠,该芯片被用于 AMD GPU 等产品。 HBM2:2016 年 1 月,三星宣布开始量产 4GB HBM2 DRAM,并在同一年内生产 8GB HBM2 DRAM;2018 年 11 月,JEDEC 发布了 JESD235B 标准,即 HBM2 技 术,支持最多 12 层 TSV 堆叠;2018 年三星率先推出 Aquabolt(HBM2),数据 带宽 3.7GB/s。SK Hynix 紧随其后推出 HBM2 产品,采用伪通道模式优化内存访 问并降低延迟,提高有效带宽。

HBM2E:2020 年 1 月,JEDEC 更新发布 HBM 技术标准 JESD235C,并于 2021 年 2 月更新为 JESD235D,即 HBM2E;2019 年,三星推出 Flashbolt(HBM2E), 堆叠 8 个 16 Gbit DRAM 芯片。SK Hynix 在 2020 年 7 月推出了 HBM2E 产品,是 当时业界速度最快的 DRAM 解决方案。目前 HBM2E 是 HBM 市场的主流产品。 HBM3:2022 年 1 月,JEDEC 发布了 HBM3 高带宽内存标准 JESD238,拓展至实 际支持 32 个通道,并引入片上纠错(ECC)技术;SK Hynix 在 2021 年 10 月开 发出全球首款 HBM3,容量为 HBM2E 的 1.5x,运行带宽为 HBM2E 的 2x。

HBM3E:2024 年 2 月,三星已开始向客户提供 HBM3E 12H 样品,预计于 24H2 半年开始大规模量产;2024 年 2 月,美光开始量产 HBM3E 芯片,将应用于英伟 达 H200;2024 年 3 月,SK 海力士开始量产 HBM3E 芯片。

从 HBM 各代需求比例来看,根据 Trendforce,2023 年需求从 HBM2E 逐步转向 HBM3,需求占比约为 50%及 39%。随着使用 HBM3 的 AI 芯片陆续放量,2024 年 HBM3 市场需求将大幅增长,占比预计达 60%。

3、AI 算力驱动 HBM 需求爆发

随着 AI 不断渗透云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅 助等行业,AI 服务器与高端 GPU 需求不断上涨,并有望持续推动 HBM 市场规模 增长。与传统 DRAM 相比,HBM 具备高带宽、高容量、低延时与低功耗等优势, 可以加快 AI 数据处理速度,更适用于 ChatGPT 等高性能计算场景。当前 ChatGPT 等 AIGC(生成式人工智能)模型需要使用 AI 服务器进行训练与推理,其中训练 侧 AI 服务器基本需要采用中高端 GPU,如 Nvidia A100/H100 等,其中 HBM 的 渗透率接近 100%;而推理侧随着 AIGC 模型逐渐复杂化,AI 服务器采用中高端 GPU 将是发展趋势,并有望持续推动 HBM 渗透率也将快速提升。 根据 TrendForce,预计 2023 年 AI 服务器(包含搭载 GPU、FPGA、ASIC 等)出 货量近 120 万台,同比增长 38.4%,占整体服务器出货量近 9%,至 2026 年将占 15%,2022~2026 年 AI 服务器出货量年复合增长率至 22%。

根据 TrendForce,预计 2024 年全球主要云服务厂商(CSP)Microsoft、Google、 AWS、Meta 对高端 AI 服务器(包含搭载 NVIDIA、AMD 或其他高端 ASIC 芯片 等)全球需求占比分别达 20.2%、16.6%、16%及 10.8%,合计将超过 60%。

4、HBM 加速迭代,存储大厂积极扩产

从竞争格局来看,2022 年三大原厂 HBM 市占率分别为 SK 海力士 50%、三星约 40%、美光约 10%,SK 海力士因具备先发优势,为 NVIDIA 提供 HBM3,目前市 场份额保持领先地位,而 2024 年三星将开始扩大对 NVIDIA 的 HBM3 供应,美光也开始批量生产 HBM3E,三星和美光有望逐步扩大在 HBM 市场份额。

HBM 厂商最新进展: SK 海力士:2013 年公司与 AMD 合作开发了全球首款 HBM,并持续研发出 HBM 迭代产品 HBM2、HBM2E、HBM3、HBM3E。公司计划在 2024H1 将 HBM3E 投 入量产。2026 年计划第六代 HBM4。 三星:2016 年公司推出 HBM2,2020 年 2 月 HBM2E,2021 年 2 月推出了 HBMPIM(存算一体),其 HBM3 也于 2022 年量产,24 年发布首款 HBM3E。目前公 司已向客户提供 HBM3E 12H 样品,预计于 24H2 开始大规模量产。 美光:公司选择跳过第四代 HBM3,直接布局第五代 HBM3E。2023 年 9 月推出 HBM3E,并于 24 年 2 月 26 日宣布已开始批量生产 HBM3E 解决方案。其中 24GB 8-High HBM3E 将成为 NVIDIA H200 Tensor Core GPU 的一部分,该 GPU 将于 2024 年第二季度开始发货。

受全球 GPU 需求持续高增长,HBM 领域的主要供应商 SK 海力士、三星和美光 等国际存储芯片大厂正加大产能扩张力度。 SK 海力士:预计 2024 年 HBM 产能同比翻倍增长,同时,SK 海力士不仅计划在 美国印第安纳州建造一座最先进的制造工厂,还计划与闪存制造商铠侠在日本共同生产 HBM。此外,SK 海力士还计划在 2024 年保持 10 万亿韩元的新增资本支 出(比 2023 年增长了近七成),以支持 HBM 产能增长。 三星:预计 HBM 芯片产量将比 2023 年增长 2.5 倍,2025 年将再次翻倍。三星目 前已收购韩国天安厂区内部分建筑及设备,用于 HBM 生产。 美光:今年资本开支约 75 亿美元至 80 亿美元,主要用于 HBM 量产。此外,公 司于 2023 年 11 月 6 日在台中开设了新工厂,将致力大规模生产 HBM3E 以及 其他产品。

参考报告

HBM产业链专题报告:AI算力核心载体,产业链迎发展良机.pdf

HBM产业链专题报告:AI算力核心载体,产业链迎发展良机。HBM是AI算力核心载体。HBM即高带宽存储器,突破了内存容量与带宽瓶颈,其通过使用先进的封装工艺(如TSV硅通孔技术)垂直堆叠多个DRAM,并与GPU封装在一起。相较于常见的GDDR5内存,HBM拥有着更高的带宽,大幅提高了数据容量和传输速率,并且相同功耗下具有超3倍的性能表现,和更小的芯片面积。AI服务器与高端GPU需求爆发推动HBM市场规模扩张。当前ChatGPT等AIGC模型需要使用AI服务器进行训练与推理,其中训练侧AI服务器基本需要采用中高端GPU,而推理侧随着AIGC模型逐渐复杂化,AI服务器采用中高端GPU将是发展趋势,...

查看详情
相关报告
我来回答