HBM概念、产品进展及技术工艺有哪些?

HBM概念、产品进展及技术工艺有哪些?

最佳答案 匿名用户编辑于2024/07/31 15:39

HBM是当前AI时代首选的内存技术。

AI时代下高带宽存储需求激增,HBM技术正步入快速发展阶段。HBM(High Bandwidth Memory,高宽带内存)采用硅 通孔(TSV)技术将多个DRAM芯片进行堆叠,并与GPU一同进行封装,形成大容量、高位宽的DDR组合阵列,从而克 服单一封装内的带宽限制。相较于传统DDR内存,HBM具有高带宽、低功耗、低延时等优势,已成为当前高性能计算、 人工智能等领域的首选内存技术。以英伟达H100 SXM5为例,其集成了6颗HBM3,总容量达到80GB,内存带宽超 3TB/s,是A100内存带宽的2倍。

当前HBM产品已经发展至第五代,HBM4最早有望于2025年提前发布。第一代HBM产品由SK海力士于2014年发布,此后每一代HBM的 升级更迭,在内存带宽、I/O速率等方面都迎来明显提升,当前HBM已发展至第五代(HBM3e),容量最高可达36GB,内存带宽已提 升至1.2TB/s,I/O速率最高可达9.2Gbps。另外,考虑到当前HBM需求的火爆程度,SK海力士计划提前一年在2025年发布HBM4。 根据TrendForce数据,2022-2023年全球HBM市场主要以HBM2e为主,随着HBM3的发布以及持续放量,预计2024年市场需求将向HBM3 转移,HBM3将替代HBM2e成为市场主流HBM产品,市占率有望由2023年的39%提升至60%。

展望未来,从英伟达和AMD主力GPU产品的迭代进程以及搭载HBM规格规划来看,一方面,预计24H2出货的英伟达H200将取 代H100成为主流,包括后续推出的GB200及B100,均将采用HBM3e,将推动市场逐步由HBM3向HBM3e升级。另一方面,为了 提升AI服务器整体运算效能及系统频宽,HBM产品的堆叠层数及容量将随着产品更迭而持续提升,以英伟达B200及AMD MI375为例,预计两款GPU新品将搭载12hi 288GB规格的HBM3e。

HBM加工制造流程主要包括前端晶圆制造加工,以及后端Bumping、Stacking和KGSD测试环节。其中,相较于平面 DRAM的制造流程,TSV(硅通孔)技术是HBM实现芯片垂直堆叠的核心工艺。

混合键合 ( Hybrid Bonding) 有望成为未来HBM主流堆叠技术 。 当 前 市 场主 流 的 HBM 堆 叠技 术 主 要以 TCB(ThermoCompression Bonding,热压键合)和MR-MUF(Mass Reflow–Molded Underfill,批量回流焊)工艺技术为主,其中,SK海力士 从HBM2e起便开始采用MR-MUF堆叠技术来缓解芯片垂直堆叠带来的散热问题,考虑到HBM对于堆叠高度以及散热的要求, SK海力士预计将采用混合键合技术生产HBM4。

TSV技术是一种通过在硅芯片内部钻孔形成垂直贯通的电极并将多个芯片垂直3D堆叠的封装方法。传统的引线键合技术随着 堆叠层数和连接引脚的增加会使得布线变得愈发复杂,而TSV结合微凸点的封装技术可以在有限垂直空间内实现更大的芯片 堆叠密度,促使信号传输路径明显缩短,因此可以同时达到提高带宽和降低功耗的作用。

TSV环节在HBM封装工艺中价值量占比最高。根据3DinCites数据,在99.5%键合良率的HBM(4层DRAM+1层逻辑)的BOM成本 中,TSV创建和TSV暴露合计价值占比达30%,为HBM封装工艺中价值量占比最大的环节,其次是前端制程和后端制程,价值 量占比分别达20%、20%。

MR-MUF技术主要通过回流焊将多个芯片粘合在一起,并在芯片之间使用液态EMC材料进行间隙填充。与传统TC-NCF工艺相比,MRMUF具有更高的导热效率,有助于改善HBM因为堆叠层数增加而导致的散热问题,以8Hi HBM为例,在2Gbps引脚速率的相同工作条件 下,使用MR-MUF工艺的HBM产品相较TC-NCF工艺在最大结温方面降低了14℃。

凭借率先推出的Advanced MR-MUF技术,SK海力士成功发布12层HBM3以及HBM3e,持续夯实市场领先优势。相对于原有MR-MUF技术, 该先进封装技术在采用了改进的EMC后,很好的改善了由于芯片减薄导致的翘曲问题,同时还实现生产效率提高了3倍,散热性能提高 了2.5倍。

参考报告

HBM专题报告:高带宽特性释放AI硬件性能,AI高景气持续驱动需求高增.pdf

HBM专题报告:高带宽特性释放AI硬件性能,AI高景气持续驱动需求高增。高带宽特性释放AI硬件性能,HBM成为AI时代首选内存技术。当前诸如GPT-3等AI大模型所要求的算力日益提升,伴随着的是参数数量呈现指数级增长,传统的内存带宽及传输速率限制了AI硬件以及系统的最大性能,相较于传统DDR内存,HBM具有高带宽、低功耗、低延时等优势,已成为当前高性能计算、人工智能等领域的首选内存技术。当前HBM产品已经发展至第五代HBM3e,内存带宽相较上一代提升47%至1.2TB/s,堆叠层数最高可达12层,对应最高容量达36GB,当前三大原厂均已入局并在24H1陆续出货,考虑到HBM需求的火爆程度,SK...

查看详情
相关报告
我来回答