如何看待美光科技的增长引擎?

如何看待美光科技的增长引擎?

最佳答案 匿名用户编辑于2025/10/13 13:18

总体而言,将美光增长引擎概括为:

1. HBM 卡位头部 AI 平台:高端产品拉动结构性提价

HBM3E 产品在英伟达 Hopper 和 Blackwell 系统中的部署,突显公司占据 产业链关键地位。根据公司官网,美光 HBM3E 12H 36GB 也被设计用于英 伟达 HGX B300 NVL16 和 GB300 NVL72 平台,HBM3E 8H 24GB 则适用 于英伟达 HGX B200 和 GB200 NVL72 平台。美光 HBM3E 产品在英伟达 Hopper 和 Blackwell 系统中的部署,突显了美光在加速 AI 工作负载中的 关键作用。我们认为,与英伟达的平台级绑定使美光从“验证—量产—生态” 的链路闭环中获得价格与毛利双重红利。 半导体存储非排他供应,公司产品具备差异化竞争力。根据 Tech Insights 等 第三方拆解对 HGX B 系列早期样卡指向 SK hynix 为 HBM3E 供应商,显示 英伟达平台存在多供方策略。我们理解,半导体存储中 HBM 产品“designed into / available for”更多体现设计适配与批次差异,并非排他绑定。在 HBM 供应整体偏紧、客户多源保障的共识下,美光科技凭借量产产品 12-Hi 容量 优势(36GB,>9.2Gb/s 引脚速率)具差异化竞争力。我们判断,在 AI 训练 迈向更大模型、更高显存密度的周期中,HBM占比提升将持续抬升公司ASP与盈利中枢。

新一代 HBM4 产品已送样核心客户,接续行业龙头地位。根据公司官网, 公司已向多家关键客户发货 HBM4 36GB 12-high 样品,持续扩展美光在 AI 应用内存性能和能效方面的领导地位。新一代 HBM4 产品基于其成熟的 1ß(1-beta)DRAM 工艺、采用已验证的 12-high 先进封装技术和高度能干 的内存内置自测试(MBIST)功能。美光 HBM4 采用 2048 位接口,每内存 堆栈实现超过 2.0TB/s 的速度,比上一代产品性能提升超过 60%。将帮助 AI 加速器响应更快、推理更有效。我们认为,与英伟达的平台级绑定使美 光从“验证—量产—生态”的链路闭环中获得价格与毛利双重红利。

2. DRAM 代际加速:1γ(EUV)+192GB DDR5,平台切换红利兑现

全新采用 EUV 工艺低功耗产品 LPDDR5X 送样。根据公司官网,公司已开 始出货全球首款基于 1γ(1-gamma)工艺的低功耗双数据速率 5X (LPDDR5X)内存样品,专注在加速旗舰智能手机上的 AI 应用。产品提 供业内最快的 LPDDR5X 速度等级,专为旗舰智能手机设计,速度达 10.7 吉比特每秒(Gbps)。

EUV 工艺内存产品速度提升 15%,能耗降低 20%。根据公司官网,1γ(1- 伽马)DRAM 技术基于前代 1α(1-阿尔法)和 1β(1-贝塔)节点的卓越性能,将每片晶圆的比特密度提高了 30%以上。设计改进在提升速度性能 的同时,也降低了功耗。产品采用极紫外(EUV)光刻工艺制程,在更短的 时间内,在晶圆制造实现更精细的尺寸特征。1γ DRAM 技术释放了 DDR 的潜力,并将速度潜力提升 9200MT/s,比相对的 1β产品快 15%,还能降 低功耗高达 20%。 我们判断,美光 1γ工艺技术将推动下一代半导体存储创新,叠加服务器/PC 端 DDR5 渗透加速,LPDDR5X 系列产品将率先应用于移动设备,并向在数 据中心汽车应用甚至个人计算机等场景渗透,“制程+规格”双轮驱动将持 续改善位元成本与良率,支撑 ASP 稳步抬升。

3. 数据中心协同:与 NVIDIA 共创 SOCAMM,形态创新增强 粘性

美光在传统内存封装加强创新,拓展内存应用边界。美光与英伟达合作开 发了 SOCAMM(压缩型内存模块),将移动 LPDDR 封装成可插拔模块用 于服务器 AI 平台。根据公司与媒体信息,美光与英伟达联合推出 SOCAMM (LPDDR5X 模块化内存),已用于 GB300 Grace Blackwell Ultra 平台。我们 认为,这一方案在英伟达 Grace CPU 超级芯片平台上商用,是内存模块形 态的新突破。通过这些封装创新,美光在内存产品形态和系统集成上走在前 沿,拓展了内存应用边界。

“HBM + SOCAMM”组合贡献收入提升客户黏性。SOCAMM 以更高带宽 密度/更低功耗补位 DDR5 RDIMM,与 HBM3E 形成组合,提升节点能效与 机架级 TCO。我们判断,在 Blackwell 代平台放量期,“HBM + SOCAMM” 将同步贡献收入与客户黏性。同时,形态创新提高了供应商在平台定义阶段 的话语权,我们预计美光在“联合定义—优先验证—批量导入”的路径中, 将获得更高的订单可视性与议价能力。 根据美光科技《低功耗(LP)内存在数据中心工作负载中的作用》白皮书, 该项目选择 NVIDIA Grace Hopper GH200 系统作为主要测试平台,该平台 结合了 ARM CPU 和 H100 GPU,代表了高性能计算基础设施。以下部分, 我们的比较分析将基于 LPDDR5XGrace Hopper 与同时期的 DDR5 服务器 配置进行了基准测试。 LPDDR5X 系统封装方式更优提供了更高的并行性和效率。 LPDDR5X 内 存直接焊接在 Grace Hopper 主板上, Grace Hopper 的架构采用了 32 个 内存控制器,每个控制器管理每个 LPDDR5X 封装的 16 位通道。这种配置在数据处理中提供了更高的并行性和效率,因为每个通道可以独立运行。 DDR5 系统采用更传统的方法:4 个内存控制器,每个控制器有 4 个 32 位 通道(利用 2 个 32 位子通道),总共 16 个 32 位宽通道。 性能指标突出了 LPDDR5X 的优势,其峰值理论带宽为 384 GB/s,略高于 DDR5 的 358 GB/s。这种更高的数据速率、增强的并行性和更大的带宽组 合,使 LPDDR5X 成为 HPC 应用和混合内存访问模式的优越技术。

LPDDR5X 在大模型推理场景中的测试吞吐量能效提升明显。根据美光科技 《低功耗(LP)内存在数据中心工作负载中的作用》白皮书,测试了 700 亿 参数的 Llama 3 模型推理场景。由于大预言模型具有更高的带宽和计算需 求,因此需要 GPU 和 HBM 资源。在两种配置下使用了 H100/HBM3 GPU, 关键的不同之处在于互连性能。Grace Hopper 超级芯片搭载了 NVIDIA NVLink,具有 900 GB/s 的双向带宽,而标准的 DDR5 系统的 PCIe Gen5 链路仅提供 128 GB/s 的双向带宽。LPDDR5X 系统在 DDR5 系统上表现 大幅提升,其推理吞吐量提升 5 倍,同时推理延迟降低 80%。

根据美光科技《低功耗(LP)内存在数据中心工作负载中的作用》白皮书, 在同一测试中,功耗和能效表现方面,观察到 LPDDR5X 系统不仅能够更 快地完成推理任务,而且功耗更低、能耗更低。LPDDR5X DRAM 的功耗 DDR5 DRAM 仅有的功耗降低 60%。 将功耗指标转换为任务能耗,LPDDR5X 系统每任务能耗降低 73%,显示 出对大型 AI 工作负载的显著效率优势。虽然仅 CP 性能更青睐 DDR5 系 统,但 LPDDR5 系统的功耗效率和通 NVLink 实现的 CPU-GPU 集成,为下一 AI 基础设施提供了极具吸引力的优势。

4. 汽车存储护城河:高份额+车规能力,长坡厚雪

汽车是半导体行业中增长最快的领域之一,车用内存市场规模(TAM)增 速达 28%。根据美光科技《汽车超级趋势》白皮书,车用存储领域的内存 (DRAM)和存储(NAND/NOR)总市场规模 2021 年的 40 亿美元增长到 202 年的 100 亿美元。预 2025 年全球销售超过 9700 万辆汽车,每辆车平 均配 16GB 的 DRAM 和 204GB 的 NAND。2025 年,一辆典型的汽车将 2021 年销售的汽车拥有三倍容量的 DRAM 和四倍容量的 NAND 存储芯片。

五大汽车主要趋势牵引汽车内存和汽车存储系统升级。根据美光科技《汽 车超级趋势》白皮书,五大汽车主要趋势:自动驾驶、电气化、智能内饰、 连接性和区域架构正在显著改变汽车行业,尤其是对汽车内存和汽车存储 系统提出了更高的要求。 Waymo 和 Cruise 等公司非常关注实现机器人出租车(robotaxis)L4 或 L5 级别自动驾驶,其中需要大量的内存和存储空间,以便在没有驾驶员干预的 情况下做出关键决策。类似地,实施更有限 L2+/L3 自动驾驶也需要更多的 内存和存储空间,以实现高级驾驶员辅助和安全(ADAS)功能,如盲点监 测、自适应巡航控制、车道偏离警告、紧急制动、有限的手不扶方向盘驾驶和驾驶员监控系统。如图所示,预计到 2030 年,近 300 万辆汽车将实现完 全自动驾驶,超过 1500 万辆汽车将支持至少 L2+/L3 自动驾驶。 美光在汽车存储领域市占约 39%,市占率领先。根据公司官网,公司产品 覆盖 LPDDR、UFS、NOR 等全谱系并深耕功能安全/车规体系(ASIL、AECQ 等),在车型平台长周期与高认证壁垒下形成稳定现金流与更优价格。 我们判断,在座舱+ADAS 渗透率提升背景下,单车存储价值量仍将稳步上 行。结合自动驾驶算力堆叠与数据冗余要求,我们预计汽车业务将成为对冲 行业周期的“压舱石”,并在 L3/L4 推进中获得带宽与容量双升的二次成长。

5. 制造版图与政策顺风:多点布局强化交付确定性

纽约超级工厂将进一步巩固美光的技术和制造领先地位。根据美光科技官 网,美光宣布将在美国建设两个大规模量产晶圆厂(纽约超级工厂与博伊西 的大规模量产晶圆厂)。其中,纽约州超级工厂设施将采用最先进的半导体 制造工艺和设备,包括极紫外光(EUV)光刻技术,以推动 DRAM 多代产 业领先地位。我们判断,公司“政策—资本开支—产能爬坡”将形成中长期 “产能—订单—现金流”的正循环,并为 HBM/1γ等关键节点提供本土化 冗余。

参考报告

美光科技研究报告:HBM引领AI浪潮下的存储革命.pdf

美光科技研究报告:HBM引领AI浪潮下的存储革命。半导体存储周期与AI技术红利共振,需求侧引领半导体存储龙头打开盈利Beta。经营现金流持续修复、验证上行周期。美光科技经营性现金流(OCF)在周期底部FY2023仅15.6亿美元,FY2024回升至85.1亿美元,FY2025E进一步至148.1亿美元。我们判断,修复的核心驱动为:①、DRAM/NANDASP回升与产能利用率上调;②、结构改善HBM与高密度DDR5占比提升拉动毛利中枢;③、库存与应收周转改善带来的营运资金回流。OCF三级跳表明公司已从“去库存+价格底”切换至“量价齐升”的上半场。新...

查看详情
相关报告
我来回答