电子行业深度研究:AI驱动存储新周期.pdf

  • 上传者:风****
  • 时间:2025/11/27
  • 热度:116
  • 0人点赞
  • 举报

电子行业深度研究:AI驱动存储新周期。首先,我们复盘了前面几轮半导体周期,根据供需关系按照时间维度分为长中短三种周期:长周期(8-10 年)——为 需求周期、中周期(4-6 年)——为产能周期、短周期(3-5 个季度)——为库存周期,其中需求-产能-库存三种周期 相互嵌套。存储器是半导体中仅次于逻辑的第二大细分市场,其历史表现与整个半导体周期走势一致,但波动性大于 整个行业,大市场与强周期属性并存。通过复盘我们发现每轮存储大周期(08 年、16 年等)的开启都是由新兴技术 推动产品升级和创新,进而催生新产品的总量、渗透率和存储器价值量的提升,推动存储器市场规模上升一个台阶, 随着 AI 驱动需求提升,当下我们走在新一轮存储大周期的起点。

AI 驱动下,会出现存储大周期吗?1)我们看到大模型类型和机制转变正产生大量数据存储需求,首先是大模型中引 入的思维链提示使 LLM 能将复杂问题分解为可操作步骤,复现类似人类的推理过程,显著提升模型的推理能力与问 题解决技能,推理时长的增加也提升 Token 的消耗量,2025 年几乎所有主流大模型都已内化思维链机制。同时根据 希捷科技的数据,从文本向音视频的切换,背后的存储单位是从 KB 往 TB 乃至 EB 的增长。随着多模态模型渗透率 的提升,存储需求有望进一步提升。2)其次,我们看到头部模型差距缩小,推理降本趋势明显。从 ChatGPT3 发布 以来,大语言模型的推理的成本以指数级别下降,单美元可以生成的 token 数量持续增长。模型的推理成本快速降低, 有望带动应用的爆发,也有望拉动存储需求的增长。3)最后,我们看到 AI 正在重新定义数据存储,KV Cache 或将 成为大模型推理优化的关键突破。KV Cache 是Transformer 架构中显著提升推理效率的关键性能优化机制,KV Cache 显存占用随 Token 数量线性增长,同时 KV Cache 的优化效果也与文本长度正相关。当 KV Cache 成为未来数年提升 大模型推理效率的关键一环,存储的需求也有望进一步提升。

AI 驱动存储需求快速攀升,存储原厂资本开支还未进入扩张周期。DRAM 和 NAND Flash 原厂的重心正逐渐转变, 从单纯扩产转向制程技术升级、高层数堆栈、混合键合以及 HBM 等高附加价值产品。根据 TrendForce 的数据,2025 年 DRAM 的资本支出预计为 537 亿美元,预计在 2026 年进一步成长至 613 亿美元,同比增长约 14%。2025 年 NAND Flash 的资本支出预计为 211 亿美元,2026 年预计小幅增长至 222 亿美元,同比增长约 5%。当前行业无尘室 空间已接近瓶颈,各大 DRAM 厂商中仅三星与 SK hynix 仍具备有限的扩线空间,即使资本开支上修,26 年产能增量 亦有限。而在 NAND Flash 领域,Kioxia/SanDisk 相对扩产更为积极,其他原厂则继续专注 HBM 及 DRAM。

1页 / 共21
电子行业深度研究:AI驱动存储新周期.pdf第1页 电子行业深度研究:AI驱动存储新周期.pdf第2页 电子行业深度研究:AI驱动存储新周期.pdf第3页 电子行业深度研究:AI驱动存储新周期.pdf第4页 电子行业深度研究:AI驱动存储新周期.pdf第5页 电子行业深度研究:AI驱动存储新周期.pdf第6页 电子行业深度研究:AI驱动存储新周期.pdf第7页
  • 格式:pdf
  • 大小:1.9M
  • 页数:21
  • 价格: 5积分
下载 获取积分

免责声明:本文 / 资料由用户个人上传,平台仅提供信息存储服务,如有侵权请联系删除。

留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至