2024年通信光模块行业专题报告:云厂商资本开支上行,英伟达数据中心硬件迭代

  • 来源:甬兴证券
  • 发布时间:2024/09/14
  • 浏览次数:460
  • 举报
相关深度报告REPORTS

通信光模块行业专题报告:云厂商资本开支上行,英伟达数据中心硬件迭代.pdf

通信光模块行业专题报告:云厂商资本开支上行,英伟达数据中心硬件迭代。据C114转引LightCounting报告,用于AI集群的光模块将快速增长,预计这一增长趋势将延续到2025-2026年。根据iFind,2024年海外四家云厂商(Meta、Google、Amazon、Microsoft)合计资本持续趋势上行。根据iFind,数据中心成为英伟达主要收入贡献来源,集邦咨询预期Blackwell延迟交付传闻整体需求影响有限。我们认为,受益于下游云厂商对于AI资本开支持续增长,以及英伟达等龙头厂商AI相关产品的持续迭代,AI产业链规模有望持续增长。

光模块市场总览

光模块市场:用于AI集群的光模块将快速增长

据C114转引LightCounting报告,用于AI集群的以太网光模块在2024年将翻一番以上,并一直延续到 2025-2026年。2023年5月到6月间,谷歌和英伟达成为首批大幅增加光模块采购量的厂商。截至目前 ,所有领先的云计算公司都已加入这场竞争。

海外云厂商资本支出分析

Meta:资本支出将主要用于人工智能研究和产品开发

资本支出指引:根据iFind以及公司投资者交流纪要,Meta的资本支出将主要用于人工智能研究和产品开发 。预计2024年全年资本支出将在 370-400 亿美元之间,并且2025年资本支出将大幅增长。 AI算力应用场景落地:根据公司投资者交流纪要,开发通用推荐模型,提高内容推荐质量;个性化定制广 告;为社区创作者配备人工智能代理。

Google:资本支出主要投资于技术基础设施

资本支出指引:根据iFind以及公司投资者交流纪要,Google披露2024年第2季度资本支出为130亿美元,主 要投资于技术基础设施。其中最大的部分是服务器,其次是数据中心。公司预计2024年各季度资本支出都 将大致达到或高于第一季度120亿美元的资本支出体量,也即2024全年资本开支将达到或高于480亿美元。 AI算力应用场景落地:根据公司投资者交流纪要,AI概述搜索结果;拓展搜索模式如视觉搜索。

Amazon:资本支出主要用于技术基础设施及配送网络

资本支出指引:根据iFind以及公司投资者交流纪要,Amazon披露2024年第2季度,公司实现资本开支164 亿美元,同比增长57.69%,主要用于技术基础设施及配送网络,其中基础设施大部分用于AWS业务。公司 预计现金资本支出将在2024年大幅增加,主要受技术基础设施投资的推动。  AI算力应用场景落地:根据公司投资者交流纪要,与澳大利亚联邦银行等多家公司签署新的AWS协议;与 澳大利亚政府建立价值20亿澳元的战略合作伙伴关系。

Microsoft:资本支出主要投资于技术基础设施

资本支出指引:根据iFind, Microsoft披露2024年第2季度资本支出为190亿美元,主要与云和AI相关,用于 算力基础设施建设和服务器配置。根据公司投资者交流纪要,考虑到云和AI需求持续提升及目前AI容量限 制,公司预计2025财年的资本支出将高于24财年。  AI算力应用场景落地:根据公司投资者交流纪要, Azure AI提供数据和分析工具;Microsoft Fabric引入实 时智能功能;Power Platform集成生成式 AI,使用自然语言创建应用、自动化工作流或构建网站。

小结:下游对AI基础设施的需求持续强劲,云厂商资本开支不断扩大

资本开支持续提升:根据iFind,2024年第1季度海外四家云厂商(Meta、Google、Amazon、Microsoft)合 计资本开支433.15亿美元,当年第2季度合计资本开支487.14美元,持续趋势上行。  以谷歌为例,根据公司投资者交流纪要,公司认为,投资不足的风险远大于投资过度。即使存在过度投资 ,算力基础设施对于企业仍然非常有用。

英伟达数据中心业务解析

数据中心成为英伟达主要收入贡献来源

英伟达营业收入增长主要由数据中心业务贡献:根据iFind,2024财年英伟达数据中心业务营业收入达475 亿美元,同比增长217%,收入占比达到78.0%。  公司整体收入持续快速增长:根据iFind,公司自2024财年第2季度以来实现连续四个季度快速增长,2025 财年第1季度实现营收225.63亿美元,同比增长427%。

英伟达数据中心业务代表产品——DGX 系统

根据官网介绍,英伟达DGX系统满足了企业AI及数据科学的需求,传递了最快的AI发展启动、省 力的工作产出以及革命性的性能。英伟达DGX系统包含DGX Station A100、DGX A100、DGX H100、DGX Base POD、DGX SuperPOD等。

英伟达数据中心业务代表产品——DGX SuperPOD

据公司官网,2024年3月18日,英伟达发布新一代AI超级计算机——搭载英伟达GB200 Grace Blackwell超级芯片的英伟达 DGX SuperPOD。这台 AI 超级计算机可以用于处理万亿参数模型,能够保证超大规模生成式 AI 训练和推理工作负载的持 续运行。 据Fibermall,该产品结构上分为Core层、Spine层、Leaf层及DGX 系统服务器等。 据IT之家,每套 DGX GB200 系统拥有 36 个英伟达 GB200 加速卡,其中包括 36 个英伟达 Grace CPU 和 72 个英伟达 Blackwell GPU,通过第五代英伟达 NVLink 连接成一台超级计算机。DGX SuperPOD 包含 8 套及以上 DGX GB200 系统, 通过英伟达 Quantum InfiniBand 连接,可扩展至数万片 GB200 加速卡。

英伟达数据中心业务代表产品——DGX平台系统

根据英伟达官网整合的各类产品数据信息,英伟达DGX平台系统提供了多种型号,满足各类AI生 产力所需。

Blackwell延迟交付传闻整体需求影响有限

根据集邦咨询对供应链的调查,2024年英伟达的高端GPU出货将以Hopper平台产品为主,除针对北美CSPs 、OEMs出货H100、H200等机种,针对中国客户则以搭载H20的AI服务器为主力。预估H200在2024年第三季 才能开始放量、成为英伟达主流机种,并延续至2025年。  集邦咨询预计,2025年Blackwell平台将占英伟达高端GPU逾8成,并促使英伟达高端GPU系列的出货年增率 上升至55%。

报告节选:


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至