2025年电子行业2026年年度策略:算力基建驱动AI“从0→1”主线,“端云共振”主导存储和终端创新机遇

  • 来源:中银证券
  • 发布时间:2026/01/09
  • 浏览次数:147
  • 举报
相关深度报告REPORTS

电子行业2026年年度策略:算力基建驱动AI“从0→1”主线,“端云共振”主导存储和终端创新机遇.pdf

电子行业2026年年度策略:算力基建驱动AI“从0→1”主线,“端云共振”主导存储和终端创新机遇。展望2026年,算力基建驱动AI主线,行业聚焦“从0→1”变革节点;存储涨价或贯穿2026年全年,4F2+CBA等技术成为发展方向;消费电子成本压力和创新机会并存,端侧AI芯片或贡献结构性机会。算力基建驱动AI升级主线,行业聚焦“从0→1”变革节点。大模型推理侧Tokens需求快速增长推动CSP厂商积极提高资本开支投入算力基础设施建设。AIInfra在追求更高的算力密度、更...

人工智能引领电子上行周期,行业盈利能力显著提升

人工智能驱动电子行业多板块涨幅领先

2025 年申万电子指数涨幅显著。根据 ifind 数据,2025 年 1 月 1 日至 2025 年 12 月 11 日沪深 300 指 数涨幅约 19.2%,申万电子指数涨幅约 49.1%,申万电子指数领先沪深 300 指数约 30.0 个点。

人工智能驱动电子行业多板块涨幅显著。从 2025 年 1 月 1 日至 2025 年 12 月 11 日申万电子三级细 分板块涨跌幅来看,印制电路板涨幅约 82.1%,集成电路制造涨幅约 72.8%,其他电子 III 涨幅约 66.9%, 半导体设备涨幅约 65.1%,半导体材料涨幅约 62.3%,分立器件涨幅约 61.7%,数字芯片设计涨幅约 56.3%,光学元件涨幅约 52.9%,品牌消费电子涨幅约 49.1%,电子化学品 III 涨幅约 41.3%,电子零 部件及组装涨幅约 36.1%,面板涨幅约 26.5%,被动元件涨幅约 25.7%,LED 涨幅约 19.8%,模拟芯 片设计涨幅约 19.2%,集成电路封测涨幅约 11.9%。我们认为 2025 年人工智能产业链迎来需求的较 快增长,从下游的 AI Infra,到中游的 AI 服务器组装,到上游的 PCB、CCL、GPU 等环节均有不错 的涨幅表现。同时在 2025 年国家消费品“以旧换新”补贴政策(以下简称国补政策)的催化下,消 费电子终端需求在 2025 年上半年亦有不错的增长,产业链各环节也有不错的涨幅表现。

电子行业整体业绩显著增长

2025 年前三季度电子行业营业总收入同比增长较快,盈利能力显著提升。根据 ifind 数据,电子行 业 2025 年前三季度营业总收入约 30,050 亿元,YoY+19%,净利润约 1,483 亿元,YoY+42%。从申 万电子三级细分板块来看,半导体设备、数字芯片设计、其他电子 III、消费电子零部件及组装、印 制电路板是前三季度营业总收入增长最快的细分板块;模拟芯片设计、集成电路制造、面板、分立 器件、印制电路板是前三季度净利润增长最快的细分板块。

申万电子指数 PE 处于历史相对高位

申万电子指数 PE 处于历史相对高位。根据 ifind 数据,2020~2022 年申万电子指数整体处于 PE 下 降区间,2023~2025 年申万电子指数整体处于 PE 上升区间。截至 2025 年 11 月 11 日,申万电子指 数 PE 整体处于 68.94X~84.09X 区间,是 2020 年以来的 PE 估值历史相对高位。

算力基建投入驱动 AI 主线,行业聚焦“从 0→1”变革节点

AI Tokens 需求快速增长,CSP 厂商资本开支维持高景气度

AI 产业焦点从“训练”转向“推理”,Tokens 需求量快速增长。在过去两年,AI 产业聚焦于大模 型的训练阶段,各大厂商着力于扩大大模型的参数规模,增加预训练的数据量。这是产业的“投入 期”。目前,产业焦点已经逐步转向大模型的推理阶段。根据量子位援引谷歌数据,2025 年 10 月 谷歌月处理 Tokens 量达到 1,300 万亿,是 2025 年 5 月数据的 2 倍多。根据未尽研究援引字节跳动 数据,2025 年 9 月字节跳动月处理 Tokens 量达到 900 万亿,是 2025 年 3 月的 2 倍多。

国内和海外云厂商积极提高资本开支以应对 AI Infra 扩张趋势。根据 ifind 数据,阿里巴巴 2022~2024 年资本开支合计达到 1,206 亿元;根据华尔街见闻报道,阿里预期未来三年资本开支合计达到 3,800 亿元。根据 ifind 数据,腾讯 2022~2024 年资本开支合计达到 1,943 亿元;根据华尔街见闻援引高盛 数据,腾讯预期未来三年资本开支合计达到 3,500 亿元。根据 Bloomberg 数据,2025 年北美四大云 厂商 Amazon、Meta、Microsoft、Google 资本开支合计将达到 3,496 亿美元,YoY+53%;预计 2026/2027 年该资本开支数据将进一步增长至 4,243/4,632 亿美元。

海外 GPU 厂商积极提升算力效率,ASIC 或迎来加速发展机遇

英伟达积极提升 GPU 的计算效率和 Switch 的互联带宽。根据英伟达在 GTC 2025 大会上披露的产 品规划,英伟达将在 2025/2026/2027/2028 年推出 Blackwell Ultra 8S HBM3e/Rubin 8S HBM4/Rubin Ultra 16S HBM4e/Feyman Next-Gen HBM 解决方案。其中 Blackwell Ultra NVL72 算力达到 1.1EF Dense FP4 Inference/0.36EF FP8 Training,整体是 GB200 NVL72 的 1.5 倍;Vera Rubin NVL144 算力 达到 3.6EF FP4 Inference/1.2EF FP8 Training,整体是 GB300 NVL72 的 3.3 倍;Rubin Ultra NVL576 算力达到15EF FP4 Inference/5EF FP8 Training,整体是GB300 NVL72的14倍。同时6th Gen NVSwitch 和7th Gen NVSwitch 速率也将达到 3,600GB/s,是 5th Gen NVSwitch 速率的 2倍。随着链式推理(Chain of Thought)生成的 Tokens 快速增长,为了提高结果的准确性,英伟达积极推动 GPU 计算效率和 Switch 互联带宽的升级。

根据财联社 2025 年 9 月 10 日报道,英伟达宣布推出专为长上下文工作负载设计的专用 GPU Rubin CPX,对应的 AI 服务器 Vera Rubin NVL144 CPX 共集成 36 颗 Vera CPU、144 颗 Rubin GPU 和 144 颗 Rubin CPX GPU。英伟达计划以两种形式提供 Rubin CPX,第一种是和 Vera Rubin 装配在同一个 Compute Tray上,第二种是独立以整个机架的 CPX 解决方案提供给客户,数量正好匹配 Rubin 机架。 英伟达分析称,推理过程包括上下文阶段和生成阶段,Rubin CPX 针对“数百万 tokens”级别的长上下 文性能进行优化,具备 30PFlops 的 NVFP4 算力和 128GB GDDR7 内存。Vera Rubin NVL144 CPX 机架处理长上下文的性能相较于 GB300 NVL72 高出最多 6.5 倍。

根据华尔街见闻和新浪财经报道,在 2025 年第二次 GTC 大会上,英伟达宣布 Hopper 芯片在其生命 周期内共出货了 400 万颗,预计 Blackwell 芯片出货量将达到 2,000 万颗,预计 Rubin GPU 将在 2026 年 10 月量产。英伟达预计 Blackwell 和 Rubin 芯片将带来五个季度共计 5,000 亿美元的营收。

AMD 亦在积极提高芯片算力效率。根据 IT 之家报道,AMD 在其 2025 年年度人工智能直播活动 Advancing AI 2025 上正式发布 MI350X 和 MI355X 的解决方案。根据 Bloomberg 信息,AMD 预计将 在 2026 年推出 MI400 及其相关的“Helios”72 GPU Rack 级解决方案,以应对英伟达的竞争。

ASIC 厂商或迎来第三方市场加速发展机遇。Amazon、Google、Microsoft、Meta、OpenAI 等云厂商 亦在积极联合第三方设计公司推出自研 AI ASIC 以应对英伟达的竞争。根据半导体行业观察报道, 谷歌在 Google Cloud Next 25 大会上推出第七代张量处理单元(TPU)Ironwood,Ironwood 提供 256 颗芯片和 9,216 颗芯片两种配置,后者总算力达 42.5EFlops,单芯片峰值算力 4.614EFlops,功率效 率是 Trillium 的 1.5 倍,每瓦性能翻倍,较首代 TPU 提升 30 倍。根据智东西 2025 年 10 月 24 日报 道,谷歌宣布将向 Anthropic 供应 100 多万颗 TPU 芯片以及附加的谷歌云服务,交易价值数百亿美 元。谷歌在声明中称,这是 Anthropic 迄今为止规模最大的 TPU 扩容计划。至此,Anthropic 已经和 英伟达、谷歌、亚马逊三大芯片供应商达成合作。根据财联社 2025 年 11 月 25 日报道,Meta Platforms 正在考虑斥资数十亿美元采购谷歌 TPU 芯片,包括用于 Meta 的数据中心建设。

国产 AI 芯片机遇和挑战并存

华为公布昇腾和超节点技术路线图。根据快科技报道,2025 年 9 月 18 日华为全联接大会上,华为 轮值董事长徐直军首次公布昇腾芯片演进和目标。华为预计将在 2026Q1/2026Q4/2027Q4/2028Q4 分 别更新 Ascend 950PR/950DT/960/970 芯片。2026Q1 推出的 950PR 芯片架构新增支持低精度数据格 式,包括 FP8、MXFP8、HIFP8、MXFP4 等,其中 FP8 算力达到 1 PFLOPS,FP4 算力达到 2PFLOPS。 950PR 还将支持华为自研 HBM 高带宽内存,分为 HiBL 1.0 和 HiZQ 2.0 两个版本,规格方面 HiBL 1.0 容量 128GB,带宽 1.6TB/s;HiZQ 2.0 容量 144GB,带宽 4TB/s。950PR 芯片采用 950 核心+HiBL 1.0 内存,可提升推理 Prefill(预填充)性能,950DT 芯片采用 HiZQ 2.0 内存,可提升推理 Decode(解 码)性能。本次大会上,华为还推出了基于灵衢和超节点架构的全新产品,包括全液冷数据中心 AI 超节点Atlas 950 SuperPoD、企业级风冷超节点服务器Atlas 850和Atlas 860、AI新一代标卡Atlas 350、 业界首个通算超节点 TiShan 950 SuperPoD。Atlas 950 SuperPoD 是面向超大型 AI 计算任务的最佳选 择,从基础器件、协议算法到光电技术,实现系统级创新突破。Atlas 950 通过正交架构实现零线缆 电互联,采用液冷接头浮动盲插设计做到零漏液,其独创的材料和工艺让光模块液冷可靠性提升一 倍。其创新的 UB-Mesh 递归直连拓扑网络架构,支持单板内、单板间和机架间的 NPU 全互联,以 64 卡为步长按需扩展,最大可实现 8,192 卡无收敛全互联。Atlas 850 是业界首个企业级风冷 AI 超节 点服务器,内部搭载 8 张昇腾 NPU,有效满足企业模型后训练、多场景推理等需求。Atlas 850 支持 多柜灵活部署,最大可形成 128 台 1,024 卡的超级点集群,是目前业内唯一可在风冷机房实现超节 点架构的算力集群。

中国国产 AI 芯片厂商迎来历史性发展机遇。根据四方维、与非网、深芯盟、湾芯展《2025 年度国 产 AI 芯片白皮书》数据,2024 年中国智能算力规模达到 725EFLOPS,YoY+74%;预计 2025 年中 国智能算力规模将达到 1,037EFLOPS,YoY+43%;预计 2026 年中国智能算力规模将达到 1,460EFLOPS,是 2024 年的两倍。中国智能算力市场规模的快速发展为中国国产 AI 芯片厂商提供 了历史性的发展机遇。根据 ifind 数据,2022~2025 年前三季度,海光信息营业收入从 51.25 亿元增 长至 94.90 亿元;寒武纪营业收入从 7.29 亿元增长至 46.07 亿元,沐曦股份营业收入从 0.00 亿元增 长至 12.36 亿元,摩尔线程营业收入从 0.46 亿元增长至 7.85 亿元。

先进封装产能持续扩容

台积电上修 CoWoS 预期,先进封装产能供不应求。随着 ChatGPT 等大模型迭代加速,全球云端 AI 芯片需求显著增长,全球 CoWoS 总需求将从 2024 年的 37 万片增长至 2025 年的 67 片,并在 2026 年达到 100 万片,这种需求的快速增长趋势进一步加剧了产能缺口。目前来看,全球仅少数 AI 芯片 龙头企业具备大规模“锁定产能”的实力,其余专用芯片(ASIC)厂商及二线 AI 芯片厂商均面临 CoWoS 产能不足的困境。根据半导体产业纵横援引摩根士丹利数据,2026 年英伟达 CoWoS 晶圆总 需求量将达到 59.5 万片,占全球总需求的 60%,其中约 51 万片将由台积电承接,主要用于下一代 Rubin 架构芯片。据此推算,2026 年英伟达芯片出货量可达 540 万颗,其中 240 万颗将来自 Rubin 平台。Amkor 和日月光(ASE/SPIL)等外包封测厂(OSAT)也将为英伟达分担约 8 万片的 CoWoS 产能,主要用于其 Vera CPU 和汽车芯片等产品。紧随其后的是博通的 CoWoS 需求,预计将达到 15 万片,占总需求的 15%,其产能主要服务于大客户的定制芯片(ASIC),包括为谷歌 TPU 预定的 9 万片(台积电 8.5 万片,日月光/矽品 5k 片)、为 Meta 定制的 5 万片和为 OpenAI 定制的 1 万片。 AMD 预计将获得 10.5 万片 CoWoS 晶圆,约占总需求的 11%,其中 8 万片将由台积电生产,用于其 MI355 和 MI400 的 AI 加速器。其他厂商包括亚马逊、Marvell、联发科等,其中亚马逊通过其合作 伙伴 AIchip 预定了 5 万片 CoWoS 产能;Marvell 为 AWS 和微软的定制芯片预定了 5.5 万片 CoWoS 产能;联发科为谷歌 TPU 项目预定了 2 万片 CoWoS 产能。综上,上述几大客户已锁定台积电 CoWoS 总产能的 85%以上,留给二线 AI 芯片厂商和专用 ASIC 厂商以及初创企业的份额不足 15%。在排期 普遍延后至 2026 年甚至更晚的背景下,产能稀缺已经从技术瓶颈演变为市场准入门槛。

AI 服务器架构迭代主导互联技术升级

英伟达 Rubin Ultra 架构或引入正交背板设计,高端 PCB 加速扩产

英伟达考虑在 Rubin Ultra 中引入正交背板设计。根据 Z Finance 援引 Semianalysis 数据,英伟达在 Rubin Ultra NVL576 架构中引入 Kyber 机架设计。和 Oberon 机架相比,Kyber 机架内部的核心变化 在于用 PCB 板背板取代铜缆背板作为机架内 GPU 和 NVSwitches 之间的扩展链路。根据 ServeTheHome 报道,英伟达在 GTC 2025 大会上首次展示其 Rubin NVL576 机架(名为 Kyber), 其中计算节点和交换节点均采用竖插的方式,两者通过 Midplane 形成连接。根据福邦投顾数据,英 伟达 Rubin NVL576 后续有望采用正交背板(Midplane 的变形)的解决方案,预计是 78 层(3×26L) 或 104 层(4×26L)的设计+铜浆烧结或 80+层的设计。根据华为 IP 知识百科,正交架构是一种硬 件结构。采用正交架构的设备背板无需走线,传输效率高,突破了传统背板架构的线路速率瓶颈。 正交架构在可扩展性强、交换容量大的同时,保持了较小的信号衰减。

CoWoP 技术有望成为 AI 服务器 PCB 的升级方向。根据 SemiVision 数据,英伟达在其最新的芯片 封装技术路线图中引入 CoWoP(Chip-on-Wafer-on-PCB,芯片-晶圆-印制电路板)概念。CoWoP 技 术去除了传统的 ABF 载板,将芯片和硅中介层模块直接贴装在高精度印制电路板(通常是类载板, 即 SLP,或 Substrate-Like PCB)上,形成从芯片级到系统板级的直接连接。CoWoP 技术在理论上拥 有两个关键优势:1)更短的信号路径和更低的插入损耗。这对于 NVLink、PCIe Gen 6/7 和 HBM 3/4 等高速互联至关重要。2)更高的热学和力学灵活性。因为芯片裸片直接贴装在 PCB 上,这有助于 直接接触式冷板或液冷解决方案的实施,尤其适合于解决千瓦级人工智能 GPU 的散热问题。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至