2025年电子行业2026年度策略报告:云端共振,算存齐飞

  • 来源:信达证券
  • 发布时间:2025/12/05
  • 浏览次数:191
  • 举报
相关深度报告REPORTS

电子行业2026年度策略报告:云端共振,算存齐飞.pdf

电子行业2026年度策略报告:云端共振,算存齐飞。算力:全球基建浪潮高增,核心产业链全面受益。谷歌发布Gemini3成为新一代大模型标杆,在多项AI基准测试中表现出色,Gemini3Pro重新定义了前端开发,将Agent与UI融为一体,或证明了ScalingLaw依然是通往AGI道理的灯塔。全球AI大模型的你追我赶,正是推动上游算力基础设施需求爆发的重要驱动力。受这一强劲的需求的驱动,全球CSP正迎来新一轮的资本开支扩张周期。TrendForce预期2026年CSP合计资本支出将进一步推升至6000亿美元以上,年增40%,展现出AI基础建设的长期成长潜能。这波资本支出成长将激励AIServer...

AI 算力:全球基建浪潮高增,核心产业链全面受益

AI 大模型你追我赶,全球 CSP 加大 CapEx 投入

谷歌发布 Gemini 3 成为新一代大模型标杆,Scaling Law 再次得到强化。谷歌 Gemini 3 突破原生多模态架构,将文本、图像、音频等信息统一处理,实现了深度的跨模态理解和关 联推理,而不仅仅是简单的模态拼接。Gemini 3 凭借百万级上下文窗口和 Deep Think 深度 推理模式,在多项专业测试中表现超越竞争对手。Nano Banana Pro 则专注于图像生成,解 决了角色一致性和文字精准渲染两大痛点,并能基于逻辑理解进行图像编辑。谷歌 Gemini 3 Pro 重新定义了前端开发,将 Agent 与 UI 融为一体,或证明了 Scaling Law 依然是通往 AGI 道理的灯塔。

全球 AI 大模型的你追我赶,是推动上游算力基础设施需求爆发的重要驱动力。目前,以谷 歌 Gemini 3 Pro 为代表的新一代多模态大模型,凭借其在复杂推理、长文本理解和跨模态 交互方面的卓越表现,正在引领全球 AI 技术前沿。这种旗舰模型的迭代速度和对算力消耗 的指数级增长,直接决定了全球云服务商必须持续加大资本开支以满足训练和部署需求。与 此同时,国内头部互联网公司和 AI 初创企业亦在大模型领域展开激烈竞争,国产模型如通 义千问、Kimi、文心一言等,在中文语境和特定场景应用上不断优化,技术差距正加速缩小, 并积极适配国产算力平台。这种全球范围内技术你追我赶的态势,奠定了未来几年 AI 硬件 产业链高景气的基调。

北美巨头与国内大厂在 AI 基础设施投入上形成共振,全球 CSP 资本开支大幅提升。受 AI 强劲需求的驱动,全球云服务商(CSP)正迎来新一轮的资本开支扩张周期。北美科技巨头 为抢占 AI 技术高地,持续加码基础设施建设,推动投资重心坚定地向算力侧及自研芯片倾 斜。与此同时,随着大模型商业化进程的加速及自研训练需求的释放,国内云厂商的投资意 愿也显著回暖,正在走出调整期并重回增长轨道。展望未来,在中美两大市场需求的“共振” 下,AI 算力竞赛将持续深化,这为全球 CSP 资本开支维持长期上行趋势提供了坚实的逻辑 支撑。

2026 年 CSP 资本支出合计或增长至 6000 亿美元以上,算力迈入新一轮结构性成长周期。 TrendForce 上修 2025 年全球八大主要 CSP 资本开支总额增长率至 65%(原值 61%),并 预期 2026 年 CSPs 仍将维持积极的投资节奏,合计资本支出将进一步推升至 6000 亿美元 以上,年增 40%,展现出 AI 基础建设的长期成长潜能。这波资本支出成长将激励 AI Server 需求全面升温,并带动 GPU/ASIC、存储器、封装材料等上游供应链,以及液冷散热模块、 电源供应及 ODM 组装等下游系统同步扩张,驱动 AI 硬件生态链迈入新一轮结构性成长周期。

全球 AI 基建 CapEx 动能强劲,拉动 AI 服务器出货保持高增长。2026 年来自 CSP、主权 云的需求持续稳定,加上 AI 推理应用蓬勃发展,我们预计 AI 服务器出货量维持高增速。根 据 Gartner 数据,2024 年全球 AI 服务器出货量 160 万台,同比增长 59%,预计 2025/2026 年将增长至 200 万/240 万台,同比增长 24%/17%。

海外链:GPU 与 ASIC 共振,关注服务器与 PCB 等环节价值重塑

英伟达作为 AI 算力的领军者,其产品迭代节奏显著加快,持续引领行业性能天花板。从 Hopper 架构到 Blackwell 架构,英伟达 GPU 在算力及 HBM 显存等指标上实现显著提升。 英伟达预计在 26H2 推出 Rubin GPU 芯片,Rubin GPU 由两颗 Reticle 尺寸的核心组成, 具备 50 PFLOPS 的 FP4 精度算力,并配备 288GB HBM4 高带宽内存。性能方面,Vera Rubin NVL144 平台可达成 3.6 Exaflops 的 FP4 推理与 1.2 Exaflops 的 FP8 训练算力,相较 GB300 NVL72 提升约 3.3 倍。英伟达计划在 27H2 推出更高阶的 Rubin Ultra NVL576 平台,将进一步把性能提升至 15 Exaflops。

产能瓶颈有望突破,英伟达 Blackwell+Rubin 至 26 年底预期出货 2000 万颗。黄仁勋在美 国华盛顿特区 GTC DC 2025 大会上预计,到 2026 年底前,Blackwell 与 Rubin GPU 总出 货量或将达到 2000 万颗,Blackwell 与 Rubin 将合计带来 5000 亿美元的 GPU 销售额。对 比而言,上一代 Hopper 架构芯片在整个生命周期内仅出货了 400 万块。

大模型厂商你追我赶,推理需求提升推动 ASIC 芯片需求增长。LLM 推理可以分为预填 (Prefill)、译码(Decode)两个阶段,Prefill 阶段需要可以进行高度并行的大矩阵计算,Decode 阶段则需要高带宽、低延迟的存储器,两个阶段对芯片的要求侧重不同。目前市场 上的 AI 芯片(多数是 GPU),通常采用“一体适用”的设计,也就是用同一颗芯片来跑完 Prefill 和 Decode 两个阶段,造成了一定的资源浪费。为顺应推理需求增长,各大 CSP 积 极开发自研 ASIC,考量成本效益与高能效比。其中其中 Google 于 2025 年 4 月份推出了 首款适用于 AI 推理时代的第 7 代 TPU- Ironwood ,Meta 的 MTIA 2 同样也已于 2025 年第 三季量产。

AI 服务器架构升级,关注 ODM、PCB 等环节价值量提升。AI 服务器正从单 GPU 组件升 级向机架级(rack)集成设计演进,叠加算力密度的跳跃式提升,机柜需求或将迎来快速增 长。英伟达 2024 年推出 GB200 NVL72 采用第一代 Oberon 架构,2025 年量产第二代 Oberon 架构产品 GB300 NVL72,预计 2026 年下半年推出第三代 Oberon 架构的 Vera Rubin NVL144,且 27 年推出的 Vera Rubin NVL576 有望升级为 Kyber 架构。架构升级有 望带来 ODM 毛利率不断提升,工业富联作为全球 AI 服务器 ODM 龙头,已切入英伟达及 ASIC AI 服务器核心供应链,市场份额有望稳定提升。

Rubin 平台服务器采用的无缆化互连设计,驱动 PCB 成为算力核心。过去 GPU 与 Switch 间的高速传输依赖线缆,如今改由 Switch tray、Midplane 与 CX9/CPX 等多层 PCB 板直接 承接,使讯号完整性(Signal Integrity, SI)与传输稳定性成为设计的核心指标。而 Rubin 平 台为达成低损耗与低延迟,全面升级使用材料,包括 Switch Tray 采用 M8U 等级(Low-Dk2 + HVLP4)和 24 层 HDI 板设计,Midplane 与 CX9/CPX 则导入 M9(Q-glass + HVLP4), 层数最高达 104 层。这让单台服务器的 PCB 价值比上一代提升逾两倍,并使设计重点从板 面布线转向整机互连与散热协同。此外,Rubin的设计逻辑已成为产业共同语言,包括Google TPU V7、AWS Trainium3 等 ASIC AI 服务器同样导入高层 HDI、低 Dk 材料与极低粗糙度 铜箔。

国产链:软硬解耦加速 AI 算力落地,产业链上下游共同受益

在供应链安全与自主可控需求的推动下,国产算力芯片正加速缩小与国际先进水平的差距。 一方面,国内 AI 大模型的性能水平在全球保持较强的竞争实力,CSP 龙头在 AI 基建的投 资需求扩张;另一方面,美国对华芯片制裁使得英伟达 GPU 在大陆禁售,给国产 AI 算力芯 片带来大量空间。以华为昇腾、寒武纪、海光信息为代表的国产算力芯片性能不断提升,并 随着良率突破,市场份额有望不断增长。以华为昇腾芯片为例,25Q1 推出昇腾 910C 芯片, 后续或将在 26Q1 推出全新的昇腾 950PR 芯片,26Q4 推出昇腾 950DT 芯片,27Q4,华 为将推出昇腾 960 芯片,28Q4 推出昇腾 970 芯片。

DeepSeek-V3.1 使用 UE8M0 FP8 Scale 的参数精度,国产 AI 芯片迎接战略性机遇。 DeepSeek 发布的 V3.1 模型使用了 UE8M0 FP8 Scale 的参数精度,是针对即将发布的下 一代国产芯片设计的。UE8M0 是 MXFP8 路径里的“缩放因子”,其优势包括缩短时钟关键 路径;指数表容纳跨度大,为后续块缩放提供充足空间;在保持 8 bit 张量精度的同时大幅 减少信息损失。我们关注到,目前多家国产 AI 芯片厂商的下一代产品都或将支持 FP8 计算, 这表示国产 AI 正走向软硬件协同阶段,或能实质性减少对海外算力的依赖,我们认为,V3.1 的发布为国产 AI 芯片产业链带来了战略性机遇,AI 芯片替代进程有望提速。

先进制程的演进虽然面临外部限制,但晶圆代工厂的技术突围仍在持续。尽管面临地缘政治 挑战,全球晶圆代工厂在制程节点的推进上依然按部就班。从 FinFET 向 GAA(全环绕栅 极)晶体管架构的演进,将进一步提升芯片的能效比。对于国产算力而言,利用成熟制程通过 Chiplet(小芯片)架构和先进封装技术提升系统级性能,已成为明确的技术路径。

国内 IP 授权及芯片定制服务商显著受益于系统厂商造芯的浪潮。随着互联网大厂及系统厂 商纷纷涉足自研芯片,对上游 IP 核及设计服务的需求激增。以芯原股份为代表的一站式芯 片定制服务商,能够提供从芯片定义、设计到流片的完整解决方案,帮助客户降低研发风险 并缩短上市周期。在算力专用化趋势下,这类赋能型企业的价值量有望持续提升。

AI 存力:周期回升叠加 AI 需求,“超级周期”趋势形成

涨价周期:原厂控产效果显现,新一轮上行周期确立

存储原厂坚定的减产保价策略已逐步扭转供需格局,DRAM 和 NAND Flash 价格步入上行 通道。回顾过去几个季度,主要存储原厂通过严格控制晶圆投片量和优化库存结构,成功推 动了存储价格触底反弹。从合约价和现货价走势来看,DRAM 和 NAND Flash 均已走出一 波明显的上涨行情。展望 2026 年,鉴于原厂在扩产方面依旧保持谨慎,且新增产能主要集 中在 HBM 等高端产品,我们预计常规存储产品的供需将持续处于紧平衡状态,价格中枢有 望进一步抬升。

随着 AI 旺季的到来及传统消费电子的温和复苏,预计 2025 年第四季度存储价格将维持强 势。根据 TrendForce 预测,受服务器端强劲需求拉动,4Q25 DRAM 合约价预计将环比上 涨 18%-23%,其中 HBM 及高密度 DDR5 产品的涨幅更为显著。NAND Flash 方面,虽然 消费端需求相对平稳,但企业级 SSD 的需求爆发支撑了价格的稳步上行,预计 4Q25 涨幅 在 5%-10%区间。价格的持续上涨将显著修复存储原厂及模组厂商的盈利能力。

DRAM:HBM 产能挤兑效应显著,服务器高端存储加速提升

HBM 作为 AI 算力的“加油站”,其技术迭代与产能扩张是当前存储市场的主旋律。Nvidia 及 AMD 的新一代 AI 芯片对显存带宽的需求呈指数级增长,推动 HBM 从 HBM3 向 HBM3e 及 HBM4 快速演进。观察 Nvidia 和 AMD 的产品路线图,HBM3e 12hi 及后续 HBM4 将成 为 2026 年的主流配置。单颗 GPU 搭载的 HBM 容量从 80GB 快速提升至 288GB 甚至更 高,这对存储厂商的 TSV 工艺及封装良率提出了巨大挑战。

三大原厂积极扩产 HBM,产能挤兑效应或将导致通用 DRAM 供应紧张。为了抢占高利润的 HBM 市场,Samsung、SK Hynix 及 Micron 纷纷加大 HBM 产能投入。由于 HBM 的晶圆消 耗量是同容量 DDR5 的数倍,且需要占用大量先进逻辑制程进行 Base Die 制造,这种产能 置换效应极易挤占通用 DRAM 的产能。我们判断,随着 HBM 投片量的增加,标准型 DDR5 内存在 2026 年可能出现结构性缺货。

服务器内存从 DDR4 向 DDR5 切换的进程加速,高密度模组需求旺盛。在服务器端,随着 Intel Sapphire Rapids/Emerald Rapids 及 AMD Genoa/Turin 平台的渗透,DDR5 内存已成 为新建数据中心的标配。弗若斯特沙利文预计2025年,DDR5的市场渗透率或将超过85%。 此外,AI 服务器对内存容量的渴求推动了 64GB/128GB 等高容量 RDIMM 模组的出货占比 提升,进一步拉动了 DRAM 位元出货量的增长。

NAND Flash:大容量 eSSD 需求快速增长,HDD 替代进程加速

AI 训练对数据吞吐的高要求,正在催化 QLC eSSD 加速替代近线(Nearline)HDD。在 AI 大模型训练和推理过程中,存储设备的读写速度直接影响整体计算效率。AI 创造的庞大数 据量正冲击全球数据中心存储设施,传统作为海量数据存储基石的 Nearline HDD(近线硬 盘)已出现供应短缺,促使高效能、高成本的 SSD 逐渐成为市场焦点,根据 TrendForce, 大容量的 QLC SSD 出货可能于 2026 年出现大幅增长。由于全球主要 HDD 制造商近年未 规划扩大产线,无法及时满足 AI 刺激的突发性、巨量储存需求。目前 NL HDD 交期已从原 本的数周,急剧延长为 52 周以上,加速扩大 CSP 的储存缺口。

推理场景下的 RAG(检索增强生成)技术普及,直接推动了大容量 SSD 的需求爆发。随着 AI 应用从训练走向推理,RAG 技术被广泛应用于提升大模型的准确性。RAG 需要频繁地从 海量向量数据库中检索信息,这对存储介质的随机读取性能提出了严苛要求。由于语言大模 型对数据存储需求大幅增长,AI 推理服务器中 SSD 的配置容量高于传统服务器,我们预计 这将推动企业级 SSD 位元出货量在 2026 年维持高增长。

端侧设备存储容量升级趋势确立,手机与 PC 单机搭载量稳步提升。除了数据中心,端侧 AI 的落地也对本地存储提出了更高要求。为了在本地运行数十亿参数的小模型,智能手机和 AI PC 需要更大的 RAM 和 ROM 空间。历史数据显示,手机和 PC 的平均 NAND 搭载量呈逐 年上升趋势,AI 功能的引入将进一步强化这一趋势,推动 512GB/1TB 成为旗舰机型的主流 配置。

端侧 AI:AI 重塑终端硬件形态,智能终端迎来革新奇点

AI 手机:换机周期开启,渗透率快速攀升

全球智能手机市场在经历调整后迎来温和复苏,AI 成为激发换机需求的关键变量。随着宏 观经济环境的改善及渠道库存的去化,全球智能手机出货量已重回增长轨道。展望 2026 年, 虽然整体市场规模主要呈现存量博弈特征,但 AI 手机的结构性机会不容忽视。各大手机品 牌厂商纷纷将生成式 AI 作为旗舰机型的核心卖点,试图通过差异化的 AI 体验(如实时翻 译、图像消除、智能助手)来缩短用户的换机周期。

算力升级与模型轻量化双管齐下,推动 AI 手机渗透率跨越式提升。随着手机 SoC(如高通 Snapdragon 8 Elite、联发科 Dimensity 9400)NPU 算力的大幅提升以及端侧模型剪枝压缩 技术的成熟,越来越多的手机已具备本地运行大模型的能力。根据 Canalys 及 Omdia 预测, 全球 AI 手机的出货量渗透率将从 2024 年的约 18%快速攀升至 2026 年的 45%,甚至在 2029 年接近 60%,标志着手机行业正式进入 AI 原生时代。

AI 眼镜:杀手级应用初现,SoC 厂商大有可为

AI 智能眼镜作为这一轮端侧 AI 浪潮中的黑马,正展现出强劲的增长爆发力。Ray-Ban Meta 眼镜的成功验证了“AI+眼镜”这一产品形态的市场接受度。通过集成多模态 AI 模型,智能 眼镜能够实现第一视角拍摄、实时问答、翻译等功能,完美契合了 AI 随身助理的场景需求。 根据 Wellsenn XR 数据,全球 AI 眼镜销量正处于爆发前夜,预计 2026 年将随着更多科技 巨头的入局而迎来大幅增长。

硬件成本的下降与产业链的成熟,为 AI 眼镜的普及奠定了坚实基础。拆解分析显示,AI 眼 镜的硬件成本(BOM)主要集中在 SoC 芯片、摄像头、存储及光机模组上。以小米及主流 品牌的 AI 眼镜方案为例,其 BOM 成本已控制在可大规模商用的范围内。随着高通等芯片 厂商推出针对眼镜优化的低功耗平台,以及国内精密制造厂商(如歌尔、蓝思等)在组装和 零部件环节的良率提升,AI 眼镜有望成为继 TWS 耳机之后的又一个亿级出货量的穿戴单 品。

机器人:具身智能奇点临近,产业链机遇涌现

特斯拉 Optimus 等标杆产品的快速迭代,标志着人形机器人正在从实验室走向工厂验证。 在 AI 大模型的赋能下,人形机器人的运动控制和环境感知能力取得了突破性进展。特斯拉 Optimus Gen 2 展现出的灵巧手操作能力及行走稳定性,让市场看到了具身智能商业化的曙 光。与此同时,国内厂商如宇数科技(Unitree)推出的通用人形机器人,凭借较高的性价比 和快速的迭代速度,也在科研和教育市场占据了一席之地。

传统消费电子零部件巨头积极布局机器人赛道,供应链外溢效应显著。人形机器人作为集成 了视觉、触觉、运控的复杂系统,对高精密零部件有海量需求。蓝思科技等传统果链龙头厂 商,正凭借其在玻璃、金属结构件、光学模组领域的制造经验,积极切入机器人供应链。未 来,随着人形机器人出货量的量级跃升,具备精密制造能力和规模化降本能力的电子零部件 厂商将迎来第二增长曲线。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至