2025年中兴通讯研究报告:稀缺全栈算力布局,自研芯片即将展翼

  • 来源:华泰证券
  • 发布时间:2025/10/20
  • 浏览次数:927
  • 举报
相关深度报告REPORTS

中兴通讯研究报告:稀缺全栈算力布局,自研芯片即将展翼.pdf

中兴通讯研究报告:稀缺全栈算力布局,自研芯片即将展翼。中兴通讯:巩固“连接”主业,全面拥抱“AI算力”第二曲线公司主业涵盖运营商、政企和消费者三大客群,1H25占比分别为49%/27%/24%,其中运营商业务收入虽下滑但已逐渐企稳,而政企、消费者业务已重回快速增长轨道。公司自2022年开始将“算力”作为第二成长曲线重点打造,目前公司已形成芯片、服务器、存储、交换机、数据中心(含电源、液冷)级软件平台的全栈算力布局,是国内唯二实现算力全产业链布局的公司。公司服务器业务成长迅速,1H25服务器及存储收入同比增长超200%,8月...

中兴通讯:老牌通信设备龙头企业,全力切入算力赛道

业务概览:三大业务结构向优突破,运营商网络筑底转型

中兴通讯是全球领先的通信信息解决方案提供商,为全球运营商、政企和消费者提供全系 列无线、有线、云计算、终端和数智化等服务。中兴通讯的业务按客户维度可以划分为运 营商网络业务、政企业务和消费者业务三大板块:1)运营商网络:聚焦运营商网络演进需 求,提供无线接入、有线接入、承载网、核心网、电信软件系统与服务等创新技术和产品 解决方案;2)政企业务:聚焦政企客户需求,基于“计算、通讯网络、物联网、大数据” 等产品,为政府以及企业客户提供各类数字化和智能化解决方案;3)消费者业务:聚焦消 费者的智能体验,并兼顾行业需求,开发、生产和销售智能手机、移动互联终端、家庭信 息终端、融合创新终端等产品,并配套相关软件应用与增值服务。由于公司按照客户群体 划分业务结构,而运营商和政企客户对于 ICT 技术设施、云计算等产品需求趋同,因此公 司运营商业务和政企业务有一部分重合,包括 ICT 基础设施(服务器、存储、交换机、路 由器等)、能源、云计算、数据库以及数智化服务等。

业务拆解:运营商业务呈现“连接”转“算力”,政企、消费者业务重回增长

运营商网络业务收入增速阶段性承压,1H25 同比降幅边际收窄,加速向算力转型。受国内 运营商传统网络资本开支削减影响,公司近年来运营商网络业务收入呈下滑趋势。2024 年 公司运营商业务实现收入 703.27 亿元,同比下降 15%;1H25 实现收入 350.64 亿元,占 公司总收入 49.00%,同比下降 5.99%,降幅较上年同期有所收窄,主要系海外运营商业务 开拓进展顺利,回补了部分国内需求下行。收入结构层面,收入最主要的下降来自于传统 无线接入部分,而服务器及存储等算力产品则保持快速增长。根据公司 1H25 财报,公司通 用服务器在国内运营商市场份额领先,智算服务器已成功中标国产智算资源池项目,数据 中心交换机在中国移动集中采购中综合排名第一。此外,传统无线部分,公司与运营商合 作探索“空天地一体化”5G-A 全域立体网等新兴方向,助力低空产业落地,寻求新的增长。

2024 年政企、消费者业务已重回增长轨道,政企业务成公司收入核心增长引擎。1)政企 业务:2024 年政企业务摆脱此前年份的收入波动,实现快速增长:2024 年收入 185.66 亿 元,同比提升 37%;1H25 其收入进一步增至 192.54 亿元,同比增长 110%,其中服务器 成为公司政企收入关键增长极。从公司整体来看,1H25 服务器及存储收入(包括出货给政 企和运营商两大客群)同比增长超 200%,主要系受益于头部互联网厂商及行业客户加大智 算投资。针对政企业务,公司或将继续强化自研产品和解决方案,深化与政企客户在服务 器、数据中心交换机、数据中心、分布式数据库等产品及解决方案的合作;2)消费者业务: 保持稳健增长韧性,2024 年实现收入 324.06 亿元,同比提升 16%,1H25 收入 172.35 亿 元,同比提升 8%。家庭终端方面,公司推动 FTTR(全屋光线组网)的加速部署,助力全 屋智能等高阶应用的规模化落地,同时在手机产品方面坚持成本领先、差异创新等战略, 实现手机产品逆势增长。

营收结构:运营商网络业务占比下降,政企、消费者业务持续增长。根据公司财报,1H25 公司运营商网络/政企业务/消费者业务占收入比重分别为 49.00%/26.91%/24.09%,同比分 别-10.69pct/+12.23pct/-1.54pct。2019-1H25 年,运营商业务营收占比呈现逐步下降趋势, 但仍然为公司业绩支柱;政企业务占比上扬趋势明显,主要系服务器及存储产品拉动,业 务拓展成效持续兑现;消费者业务占比维持稳态。未来随着公司持续开拓政企、消费者等 业务,营收占比有望进一步提升。 盈利能力:运营商网络业务盈利稳定高水平,政企业务毛利率受产品结构变化有所承压。 根 据 公 司 财 报 , 1H25 公 司 运 营 商 网 络 / 政企业务 / 消 费 者 业 务 毛 利 率 分 别 为 52.94%/8.27%/17.78%,同比分别-1.38pct/-13.50pct/-1.03pct。其中,运营商网络业务作 为公司盈利的压舱石,毛利率仍稳固保持在 50%以上高位,依托 5G-A 技术布局、400GOTN 设备规模化应用及 IP 骨干网升级带来的产品需求支撑,持续贡献高盈利,夯实公司“第一 曲线”业务根基。政企业务毛利率近年来降幅较大,主要系产品结构调整,1H25 政企业务 收入增长主要依赖服务器及存储,该类型产品具有规模导向、低毛利的特点。我们认为, 公司政企业务短期毛利率承压是公司基于长期战略的主动选择,通过加大智算服务器供应 深度维系头部客户合作,抢占算力基础设施市场份额,或为后续自研芯片导入奠定基础。

关键转变:20 年代开始公司自“连接”转向“连接+算力”

“连接”:中兴立身之本,全球领先地位,或面临 5G 建设饱和后的阶段性“阵痛”

中兴以“连接”为基本盘,主要提供无线、有线等核心设备,长期稳居全球通信设备市场 头部地位。公司是全球领先无线/有线通信设备提供商,曾以“连接”业务作为立身之本。 公司“连接”业务围绕 2G、3G、4G、5G 等关键移动通信网络设备展开,为全球运营商提 供基站、核心网、承载网等核心基础设施。国内市场方面,公司基站发货量已连续五年保 持全球第二,仅次于华为,在国内运营商核心主设备集采中,公司与华为常居前二席位。 全球市场方面,根据 Dell'Oro Group 数据,公司 2024 年全球电信设备市场份额约为 11%, 其中 5G 基站与 5G 核心网累计发货量、固网产品整体市场份额均保持全球第二,RAN 产 品及 5G 核心网产品连续多年获行业领导者评级。公司海外市场拓展策略成效显著,亚太、 中东和非洲等新兴市场表现尤为突出。

近年来国内 5G 建设趋于饱和,行业瓶颈显现,未来 5G-A、6G 技术更迭或引领新一轮投 资。随着 5G 网络在国内快速部署,市场逐渐从大规模建设阶段转向精细化运营。根据工信 部数据,我国 5G 基站的建设数量在过去几年中呈现先高后低的趋势,同比增速逐年回落, 反映出 5G 网络覆盖已基本达到饱和状态。截至 2024 年底,全国移动电话基站总数达 1265 万个,其中 5G 基站为 425.1 万个,较上年末净增 87.4 万个,占移动电话基站总数份额的 33.6%,同比提升 4.5pct。5G 移动电话用户规模达 10.14 亿户。从建设节奏上看,2020-2024 年,我国 5G 基站整体部署节奏逐渐平缓,同比分别变动+393%/+2%/+36%/+20%/-18%。 根据爱立信全球移动报告(2024 年),2024 年我国所处的东北亚地区 5G 订阅用户占比达 51%,全球范围内仅次于发达的北美地区(71%)。

三大运营商预计 2025 年资本开支有所下降,其中传统 5G 连接部分下降较多:根据运营商 半年报数据,1)中国移动:1H25 完成资本开支 584 亿元,同比下降 8.75%,其中 5G 网 络投资 258 亿元,同比下降 17.83%,重点倾向算力领域,公司计划加大移动云投入,加速 “由云向智”升级,增强大算力供给;2)中国电信:1H25 累计完成资本开支 342 亿元, 其中 121 亿元用于 5G 网络建设与优化,全年资本开支主要投向 GPU 和服务器采购,DC 和 AIDC 按需投资,推动公司从“云改数转”向“云改数转智惠”转型;3)中国联通:1H25 完成资本开支 202 亿元,将加大 AIDC 等相关领域的投资,持续跟进智算、6G 技术趋势。 全年来看,中国移动/中国电信/中国联通 2025 年资本开支指引分别为 1512 亿元/836 亿元 /550 亿 元 , 同 比 下 降 7.80%/10.60%/10.38% , 其 中 指 引 算 力 投 入 分 别 同 比 增 长 0.5%/22%/28%,中国移动/中国电信指引 5G 资本开支分别为 582 亿元/242 亿元,同比下 降 15.7%/19%。

“算力”:中兴第二曲线,产品不断扩圈,政企端服务器高速增长

2020 年后,公司战略转向“连接+算力”。进入 20 年代,公司开始寻求新的增长点,2022 年定义了第二成长曲线,包括服务器和存储、终端、5G 行业应用、汽车电子、数字能源等; 2023 年,公司定下“连接+算力”的发展方向,将持续在技术上进行高强度研发投入,不 断拓宽“连接”主航道,加快向“算力”拓展步伐。公司加大智算产品研发和市场投入的 成效显著,以算力、终端产品为代表的第二曲线抓住智算投资增长机会,1H25 第二曲线收 入同比增长近 100%,占比超 35%。其中,公司服务器及存储营收同比增长超 200%,AI 服务器营收占比 55%。

公司算力产品版图不断扩张。公司在算力领域提供多类型产品,包括芯片(中兴微部分将 详细叙述)、服务器(包括一体机形式、超节点形式)、存储、交换机、数据中心及其配套 (电源、液冷)、训推软件平台等。

1)服务器及存储方面,公司拥有全场景智算系列产品,品类完善: I.在服务器端,公司提供高性能训练服务器、高性价比推理服务器、开箱即用的智算一体机 (如训推一体机、推理一体机、应用一体机)、全系列通用计算服务器以及高性能文件存储。 2024 年公司发布 G6 系列服务器,能够覆盖从中心到边缘的多元化智算建设需求,已突破 互联网、电信、能源、交通等行业头部企业并落地应用。2025 年 8 月,中国移动公布 2025-2026 年人工智能服务器(推理型)集采项目中标结果,本次集采规模超过 50 亿元, 共有 6 个标包,标包 1-4 为类 CUDA 生态(主用芯片为昆仑芯),标包 5-6 为 CANN 生态 (主用芯片为华为昇腾),中兴在昆仑芯服务器中以 17%的最大份额中标,合计金额 8.85 亿元,同期新华三(5.49 亿)、浪潮(2.97 亿)、昇腾系超聚变(8.38 亿)。 II.在存储端,公司推出了全系列的分布式存储、高端多控磁阵和高端全闪阵列产品,包括高 端多控磁阵 KF8810、高端全闪磁阵 KF8200、中高端磁阵 KU5230 V2、中高端混闪磁阵 KU5200 V2、中端混闪磁阵 KS3200 V2 以及分布式存储 KS20000 等产品,既兼顾大容量 与高性能需求,又支持文件、对象、块等多元存储形态,能够灵活应对不同业务场景,全 面提升了数据管理效率。技术创新层面,公司自研定海芯片可支持 RDMA 标卡、智能网卡、 DPU 卡等多种硬件形态,为算力提供高性能加速支持。

除传统服务器外,为满足企业个性化智算需求,公司推出一体机方案。AiCube DeepSeek 智算一体机作为公司核心产品,内嵌国产 GPU,融合 DeepSeek 大模型训推所必须的智算 服务器、存储及交换设备,并加载自研全栈软件平台,实现开箱即用,特别适用于需要私 域部署的企业。AiCube 通过提供一站式模型迁移工具,可支持 DeepSeek 等大模型在不同 计算架构 GPU 间的无缝迁移。借助模型分析、算子开发及性能优化,AiCube 在数小时内 即可完成 DeepSeek V3 & R1 全系列蒸馏模型的适配。此外,AiCube 还可根据客户业务场 景提供灵活的定制方案,契合企业不同业务场景。

公司携手产业伙伴推进 GPU 高速互联开放标准,打造新互联超节点智算服务器。在 2025 年 8 月山西大同中国算力大会中,中兴以自研 AI 大容量交换芯片“凌云”为基石,提出面 向 AI 加速器的高速互联开放架构,实现国产化 GPU 卡大规模高速互联,构建 Nebula 星云 智算超节点,打造软硬协同、以网强算、开放解耦、高效高稳的万卡、十万卡超大规模智 算集群,有效支持了万亿参数以上主权大模型的训练,显著提升了 AI 计算的性能和效率。 同时,Nebula 也凭借高性价比的推理能力,推动了 AI 技术的普惠化发展,更多企业和开发 者能够利用 AI 技术提升业务能力和创新能力。

2)交换机方面,公司提供园区交换机和数据中心交换机,全面布局 100G/400G/800G 等 速率。公司星云智算网络方案持续进阶,推出了业界最高密度的 576 口 800G 框式以及最 紧凑的 32 口 400G 盒式交换机,旨在打造国产领先的端到端解耦 400G/800G RoCE 无损 智算网络。该方案通过三重创新流控技术,实现数据无损传输,确保高达 98%的网络吞吐 效率和 5us 级的快速流量拥塞调优,助力集群算效大幅提升。公司国产超高密度 230.4T 框 式交换机和全系列 12.8T/51.2T 盒式交换机性能业界领先,已在运营商、互联网、金融等市 场的百、千、万卡智算集群中实现规模商用。根据 GlobalData 最新报告,公司数据中心交 换机系列产品保持国内同类产品的最高评级“Very Strong”。

3)数据中心及其配套方面,公司建设高可用数据中心,提供全系列预制模块化方案,并可 提供液冷等解决方案。公司提供集装箱数据中心解决方案、仓储式全模块数据中心解决方 案、微模块 MDC 解决方案、MiniDC 解决方案等,满足从超大规模到微小规模、新建到改 造的全场景需求。公司构建自研产品核心竞争力,打造在智算场景下的数据中心全栈解决 方案和端到端交付能力;推出第三代模块化间接蒸发冷却空调、全系列液冷、交直流一体 化电力模块、全场景 AI 能效调优、装配式数据中心等创新产品和方案。

4)软件平台方面,公司 AI Booster 智算训推软件平台为客户提供一站式 AI 解决方案。AI Booster 除可商用、可持续运维支持的智算训练以及推理服务,还通过将工程经验工具化, 有效简化 AI 创新并降低大模型迁移成本。AI Booster 由 TECS 资源管理平台和 AIS 训推平 台构成,提供资源管理、AI 工具集、应用开发等核心能力。

中兴通讯:AI 算力集群全栈能力构建者,国产算力 Beta 下或显著受益

近年来国内互联网资本开支维持高增,算力投入表现亮眼。2Q25BAT(百度、阿里、腾讯) 合计资本开支同比提升 170.1%至 615.36 亿元,环比较 1Q25 的 543.69 亿元增长 13.2%。 此前 1Q25 受 H20 禁售影响,BAT 部分资本开支计划未能完全实现,导致 1Q25 BAT 资本 开支曾环比下降 22.6%,2Q25 来看 BAT 资本开支增速已重回环比增长轨道。其中,百度/ 阿里巴巴/腾讯 2Q25 资本开支分别为 38.00/386.29/191.07 亿元,同比增速分别为 +79.4%/+223.6%/+118.9%,环比分别为+31.0%/+61.0%/-30.5%。阿里在 2Q25 业绩会中 表示仍将坚持未来三年在云与 AI 基础设施方面投入超过 3800 亿元的计划,但每个季度可 能会因供应链情况不同出现波动。

进入 2H25 后,我们观察到国产算力景气度全面提升,中兴通讯作为 AI 算力集群全栈能力 构建者脱颖而出。2025 年 8 月 6 日,特朗普宣布对进口半导体加征约 100%关税,15 日特 朗普威胁两周内宣布新的半导体关税,税率或达 300%;8 月 15 日,寒武纪 39.85 亿定增 方案获上交所审核通过;8 月 21 日,DeepSeek 正式发布 V3.1,并在官微置顶留言“UE8M0 FP8 是针对即将发布的下一代国产芯片设计”;8 月 22 日,英伟达要求暂停生产 H20 芯片, 或转向下一代 B30A。我们认为,总结来看:1)海外 GPU 供华仍存在不确定性;2)国产 GPU 性能、量产能力等方面正在实现突破,有望在 2H25-2026 年逐步放量。因此我们建议 关注国产算力链,其中包括 AIDC、服务器、交换机、光模块、铜连接、液冷等诸多细分链, 而国产算力链内中兴通讯拥有 AI 集群从计算到网络的全栈布局,因而有望显著受益于国产 算力需求放量。

管理层情况:方榕女士 25 年开始掌舵,加速算力业务拓展

方榕女士于 25 年接任中兴通讯董事长,继续推动公司从连接向“连接+算力”转型。2025 年 3 月,中兴通讯宣布管理层调整,方榕接任董事长,在“连接+算力”核心战略基础上, 将加速拓展以 AI、算力为代表的第二曲线业务,突破公司增长瓶颈。回溯公司领袖沿革历 程,2018 年中兴通讯遭美国制裁,李自学先生临危受命出任董事长,通过重建合规体系、 收缩非核心业务、聚焦核心战略等关键举措,推动公司在 2019 年后快速恢复运营。 2019-2022 年,受益于国内 5G 建设规模化推进,中兴通讯业绩保持稳健增长,2020-2022 年公司营业收入年复合增速达 10.7%,归母净利润年复合增长率达 16.2%。2025 年,方榕 接手中兴,她强调“公司从全连接向‘连接+算力’拓展转型愈发迫切”,将继续加速数智 基础设施的部署与升级,推动数智技术融入千行百业。

研发投入:公司始终重视研发投入,24 年研发投入位列通信板块第二

公司重视技术创新和研发投入,2021-1H25 公司研发费用率始终维持在 15%-20%区间。公 司持续深耕第一曲线的有线、无线通信业务的技术,携手运营商加速超双万兆网络、通感 一体、空天地一体等一系列 5G-A 创新技术应用落地及产业成熟,并积极投入第二曲线的 终端业务、服务器业务、存储业务、数字化转型应用等新兴业务的技术,强化服务器、存 储、交换机等智算相关产品的研发。公司 1H25 研发费用 126.65 亿元,同比基本持平。公 司的研发费用率从 2018 年的 12.75%稳步提升至 1H25 的 17.70%,并自 2021 年以来一直 维持在 15%至 20%的区间。

公司研发投入领先行业,铸就核心技术高壁垒。对比上市公司通信板块,公司研发费用明 显领先于同行,2024 年国内通讯上市公司研发费用前十五的排名中,公司以 240 亿投入位 列第二,仅次于通信板块龙头中国移动。与同样以高水平研发投入著称的华为对比, 2018-2024 年公司与华为保持相近研发费用率。

公司形成高速互联、在网计算、算力原生、无感迁移、数据处理和算法优化等多项关键专 利技术积累,持续强化 DICT 端到端全系列产品及数智化解决方案的竞争力。截至 2025 年 6 月 30 日,公司拥有约 9.4 万件全球专利申请,累计超 5 万件全球授权专利。其中在 AI 领域,拥有近 5500 件专利申请,近一半已获授权;芯片领域拥有约 5700 件专利申请,累 计超 3700 件授权专利。从产品研发来看,在连接领域,公司通过 5G-A 开启低空经济、万 兆体验与确定性服务等新业态,积极布局 6G 技术演进,通过全光网络提供超大带宽、低时 延与高可靠特性等网络关键能力;在算力基础设施领域,公司全力推进智算产品的研发, 通过自研芯片、智算服务器、超大规模集群、智算一体机等全栈国产化智算产品,以及资 源管理平台、训推平台、星云大模型、智能体工厂等软件方案,打造开放普惠的智算基座。

中兴微:自研芯片展翼,重视算力相关芯片导入大厂进度

再认识中兴微:国内头部芯片设计企业,算力相关芯片全面突破

中兴微:深耕芯片自研三十载,IC 解决方案全面领先。中兴微电子于 2003 年注册成立, 是中兴通讯的控股子公司,其前身为创立于 1996 年的中兴通讯 IC 设计部。经过近 30 年的 发展,中兴微电子已成为国内领先的 IC 设计公司,自主研发并成功商用的芯片达到 150 多 种,产品覆盖 ICT 产业“算力、网络、终端”全领域。中兴微电子已具备从成熟工艺到先 进工艺的复杂 SoC 芯片前后端全流程设计能力,服务全球 160 多个国家和地区,连续多年 被评为“中国十大集成电路设计企业”,在 2024 年中国半导体企业综合竞争力百强名单中, 公司位列第 18 名,展现出强大的研发能力与广泛的市场影响力。 公司芯片产品年发货量超过 2 亿颗,现已形成“连接+算力+应用”的技术生态。1)无线芯 片是中兴微的传统优势领域,无线产品(使用中兴自研芯片)中过去的 4G 基站产品全球份 额超过 25%,根据中兴通讯副总裁李晖在 2020 年 10 月第三届数字中国峰会上的讲话,在 5G 无线基站等设备的主控芯片上,中兴自研的 7nm 芯片已实现市场商用,5nm 芯片尚在 实验中;2)有线芯片中,除固网芯片外,公司提供 Scale Out 和 Scale Up 两类型交换芯 片,其中 Scale Out 交换芯片对标博通、盛科、华为等企业,已实现 12.8T 容量级别量产, Scale Up 交换芯片展示于 25 年 8 月的中国算力大会(山西大同),产品名为“凌云”,该 芯片助力国产化 GPU 卡大规模高速互联,从而构建 Nebula 星云智算超节点;3)算力芯片 方面,公司代表产品包括性能领先的领域定制 ARM CPU珠峰 1.0,以及可卸载并加速网络、 管理、释放 CPU 资源的自研 DPU 定海芯片;4)端侧芯片方面,公司推出具有里程碑意义 的 ZX7520V3 系列 LTE 多模芯片,在全球 70 多个国家的手机市场商用,如今瞄准车载无 线通信的业务场景,推出撼域 M1、车规级 5G+V2X 芯片 S1V,已累计中标广汽、比亚迪、 奇瑞、上汽等多家车企量产项目。我们将交换芯片、珠峰算力芯片、DPU 等芯片定义为“算 力相关芯片”。

中兴微电子于 2021 年营收已近百亿,国内市场排名领先。中兴微电子 2015-2017 年业绩 在国内芯片设计企业中排名第三,由于 2018 年美国商务部对中兴通讯实施出口限制,中兴 微电子 2018-2019 年业绩出现小幅下滑,但也刺激了公司自研芯片的发展,2020 年,公司 自研 7nm 芯片规模量产并商用,营收实现大幅跃升,逐步走出断供的“阵痛”中,2021 年营收已接近百亿,达到 97.31 亿元。

交换芯片:Scale Out 逐步导入互联网体系,Scale Up 配合国产超节点

Scale out 实现大规模 GPU 集群间的高速互联,Scale up 支持高带宽域内部跨 GPU 的高 性能通信。随着 AI 大模型日趋复杂,其训练和推理任务对算力的需求快速上升,因此构建 大规模 AI 算力集群,通过多 GPU 协同工作成为必然趋势,而计算引擎需要处理的数据可 能位于多个 GPU 的 Global Memory 中,需要通过 Scale up 网络和 Scale Out 网络来完成 GPU 之间的数据传输。Scale up 主要关注单个计算节点内部的 GPU 之间互联,以期实现 计算密度的增长,特点是带宽高、时延小,典型协议包括 PCIe、NVLINK、UALINK 等; Scale Out 主要关注大规模计算节点之间的网络互联,借助高性能、高密度的交换机组网实 现,典型协议包括以太网(RoCEv2、UEC)、InfiniBand 等。

Scale out 方面:1)母公司层次,中兴通讯目前已推出国产超高密度 230.4T 框式交换机, 以及全系列 51.2T/12.8T 盒式交换机,性能业界领先,在运营商、互联网、金融等市场的百 /千/万卡智算集群规模商用。以 ZXR10 5960X-HK 系列交换机为例,其交换容量为 25.6Tbps, 支持 PFC/ECN/Fast ECN 等 RoCEv2 无损以太网特性,用以完成数据中心内部的 Scale out 互联;2)中兴微层次,2018 年中兴微推出交换容量 8.96Tbps 的第四代自研交换网芯片, 达到业界一流水平,在 2025 年深圳 SEMIE(国际半导体展)中,中兴微展台展示其天屹 系列以太网交换芯片,最大交换容量达到 12.8Tbps。

Scale out 空间几何?——AI 数据中心需求增长叠加国产化要求提升,我国以太网交换芯 片(Scale out)市场空间有望持续扩容,我们预计 2026 年国内国产交换芯片市场规模有 望达 54 亿元。参考灼识咨询 2020 年数据,2020 年全球以太网交换机市场规模/以太网交 换芯片市场规模分别为 1807 亿元/368 亿元,因此交换芯片市场规模大致为交换机市场规模 的 20%(亦可通过交换机厂商毛利率和交换芯片占 BOM 成本比例简单推导而出)。根据 IDC 数据,2024 年我国以太网交换机市场规模为 60.03 亿美元,其中增量主要来自于数据中心 市场,因此我们主要关注数据中心交换机市场的增量,2024 年我国数据中心交换机市场规 模为 33.37 亿美元,我们假设 2025/2026 年国内数据中心交换机市场增速分别为 35%/30%, 则 2026 年国内数据中心交换机市场规模预计为 58.57 亿美元。假设美元兑人民币汇率为 7.1,则 2026 年国内数据中心交换芯片(Scale out)市场规模为 83 亿元,由于海外芯片供 应存在不确定性,未来交换芯片等关键芯片的国产化要求或提升,我们预计数据中心交换 芯片国产化率由 2022 年的 35%提升至 2026 年的 65%,即对应 2026 年国内国产数据中心 交换芯片市场规模 54.06 亿元,2023-2026E CAGR 为 38.9%。

Scale up 方面:我们重申 Scale up 网络的重要性,我们观察到,国内外厂商正在积极研 发超节点架构,而单卡算力差距或可部分由“运力”(网络)进行弥补。海外方面,英伟达 推出的 GB200 NVL72 内使用 18 颗 NVSwitch5 ASIC 将 72 颗 B200 GPU 进行 Scale up 互 联,即交换芯片:GPU=18:72=1:4。国内方面,华为 CM384 的单节点中 8 颗 NPU 通过 7 颗 UB Switch 实现卡间互联,因此交换芯片:NPU=7:8。从二者算力比较来看,尽管昇腾 910C 的单芯片算力仅为 GB200 的 1/3,但 CM384、GB200 NVL72 的 BF16 稠密算力分 别为 300、180PFLOPS,前者几乎是后者的两倍,可见单卡算力的差距可以通过 Scale up+Scale out 进行弥补,随着机柜式服务器成为未来发展趋势,机柜内部的 Scale up 交换 网络格外重要。

中兴微目前已具备大容量交换芯片“凌云”及 GPU 卡间互联方案,未来有望受益于超节点 架构的渗透。根据 IDC 在 2025 年 8 月发布的《中国大模型推理算力市场分析报告,2025》, 中兴通讯全栈开放智算平台取得亮眼成绩,在算力架构、网络和存储增强、安全与合规等 关键指标上斩获满分。中兴通讯依托长期技术积淀,深度布局智算硬软件研发与集成,覆 盖从底层硬件到上层用全流程,尤其是目前已有“机内高速互联芯片”(Scale up)与机间 互联交换芯片(Scale out)。从实际应用成果来看,中兴通讯以自研 AI 大容量交换芯片“凌 云”为基石,提出面向 AI 加速器的高速互联开放架构,实现国产化 GPU 卡大规模高速互 联,构建 Nebula 星云智算超节点,打造软硬协同、以网强算、开放解耦、高效高稳的万卡、 十万卡超大规模智算集群,有效支持了万亿参数以上主权大模型的训练,显著提升了 AI 计 算的性能和效率。我们认为,国产 GPU 未来占比有望增加,相关厂商可能受限于集群网络 建设能力,难以完全发挥计算芯片的性能,而公司现已具备出色的网络互联实力,未来有 望帮助相关厂商进行性能调优。

DPU:公司自研定海芯片有望助力国产 GPU 性能优化

DPU 可从 CPU 卸载部分繁重任务至自身处理,助力释放 CPU 资源提升效率,随着人工智 能、大数据等产业的快速发展,数据中心面临严峻的 I/O 性能瓶颈和低延迟挑战。传统架构 下,处理海量数据和高性能网络协议(如 RDMA、NVMe)会大量占用 CPU 资源,导致存 储应用可用算力捉襟见肘。DPU 作为一种新型可编程处理器,其核心价值在于卸载和加速, 它能够将存储协议封装、数据压缩/去重、加密等繁重任务从主机 CPU 上转移至自身处理。 这一能力显著释放了 CPU 算力,使其能更专注于核心计算业务,从而大幅提升系统整体效 率。通过实现“算存分离”,DPU 让计算节点能以简单、高效的方式透明访问远端存储资源。 它不仅简化了主机端的存储协议栈,降低了资源消耗,还在保障数据中心高性能、高稳定 性和高安全性的同时,为存储系统的持续演进提供了坚实支撑。

AI 背景下,DPU 的“帮助”对象由 CPU 逐步转向 GPU:在大模型训练和推理场景下, DPU 通过卸载 GPU 非核心任务、加强 GPU间通信并优化数据预处理来提升整体算力效能。 大模型训练和推理中,GPU 计算能力受到数据管理、通信和存储等任务的限制,DPU 可从 三方面对其进行优化:1)使 GPU 专注于计算任务:DPU 可以接管数据加载、预处理、通 信等占用 GPU 资源的任务,通过高速 I/O 接口直接从存储设备读取数据,减少 CPU 的介 入,进而提升 GPU 的利用率和计算效率;2)加强 GPU 之间的通信:分布式训练中,GPU 之间的通信(如梯度同步)会消耗大量时间。DPU 支持高效的 All-Reduce 操作,减少通信 延迟,同时,DPU 内置专用的通信引擎,可实现 GPU Direct RDMA,从而实现超高带宽、 低延迟的 GPU 间通信;3)优化数据预处理与检索:通过 DPU 进行远端存储访问协议的卸 载,可以提高数据读写的效率,提供比 CPU 更高的吞吐量和更低的延迟,从而减少 GPU 的闲置时间。

DPU 有望成为 AI 服务器标配,中兴微电子已推出自研 DPU 定海芯片具备先发优势。从海 外来看,CoreWeave 与 VAST Data 合作,将 BlueField DPU 作为控制数据节点(DNode), 通过 NVIDIA DOCA API 将数据服务直接卸载到 BlueField DPU,从而消除了对传统 x86 CPU 的需求。从实际效果来看,与基于 x86 架构的 DNode 相比,基于 BlueField 的 DNode 在连续吞吐量方面提高了 60%,从 40GB/s 增加至 64GB/s,同时功耗降低了 58%,从 1200 W 下降至 500W,相当于每瓦性能提高了 3.84 倍,可见 DPU 的合理利用可以带来效率、 可扩展性和性能的提升。同时,CoreWeave 率先部署的 GB300 NVL72 服务器内部包含 72 颗 Blackwell Ultra GPU 和 18 颗 NVIDIA BlueField-3 DPU,即 GPU:DPU=4:1,我们推测 后续其他厂商生产的服务器中比例与此相近。中兴微电子目前已有自研 DPU 定海芯片,支 持 RDMA 标卡、智能网卡、DPU 卡等多种形态,主要功能是网口报文收发、网络报文处理, 同时提供一些算法加速器,如安全加解密算法、压缩解压缩等,在国内具备先发优势。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至