2025年交换机行业深度报告:AI大模型快速发展助力交换机市场扩张

  • 来源:华福证券
  • 发布时间:2026/01/08
  • 浏览次数:42
  • 举报
相关深度报告REPORTS

交换机行业深度报告:AI大模型快速发展助力交换机市场扩张.pdf

交换机行业深度报告:AI大模型快速发展助力交换机市场扩张。随着AI大模型的发展,大规模训练集群对网络提出更高的要求。①超大规模组网需求,②超高带宽需求,③超低时延及抖动需求,④超高稳定性需求,⑤网络自动化部署的需求。数据中心作为数字化时代的核心基础设施,通过集成计算、存储和网络资源,支撑着云计算、大数据和人工智能等技术的落地应用。当前数据中心正向智能化运维、算力网络融合和安全性强化方向深度发展。交换机是计算机网络中的核心设备之一。中商产业研究院发布的《2025-2030年中国交换机行业市场前景预测与发展趋势研究报告》显示,2024年全球交换机市场规模为418亿美元,同比下降5.4%,2025年...

AI大模型推动数据中心规模扩张

AI大模型发展大势所趋,推动智能化升级新范式

人工智能是数字经济的核心驱动力,AI 大模型是人工智能的新引擎。AI 大模型指通过在海量数据上进行预训练, 能够适应多种下游任务的模型,具有强大的泛化能力、自监督学习功能和精度突破性能。其已经在自然语言处理、计 算机视觉、气象预报等多个领域取得了令人瞩目的成果。大模型的发展是大势所趋,未来将会助推数字经济,为智能 化升级带来新范式。

AIGC发展突飞猛进,催生万亿级市场空间

随着ChatGPT等生成式人工智能的突飞猛进,全球范 围内的经济价值预计将达到数万亿美元。AIGC的快速发展 对底层GPU支撑规模提出了更高的要求,达到了万卡级别。 然而,如何满足如此庞大规模的训练任务,对网络的规模、 性能、可靠性和稳定性等方面提出了前所未有的挑战。以 GPT3.5为例,其训练过程依赖于微软专门建设的AI超算系 统,由1万个V100 GPU组成的高性能网络集群,总计算力 消耗约为3640 PF-days。 根据艾瑞咨询预测,2023年中国AIGC产业规模约为 143亿元,随后进入大模型生态培育期,持续打造与完善底 层算力基建、大模型商店平台等新型基础设施,以此孕育 成熟技术与产品形态的对外输出。2028年,中国AIGC产业 规模预计将达到7202亿元,中国AIGC产业生态日益稳固, 完成重点领域、关键场景的技术价值兑现,逐步建立完善 模型即服务产业生态,2030年中国AIGC产业规模有望突破 万亿元,达到11441亿元。

AI大模型对智算中心网络提出更高的要求

随着模型参数规模增加,模型的效果越来越好,且两者之间符合 Scaling law 规律,且当模型的参数规模超过数百 亿后,AI大模型的语言理解能力、逻辑推理能力以及问题分析能力迅速提升。同时,随着模型参数规模与性能提升后, AI 大模型训练对于网络的需求相比于传统模型也随之产生变化。 在AI大模型的大规模训练集群中,如何设计高效的集群组网方案,满足低时延、高吞吐的机间通信,从而降低多 机多卡间数据同步的通信耗时,提升 GPU 有效计算时间占比(GPU 计算时间/整体训练时间),对于 AI 分布式训练 集群的效率提升至关重要。

超大规模组网需求:AI 应用计算量呈几何级数增长,算法模型向巨量化发展,人工智能模型参数在过去十年增长 了十万倍,当前 AI 超大模型的参数目前已经达到了千亿~万亿的级别。训练这样的模型,毫无疑问需要超高算力 (大量的GPU+合适的并行方式)。

超高带宽需求:从机间 GPU 通信角度看,流水线并行、数据并行及张量并行模式需要不同的通信操作,部分集 合通信数据将达到百 GB 级别,且复杂的集合通信模式将在同一时刻产生多对一与一对多的通信。因此机间 GPU 的高速互联对于网络的单端口带宽、节点间的可用链路数量及网络总带宽提出了高要求。

超低时延及抖动需求:如何降低计算通信时延、提升网络吞吐是 AI 大模型智算中心能够充分释放算力的核心问 题。同时,网络抖动导致集合通信的效率变低,从而影响到 AI 大模型的训练效率。

超高稳定性需求:网络系统的可用性是作为基础来决定整个集群的计算稳定性。网络故障域大,将降低系统算力 的完整性;网络性能波动会导致所有计算资源的利用率都受影响。

网络自动化部署的需求:高效或自动化部署配置能够有效的提升大模型集群系统的可靠性和效率。自动化部署配 置需要能够做到多台并行部署配置的能力,自动选择拥塞控制机制相关参数以及根据网卡类型和业务类型选择相 关配置。

交换机需求升级:白盒化、市场扩容、OCS光交换

交换机产业链

交换机行业已形成相对完整的生态体系。上游以核心元器件与软件为支撑,其中以太网交换芯片、光模块、PCB 构成硬件主体;中游设备制造;下游应用覆盖超大规模数据中心(阿里云/腾讯云)、AI算力集群、运营商网络(移 动/电信)及企业级市场。其中东数西算工程和AI浪潮正驱动400G/800G高速交换机的规模化部署。全产业链在政策 支持和技术创新双轮驱动下,正加速向高端化、绿色化方向发展。 从交换机成本构成来看,交换机主要由芯片、光器件、插接件、阻容器件、壳体、PCB等部件组成。其中芯片成 本占比最高,为32%。其次分别为光器件、插接件、阻容器件、壳体、PCB,占比分别为14%、10%、10%、8%、7%。

白盒化趋势明显

传统品牌交换机软硬件封闭,导致设备互通性差、运维管控繁杂、故障定位困难,且封闭式架构制约后期升级扩 展。白盒交换机是软硬件解耦的开放网络设备,采用“商用硬件+开放操作系统”的开放式架构,支持灵活配置管理, 核心在于打破传统“软硬件捆绑”模式,赋予用户按需定制网络功能的能力,具备灵活、高校、可编程优势,能降低 网络部署成本。两者的核心区别在于内部结构的透明性、用户控制权及软硬件解耦化。白盒交换机赋予用户对底层的 高度控制,适合技术创新和成本敏感场景;传统品牌交换机(黑盒)以开箱即用的便利性见长,适合标准化需求和快 速落地。 白盒交换机:①硬件层面:包含交换芯片、CPU、网卡等组件,遵循OCP标准化规范,确保通用性。②软件层面: 以网络操作系统及应用程序为核心,为功能拓展提供支撑。

交换芯片需求升级:高带宽、低时延

AI大模型的进展,高端口速率占比提升

近年数字经济的快速发展,推动了云计算、大数据、物联网、人工智能等技术产业的快速发展和传统产业数字化 的转型,均对网络带宽提出新的要求,100G 及以上的以太网交换芯片需求逐渐增多,400G 端口将成为下一代数据中 心网络内部主流端口形态。根据灼识咨询数据,中国商用以太网交换芯片市场方面,2020 年,万兆级、千兆级及 100G 级以上端口速率以太网交换芯片市场规模占比最高,分别为 30.2%、28.2%和 24.1%;预计至 2025 年,100G 及以 上和 25G 的中国商用以太网交换芯片市场规模将大幅增长,占比将分别达到 44.2%和 16.3%,2020-2025 年年均复合增 长率将分别达到28.4%和 30.5%。

AI大模型的进展,推动高带宽交换芯片应用

不同应用场景下对交换芯片的带宽要求不同。家用交换设备的交换芯片通常为百兆级,企业小型交换设备的交换 芯片通常为千兆级,企业大型交换设备的交换芯片通常为千兆~万兆级,数据中心、运营商用交换芯片通常为25-400G 带宽。 AI大模型进展,推动高带宽交换芯片应用。从近期密集的新闻发布来看,万卡规模AI大模型陆续推出,十万卡 以及更大规模的模型也已经离我们很近了。智算中心网络无疑成为大家关注的重点,网络带宽和低延迟已成为大规模 组网的关键瓶颈。 智算中心网络区别于传统数据中心网络有2个常见关注点:超大规模组网对网络速率的要求,以及网络低延迟的 要求。AI大模型大量采用GPU组网,而GPU互联采用RDMA技术来提升系统整体访问效率,以降低对CPU的占用, GPU之间的互联通信对带宽的需求极高,传统的以太网带宽早已无法满足,业界也通过采用IB和RoCE等新技术来提 升AI大模型的总体组网效率。因此,400G和800G目前是智算中心组网的标配,可即使是800G,也很难满足日益提升 的大模型需求,1.6T势必会迅速占据网络带宽的主导位。

交换芯片生产制造环节迎来新挑战

半 导 体 及 集 成 电 路 行 业 在 经 营 模 式 上 主 要 分 为 IDM ( Integrated Device Manufacturing,垂直 整合制造)模式和垂直分工模式。其中,IDM 模式下, 企业独自完成芯片设计、晶圆制造、封装测试所有环 节,对企业的技术储备和资金实力具有较高的要求; 垂直分工模式中包括 Fabless 企业、Foundry 企业和封 测代工厂。垂直分工模式下,产业链各环节由不同企 业专业化分工进行,由 Fabless 企业(芯片设计企业) 专业从事产品的研发设计,将晶圆制造、封装和测试 环节外包给 Foundry 企业(晶圆代工厂)及封测代工 厂,以实现各方技术与资金资源的精准投入。 20 世纪 80 年代前,全球半导体行业以 IDM 模式 为主,但行业壁垒较高、产品周期较长等因素在一定 程度上制约了行业的发展。80 年代后期,随着中国台 湾 Foundry企业的诞生,半导体产业链各环节呈现分 化的态势,Fabless 模式和 Foundry 模式逐步得到行业 认可,市场占比逐年提高。

报告节选:


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至