AI服务器出货量及产业链梳理

AI服务器出货量及产业链梳理

最佳答案 匿名用户编辑于2024/03/25 15:30

服务器整机出货量放缓,AI服务器出货量稳步上升。

1.AI服务器出货量持续增长

2022年全球服务器出货量增长4.8%,达到约1360万台。然而,预计到2023年, 全年增长将放缓至1.5%。服务器整机出货量放缓的主要原因是大型云服务提供商的整体服务器购买量下降,集体转向高价AI服务器。 根据TrendForce数据,2023年AI服务器出货量逾达120万台,占据服务器总出货量的近9%,年增长达38.4%。预计2026年,AI服 务器出货量为237万台,占比达15%,复合年增长率预计保持25%。

AI服务器整机逻辑结构可确保各组件高效运行。如浪潮的NF5688M6型号AI服务器,其逻辑结构采用NVIDIA NVLink互联架构,可 基于硬件拓扑,实现 GPU:IB:NVMe=1:1:1的配比。此外,GPU之间交互效率高,可直接进行数据通信速率为400GB/s的P2P 交互。最后通过UPI 总线互联设计,该型号AI服务器可为深度学习业务场景提供高效计算性能。

2.AI服务器产业链解析

芯片和存储是AI服务器的主要构成

计算芯片和存储是服务器的核心构成。服务器产业链包括:芯片GPU(图形处理单元)、CPU(中央处理单元),存储: DRAM(动态 随机存取存储器)、SSD(固态硬盘),PSU(电源供应单元),NIC(网络接口卡)、 PCIe(高速串行扩展总线)插槽、BIOS (基 本输入输出系统)和 BMC(基板管理控制器)等。芯片和存储作为AI服务器的核心,决定着AI服务器的算力和宽带大小。

AI服务器AI芯片价值量占比提升。传统的通用型服务器中,售价10424美金的2x Intel Sapphire Rapids Server,CPU的成本占比约 17.7%,内存和硬盘占比超过50%。而AI服务器,售价为268495美金的Nvidia DGX H100中,CPU占比仅1.9%,GPU占比高达72.6%。 内存价值量提升,但占比下降至4.2%左右。AI服务器较通用服务器价值量提升明显,AI芯片在AI服务器中占有绝对比重。随着AI服务器 放量,AI芯片正迎来黄金爆发期。

CPU:X86为主,ARM等其他架构争抢份额

服务器 CPU 架构包括 X86、ARM 、MIPS和 RISC-V等。目前X86架构处理器统治着PC和服务器市场,Arm架构处理器统治着移动市场和IoT市场, MIPS是基于RISC的衍生架构之一,从工作站、桌面电脑到嵌入式系统再到人工智能,一直在夹缝中求生。近年来RISC-V架构则凭借着开源、指令精简、可扩展等优势,在注重能效比的物联网领域大受追捧,并也开始进入更高性能需求的服务器市场。

英特尔是服务器市场的龙头企业,2022年仍占据全球服务器市场70.77%的份额。AMD主要产品是EPYC(霄龙)系列CPU,2022年占据19.84%的市场 份额。海光信息通过与AMD成立合资公司成都海光集成的方式,变相拥有了X86架构的授权,不过海光信息仅获得AMD第一代EPYC的Zen架构,没有 获得Zen2、Zen3系列架构授权。上海兆芯通过引入台湾威盛控股获得了部分X86架构授权,不过盛威与英特尔的X86合同已于2018年4月到期,不能使 用英特尔新的X86专利,只能在旧X86架构下继续研发。海思半导体的鲲鹏处理器和天津飞腾处理器兼容 ARM 指令集;龙芯中科处理器采用 LoongArch 指令集,主要产品与服务涵盖处理器及配套芯片产品;成都申威处理器采用 SW-64 指令集,主要应用于服务器、桌面计算机等设备。

AI芯片是AI服务器的大脑

AI服务器采取GPU架构,适合大规模并行计算。AI服务器由传统服务器演变发展而来。相比于通用服务器,AI服务器为异构服务器,可以多 种组合方式,搭载多个GPU、CPU以及大算力AI芯片,极大程度解决传统服务器算力不足的缺点。AI服务器采用GPU架构,GPU具有众多计 算单元和长流水线,简单控制逻辑,省去Cache。 面对类型统一、相互无依赖的大规模数据,处于无需中断的计算环境。相较之下,CPU被 Cache和复杂控制逻辑占据,通用性导致复杂的内部结构,处理不同数据类型引入分支和中断。

AI芯片是AI服务器算力的核心。AI芯片是AI服务器算力的核心,也被称为AI加速器或计算卡,专门用于处理人工智能应用中的大量计算任务。 按技术架构分类,AI芯片可分为GPU、 FPGA、ASIC和NPU等。GPU是一种通用型芯片,ASIC是一种专用型芯片,而FPGA则处于两者之间,具有半定制化的特点。按照功能分类,可分为训练和推理芯片。按照应用场景分类,可分为云端和边缘端芯片。随着AI PC、AI PIN、AI PHONE等更多应用场景出现,AI芯片的空间有望进一步打开。

内存接口芯片:集成于DRAM中

内存接口芯片集成于DRAM模组中,是服务器内存模组的核心逻辑器件。其主要作用是提升内存数据访问的速度及稳定性,满足服务器 CPU 对内存模组日益增长的高性能及大容量需求。支持DDR5的主流服务器CPU于2022年底至2023年初正式发布,推动DDR5 服务器内存 模组渗透率持续提升。根据JEDEC组织的定义,在DDR5世代,服务器内存模组上除了需要内存接口芯片之外,同时还需要配置三种配套芯 片,包括一颗SPD芯片(专用于DDR5内存模组的EEPROM带电可擦可编写只读存储器芯片,用来存储内存模组的关键配置信息)、一颗 PMIC芯片和两颗TS芯片(用来实时监测DDR5内存模组温度的传感器芯片);普通台式机、笔记本电脑的内存模组UDIMM、SODIMM上, 需要配置两种配套芯片,包括一颗SPD芯片和一颗PMIC芯片。

内存接口芯片未来市场空间广阔。从全球服务器领域内存接口芯片(RCD+DB)市场规模来看,据统计,2021年全球服务器出货量为0.13 亿台,其中服务器平均内存模组数量为10.0,服务器DIMM数量为亿条,同时目前全球DDR4渗透率为98%,DDR4 LRDIMM渗透率为 10%,DDR5渗透率为2%,DDR5 LRDIMM渗透率为0%,对应2021年全球服务器领域(RCD+DB)市场规模为6.9亿美元,预计2025年 达到14.6亿美元。

PCIe技术:为服务器数据的高速及远距离传输保驾护航

依托于强大的生态系统,PCIe已成为主流互连接口。PCIe协议(由英特尔于2001年提出)是一种高速串行计算机扩展总线标准,即CPU通过主板上 的PCIe插槽及PCIe协议与加速器沟通,实现上下之间的接口以协调数据的传送,并在高时钟频率下保持高性能。目前PCIe协议已发展至PCIe 5.0, 传输速率已从PCIe 4.0时期的16GT/s提升到 32GT/s,未来PCIe 6.0的传输速率将进一步提升至64GT/s。根据QYResearch调研团队的最新报告《全 球PCIe芯片市场报告2023-2029》,预计2029年全球PCIe芯片市场规模将达到19.65亿美元,2022~2029 CAGR+12.1%。随着平台厂商、芯片厂 商、终端设备厂商和测试设备厂商的深入合作,PCIe全面覆盖了包括PC机、服务器、存储系统、手持计算等各种计算平台,应用场景拓宽至云计算、 企业级计算、高性能计算、人工智能和物联网等。

参考报告

服务器行业专题报告:AI和“东数西算”双轮驱动,服务器再起航.pdf

服务器行业专题报告:AI和“东数西算”双轮驱动,服务器再起航。服务器作为算力发动机,海内外需求共振。国家发展改革委等部门关于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见,其中提到算力是数字经济时代的新型生产力,以算力赋能经济发展为主线,发挥全国一体化算力网络国家枢纽节点引领带动作用,协同推进“东数西算”工程,并构建联网调度的全国一体化算力网。海外自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥抱AIGC。大模型通常包含数亿级的参数,需要消耗大量算力。服...

查看详情
相关报告
我来回答