2024年澜起科技研究报告:DDR5渗透提速,AI助力互联新品持续发力

  • 来源:中银证券
  • 发布时间:2024/04/07
  • 浏览次数:1523
  • 举报
相关深度报告REPORTS

澜起科技研究报告:DDR5渗透提速,AI助力互联新品持续发力.pdf

澜起科技研究报告:DDR5渗透提速,AI助力互联新品持续发力。需求低迷致23年业绩承压,持续创新拥抱未来。自成立起,公司契合市场趋势,产品不断推陈出新。公司于2005年推出DDR2服务内存缓冲芯片产品,此后伴随DDR升级迭代,公司积极践行全球内存接口行业标准制定,持续投入研发进行产品升级。同时公司不断丰富产品矩阵,目前已拥有互连类芯片和津逮®服务器平台两大产品线。2023年,受全球服务器及计算机行业需求下滑导致的客户去库存影响,公司内存接口芯片与津逮®CPU出货量较上年明显减少。伴随行业库存去化及存货管理初见成效,公司深厚的行业积累有望为长期增长保驾护航。数据中心景气回温+DD...

数据中心去库致 23 年业绩承压,持续创新拥抱未来

行业景气低点已过,互联芯片大厂再启航

澜起科技是一家数据处理及互连芯片设计公司。澜起科技股份有限公司成立于 2004 年,公司致力于 为云计算和人工智能领域提供高性能、低功耗的芯片解决方案。自成立起,公司契合市场趋势,产 品不断推陈出新:公司于 2005 年推出 DDR2 服务器内存缓冲芯片产品;2010 年,公司推出基于 DDR3 的服务器内存缓冲芯片;2013 年,公司推出 DDR4 服务器内存缓冲芯片并第一个获得 Intel 的认证; 2016 年,公司与清华大学、Intel 公司联手合作开发出安全可控 CPU;2019 年,公司津逮®CPU 多系 列具备大批量供货能力;2020 年,公司发布第二代津逮®CPU,PCleRetimer 芯片实现量产;2021 年, 公司发布第三代津逮®CPU,DDR5 第一代子内存接口及模组配套芯片实现量产;2022 年,公司试产 DDR5 第二子代 RCD 芯片,与三星、海力士合作推出 CXL 存储器;2023 年,公司发布第四、五代 津逮®CPU,PCIe5.0/CXL2.0 Retimer 芯片实现量产,试产 DDR5 第三子代 RCD 芯片;2024 年,公 司推出 DDR5 第四子代 RCD 芯片。

公司无实际控制人,股权结构相对分散。截至 2024 年 3 月 16 日,公司第一大股东为中国电子投资 控股有限公司,持有公司 7.24%的股份,第二大股东为 INTEL CAPITAL CORPORATION,持有公 司 6.65%的股份,公司与英特尔合作密切,2016 年开始与英特尔合作开发津逮®CPU 产品。第三、 第四、第五大股东分别为珠海融英股权投资合伙企业(有限合伙),WLTPartners,L.p.,香港中央结 算有限公司。前五大股东共持有公司 28.70%的股份,股权结构相对分散。

高管团队背景深厚,专业实力与丰富行业经验共同助力公司稳健发展。公司董事长兼首席执行官、 首席科学家杨崇和博士,曾在美国国家半导体从事芯片研发,后任上海贝岭新产品研发部负责人。 他与同仁创建的新涛科技于 2001 年与 IDT 合并。杨博士为 IEEE 终身院士,荣获多项奖项,包括 IEEE CAS 产业先驱奖等。StephenTai 先生任公司董事兼总经理逾 18 年,拥有丰富的半导体经验,曾在 Sigmax和 Marvell 任职。董事 WANGRUI(王锐)女士曾效力于美国铿腾电子科技有限公司(Cadence)、 AMD 和英特尔,现任英特尔高级副总裁及中国区董事长。优质管理团队为公司发展护航。

受数据中心去库存影响,23年公司业绩承压。2021、2022两年公司营收分别同比增长40.49%、43.33%, 呈现加速增长的趋势。2023 年,受全球服务器及计算机行业需求下滑导致的客户去库存影响,公司 DDR4 内存接口芯片与津逮®CPU 出货量较上年同期明显减少,公司营业收入为 22.86 亿元,较 2022 年同期下降 37.76%。2023 年前三季度,由于前期备货导致库存积压,以及 2023 年以来下游市场的 疲软,公司前三季度收入和归母净利润都出现了下滑,前三季度营收 15.25 亿元,同比下降 47.06%, 归母净利 2.34 亿元,同比下降 76.60%。2023 年第三季度,随着 DDR5 内存接口芯片出货量持续提 升,公司主要经营指标连续两个季度环比明显改善。2023 年第三季度公司实现营业收入 5.98 亿元, 环比增长 17.61%。分产品来看,2018 年开始剥离消费电子业务后,内存接口芯片一直是公司收入的 主要来源,津逮®服务平台业务收入占比在 2020 年短暂提升后持续下降。2023 年互连类芯片产品线 实现销售收入 21.85 亿元,较上年度下降 20.11%;津逮®服务器平台产品线实现销售收入 0.94 亿元, 较上年度下降 90.01%。

23 年归母净利润同比减少 65.30%,系投资减值等多因素影响。2021 年公司归母净利润出现较大下 滑后,2022 年触底反弹。2022 年度公司实现归母净利润 12.99 亿元,较上年度增长 56.71%;主要原 因包括以下两方面:(1)公司营业收入大幅增长;(2)基于公司前期围绕产业链进行的投资布局, 公司 2022 年因投资产生的投资收益及公允价值变动收益较上年度实现大幅增长。2023 年,归母净 利润为 4.51 亿元,较上年同期下降 65.30%。主要原因系:(1)2023 年公司营业收入较 2022 年大 幅减少;(2)投资收益及公允价值变动收益总额较上年同期减少 4.62 亿元;(3)计提的资产减值 损失为 1.93 亿元,较上年同期增加 1.66 亿元;(4)与此同时,公司保持高强度研发投入,2023 年 研发费用为 6.82 亿元,较上年同期增加 21.00%。

近 5 年毛利率有所波动,伴随新品上量有望保持高位。公司毛利率在 2018-2023H1 呈现出较大 的波动性。2018 年,公司剥离消费电子芯片业务,总毛利率显著上升至 70.54%,并高位维持 至 2020 年。2021-2022 年,随着毛利率较低的津逮®服务器上量,公司整体毛利率再次下滑, 2021 年和 2022 年毛利率分别为 48.08%和 46.44%。2023H1 受到行业去库存影响,津逮®服务 器出货量减少,总体毛利率上升至 56.32%。分产品来看,2019-2022 年,随着产品市场成熟度 提升,内存接口芯片毛利率有一定下降。2023 年随着 DDR5 渗透率提升,公司内存接口芯片 毛利率开始企稳回升。未来随着 DDR5 子代迭代加快,毛利率同样较高的互连类芯片新品也将 逐渐上量,公司整体毛利率有望保持较高水平。

2023 年前三季度研发费用率显著上升,未来随 DDR5 普及和新品上量有望实现费用率优化。2023 年以来公司保持较高强度研发投入,2023 年前三季度研发费用为 4.87 亿元,前三季度研发费用率为 31.93%。研发费用率增长主要系行业景气度下滑导致的公司营收下滑所致。未来随着 DDR5 渗透节 奏恢复正常及新品上量,规模效应有望显现。

在存货管理方面,公司积极采取改善措施效果明显。2023 年第三季度末公司存货账面价值为 6.33 亿元,已连续两个季度降低,较第一季度末减少 22.75%。2024 年公司库存有望趋于良性区间,营运 将更轻盈,伴随全球数据中心走出低谷,公司相关产品出货量有望随市场需求复苏继续恢复。

新品持续突破,互连芯片与津逮®服务器平台双线并进

公司目前拥有互连类芯片和津逮®服务器平台两大产品线。互连类芯片产品包括 DDR5 内存接口芯 片、DDR5 内存模组配套芯片、PCIe5.0Retimer 芯片,CXL2.0Retimer 芯片以及 CXL 内存扩展控制 器(MXC)。津逮®服务器平台产品包括津逮®CPU 以及混合安全内存模组(HSDIMM®)。

持续受益于 DDR5 迭代升级,互连类产品线多产品布局取得突破。公司核心产品内存接口芯片及内 存模组配套芯片持续受益于行业迭代升级。2022 年底至 2023 年初,随着支持 DDR5 的主流 CPU 陆 续量产上市,内存模组市场由 DDR4 向 DDR5 迭代升级,DDR5 的渗透率逐步提升,由此带动相关 芯片的需求。公司作为相关细分领域的行业领跑者,把握行业迭代升级带来的机遇,享受市场空间 拓展带来的红利。同时,公司作为全球微电子产业的领导标准机构 JEDEC 组织下属三个委员会及分 会主席,在相关细分领域的产品标准制定方面具有重要话语权,公司深度参与 DDR5 世代多款芯片 标准的制定,提前布局相关产品,巩固了公司在该领域的技术领先地位。2022 年度,公司牵头制定 DDR5 第二子代、第三子代内存接口芯片及第一子代高带宽内存接口芯片 MDB 等产品的国际标准, 并积极参与 DDR5 第一子代 CKD 和 DDR5 内存模组配套芯片标准制定。

津逮®服务器平台产品线持续拓展市场,营业收入稳健增长。津逮®CPU 是公司在数据处理类芯片 进行战略布局的重要产品之一。目前,搭载津逮®CPU 的服务器机型已广泛应用于金融、能源、政 务、交通、数据中心及智慧城市等下游行业,产品获得了客户的广泛认可并实现了快速推广,对后 续该项业务的可持续发展以及公司在相关领域行业地位的提升奠定了坚实的基础。公司一方面不断 提升津逮®CPU 的兼容性水平,第三代津逮®CPU 系列产品通过 VMware 兼容性认证,达到 VMwareESXi7.0U3 虚拟化平台的通用兼容性及性能、可靠性要求,满足用户的关键应用需要;另一 方面,公司重点关注可信计算领域,公司和合作伙伴的“多云下基于硬件信任根的可信解决方案” 方案获评“2022 年度首届安全可信优秀解决方案”。

DDR5 持续渗透+子代迭代,接口芯片稳健增长

DDR5 时代,内存接口芯片复杂度显著提升

内存模组是当前计算机架构的重要组成部分,作为 CPU 与硬盘的数据中转站,起到临时存储数据的 作用,其存储和读取数据的速度相较硬盘更快。按应用领域不同,内存模组可分为:1、服务器内存 模组,其主要类型为 RDIMM、LRDIMM,相较于其他类型内存模组,服务器内存模组由于服务器 数据存储和处理的负载能力不断提升,对内存模组的稳定性、纠错能力以及低功耗均提出了较高要 求;2、普通台式机、笔记本内存模组,其主要类型为 UDIMM、SODIMM。而平板、手机内存主要 使用的 LPDDR 通过焊接至主板或封装在片上系统上发挥功能。

内存模组的发展主要来自于技术的更新迭代和计算机生态系统的推动。内存模组的发展有着清晰的 技术升级路径,JEDEC 组织定义内存模组的组成构件、性能指标、具体参数等。目前,DRAM 已经 迭代至 DDR5,相较 DDR4 在各个参数都有较大的改进。

内存接口芯片则是服务器内存模组核心逻辑器件,位于 CPU 和 DRAM 内存颗粒通路之间。由于 CPU 主频频率(GHz 级)远大于内存颗粒核心频率(MHz 级),内存读取数据速度远小于 CPU 计算速 度,因此需要内存接口芯片缓冲来提升数据访问速度及稳定性。 内存接口芯片主要包括寄存缓冲器(Register Clock Driver,RCD)和数据缓冲器(Data Buffer,DB)。 RDIMM 仅采用了一颗 RCD 芯片,而 LRDIMM 采用了 RCD 和 DB 套片组合,在 DDR4 世代是“1+9” 架构即 1 颗 RCD 和 9 颗 DB 芯片,在 DDR5 世代则演变成“1+10”架构。

根据 JEDEC 标准,DDR5 内存模组上除了内存颗粒及内存接口芯片外,还需要三种配套芯片,分别 是串行检测集线器(SPD)、温度传感器(TS)以及电源管理芯片(PMIC)。

(1)SPD

公司与合作伙伴共同研发了DDR5第一子代串行检测集线器(SPD),芯片内部集成了8KbitEEPROM、 I2C/I3C 总线集线器(Hub)和温度传感器(TS),适用于 DDR5 系列内存模组(如 LRDIMM、RDIMM、 UDIMM、SODIMM 等),应用范围包括服务器、台式机及笔记本内存模组。SPD 是 DDR5 内存模 组不可或缺的组件,也是内存管理系统的关键组成部分。

(2)温度传感器(TS)

公司与合作伙伴共同研发了 DDR5 第一子代高精度温度传感器(TS)芯片,该芯片符合 JEDEC 规 范,支持 I2C 和 I3C 串行总线,适用于 DDR5 服务器 RDIMM 和 LRDIMM 内存模组。TS 作为 SPD 芯片的从设备,可以工作在时钟频率分别高达 1MHzI2C 和 12.5MHzI3C 总线上;CPU 可经由 SPD 芯片与之进行通讯,从而实现对内存模组的温度管理。TS 是 DDR5 服务器内存模组上重要组件,目 前主流的 DDR5 服务器内存模组配置 2 颗 TS。

(3)电源管理芯片(PMIC)

公司与合作伙伴共同研发了符合 JEDEC 规范的 DDR5 第一子代低/高电流电源管理芯片(PMIC)。 该芯片包含 4 个直流-直流降压转换器,两个线性稳压器(LDO,分别为 1.8V 和 1.0V),并能支持 I2C 和 I3C 串行总线,适用于 DDR5 服务器 RDIMM 和 LRDIMM 内存模组。PMIC 的作用主要是为 内存模组上的其他芯片(如 DRAM、RCD、DB、SPD 和 TS 等)提供电源支持。CPU 可经由 SPD 芯片与之进行通讯,从而实现电源管理。低电流电源管理芯片应用于 DDR5 服务器较小电流的 RDIMM 内存模组,高电流电源管理芯片则应用于 DDR5 服务器较大电流的 RDIMM 和 LRDIMM 内 存模组。

从服务器/云服务产业链来看,内存接口芯片处于服务器产业链上游,在 DDR4及之前仅用于服务器, DDR5 及之后也可供应 PC、笔电,厂商出货与下游服务器采购周期密切相关。从内存接口芯片产业 链来看,内存接口芯片厂商直接向下游三星电子、海力士、美光等内存模组厂商供货,浪潮、IBM、 Dell 等服务器组装厂商分别采购内存模组和 CPU 等进行整机组装,从而再销售给 Amazon、Google、 Microsoft 等云服务厂商,因此内存接口芯片厂商的产品需经过 CPU 厂商、DRAM 厂商、OEM 厂商 的认证,认证门槛高。

从全球服务器领域内存接口芯片(RCD+DB)市场规模来看,根据华经情报网的数据,2021 年全球 服务器出货量为 0.13 亿台,其中服务器平均内存模组数量为 10.0 个,服务器 DIMM 数量为亿条, 同时 2021 年全球 DDR4 渗透率为 98%,DDR4 LRDIMM 渗透率为 10%,DDR5 渗透率为 2%,DDR5 LRDIMM 渗透率则较低,对应 2021 年全球服务器领域(RCD+DB)市场规模为 6.9 亿美元,预计 2025 年达到 14.6 亿美元。

从全球 PC(台式机)和 NB(笔记本)领域内存接口芯片市场规模来看,根据华经情报网的数 据,目前 PC+NB 市场内存接口芯片(RCD+DB)渗透率相对较低,在未来有望放量,预计 2025 年全球 PC 出货量为 3.0 亿台,PC 平均内存模组数量为 1.2,PC UDIMM+SODIMM 数量达到 3.6 亿条,在 DDR5 CKD 渗透率 65%情况下,对应全球 PC+NB 内存接口芯片(RCD+DB)市 场规模为 3.8 亿美元。

行业格局日趋集中,子代迭代版本数量超 DDR4

内存接口芯片认证、技术壁垒高,行业格局高度集中。由于内存接口芯片研发周期长,每个世代研 发时间跨度达 4-6 年,更新迭代快,子代更新周期约 1-1.5 年,资金投入大(澜起 2022 年以前研发 费用率常年保持在 15%以上),自 DDR2 世代开始,行业竞争者数据日渐减小。自 DDR4 开始,行 业主要参与者仅剩澜起、瑞萨(IDT)、Rambus 三家。从市占率情况来看,根据华经情报网的数据, 澜起科技成为行业龙头。澜起科技 DDR4 产品在 2013 年 10 月率先获得 Intel 认证,并发明了“1+9” 分布式缓冲内存子系统框架,被 JEDEC 采纳为国际标准,此后市场份额逐年提升,顺利完成弯道超 车。澜起由于深度参与 JEDEC 行业标准制定,绑定 Intel、三星等大客户,技术上保持领先。

内存模组行业的发展主要来自于技术的更新迭代和计算机生态系统的推动。内存模组的发展有着清 晰的技术升级路径,2021 年 DDR5 第一子代相关产品已开始量产,内存模组正在从 DDR4 世代开始 向 DDR5 世代切换,同时 JEDEC 已初步完成 DDR5 第二子代、第三子代产品标准制定。内存模组 与 CPU 是计算机的两个核心部件,是计算机生态系统的重要组成部分,支持新一代内存模组的 CPU 上市将推动内存模组的更新换代。支持 DDR5 的主流桌面级 CPU 已于 2021 年正式发布,普通台式 机/笔记本电脑 DDR5 内存模组逐渐上量;支持 DDR5 的主流服务器 CPU 于 2022 年底至 2023 年初 正式发布,DDR5 服务器内存模组渗透率将持续提升。同时,DDR5 内存接口芯片将在今明两年持 续进行子代迭代,子代迭代有助于维系相关产品的平均销售价格。由于 DDR5 相关芯片的市场规模 相比 DDR4 世代有明显增加,DDR5 持续渗透及子代迭代有助于公司相关产品销售收入保持增长。

国外大厂也持续推出内存模组新产品:美光在 24 年 3月英伟达主办的 GPU 技术大会上展示了 256GB MCR DIMM 内存模组。这些模块专为下一代服务器而设计,包括运行英特尔至强可扩展“Granite Rapids”处理器的服务器。美光在 3 月的最后一周早些时候宣布,目前正在向客户提供新的 256 GB MCRDIMM 样品,其工作速率可达到 8800 MT/s。

EGS 平台升级+存储市场修复,DDR5 渗透率提速

随着 5G、AI、大数据等信息技术的蓬勃发展,庞大的数据流量需要更多服务器的支持。根据中商情 报网的数据,2022 年全球云计算市场保持稳定增长,市场规模达到 4910 亿美元,同比增长 19%, 由于受通胀压力和宏观经济下行等多重因素影响,增速下降较明显。中商情报网同时预计,在大模 型、算力等需求刺激下,2026 年全球云计算市场规模将突破万亿美元。

根据 TrendForce 数据,服务器整机出货趋势今年主要动能仍以美系 CSP 为大宗,但受限于通货膨胀 高,企业融资成本居高不下,压缩资本支出,整体需求尚未恢复至疫情前成长幅度,预估 2024 年全 球服务器整机出货量约 1,365.4 万台,年增约 2.05%。市场规模来看,据 IDC 预测,2023 年市场规 模微幅增长至 1284.71 亿美元,之后四年的年度增长率将分别为 11.8%、10.2%、9.7%、8.9%,到 2027 年市场规模将达 1891.39 亿美元。

从传统数据中心处理器的供应链来看,英特尔在 2024 年 2 月 21 日举办 IFS Direct Connect 活动中分 享了 Intel 18A 工艺之后的计划,公布了新的工艺路线图,新增了 Intel 14A 制程技术和数个专业节点 的演化版本,并带来了全新的英特尔代工先进系统封装及测试能力,以助力其客户在 AI 领域取得成 功。同时英特尔宣布首推面向 AI 时代的系统级代工,名为“英特尔代工(Intel Foundry)”,取代 了原来的英特尔代工服务(IFS),包含了封装的业务。英特尔计划在 Intel 14A 采用 High-NA EUV 光刻技术,延后了引入 High-NA EUV 的时间,预计 2026 年至 2027 年之间开始启用新设备。我们认 为制造端先进制程的不断演进将有望助推 HPC 专用处理器迭代进程加速。 目前,CPU 平台正逐步切换至第五代至强处理器 Emerald Rapids,Emerald Rapids 每个 CPU 最多有 64 个核心,该理器还配备了一个经过优化的内存控制器,与 DDR5 内存兼容,运行速度高达 5600MT/s, 其数据插槽接口标准 PCIe 升级为 Gen5.0,同时内存规范升级到 DDR5,支持单通道传输速率提升至 16GT/s,支持 8 通道 DDR5,由于每通道支持两个内存模组,这意味着每颗 CPU 最高可支持内存模 组 16 根,内存规格升级亦能带来内存接口芯片规格升级。

伴随数据中心处理的更新迭代,DDR5 亦将持续渗透。据台媒《钜亨网》信息,随着英特尔全新一 代平台 Meteor lake 在 DRAM 规格将全面支持 DDR5,加上 AI PC 趋势带动,DDR 的加速渗透有望 持续。澜起科技亦在 2023Q3 业绩说明会上表示 DDR5 渗透率有望于 2024 年中超过 50%。英特尔上 一代 Raptor Lake 笔电平台同时支持 DDR4、DDR5 的 DRAM 规格,但最新笔电平台 Meteor lake 则 全面支持 DDR5 的 DRAM 规格,AMD 同样跟进,均有助 DDR5 渗透率提升。 澜起科技 DDR5 内存接口芯片的子代迭代已正式开启,其迭代速度较 DDR4 世代明显加快。2023 年 第三季度,公司 DDR5 第一子代 RCD 芯片需求量持续提升,第二子代 RCD 芯片开始规模出货,第 三子代 RCD 芯片已于 10 月在业界率先试产,2024 年 1 月,公司正式推出 DDR5 第四子代 RCD 芯 片,相关工程样片已送样给主要内存厂商。DDR5 内存接口芯片子代迭代加快将有利于公司维系相 关产品的平均销售单价和毛利率在较高水平。

此外存储市场正逐步走出低谷,DRAM 报价水涨船高。PC DRAM 方面,顺应新 CPU 机种逐渐转 往 DDR5 的趋势,买方第二季采购量上升,TrendForce 预估 PC DRAM 第二季合约价季增约 3~8%; Server DRAM 方面,买方仍持续增加 DDR5 库存,但实际渗透率至今年第一季仍不如预期,意味着 DDR5 需求仍未全面兑现,DDR4 方面因产能限缩后而不需压价抛售,故第二季 DDR4 合约价涨幅 将高于 DDR5,价差逐渐缩小,TrendForce 预估 Server DRAM 第二季合约价季增约 3~8%;Mobile DRAM 方面,目前买方库存水位健康,但需求尚且没有明显回温迹象,由于原厂欲持续提高获利, 受买方议价态度被动的影响,可能会缓和卖方强势拉涨的意图,预估 Mobile DRAM 第二季合约价季 增 3~8%;Graphics DRAM 方面,受其他 DRAM 产品的带动,在原厂强势进入上涨周期且涨势持 续的情况下,采购端备货动能延续,主流规格 GDDR6 16Gb 需求仍强,为达到原厂全 DRAM 品项 上涨的目标,TrendForce 预估 Graphics DRAM 第二季合约价将季增 3~8%;Consumer DRAM 方面, 仅 AI 相关领域需求较稳健,以及部分电视及网通应用有库存回补需求,但电信、网络招标项目进度 缓慢,整体市况仍处疲弱。三大原厂受惠于 AI 热潮,库存去化明显,故在亏损压力之下,过去两季 涨价态度明确;反观其他原厂库存压力仍在,涨价相对缓慢且市场备货充足,TrendForce 预估 Consumer DRAM 第二季合约价涨幅将收敛至季增 3~8%。

三星的 DRAM 产能有望在 2024 年下半年恢复到 2023 年前的水平。据 Omdia 预估,2024 年 Q2 三 星 DRAM 产能或达到 157.5 万片,去年同期为 210 万片。2024 年第 3 季度的产量将增至 196.5 万片, 超过去年第三季度的 177 万片,增幅达 11%;第 4 季度产量预估突破 200 万片,比 2023 年第四季度 的 142.5 万片增长 41%,三星的 DRAM 产能恢复至 2023 年前的水平或是存储行业回暖的重要标志。 我们认为,伴随存储行业景气度的恢复,数据中心需求亦同复苏,澜起科技 DDR5 相关产品有望充 分受益。

AI 带动存、算、联齐头并进,公司新品深度契合潮流

AI 推动存算技术创新加速,打破通信瓶颈是关键一招

数据量增长推动存算需求。从数据来看,21 世纪被认为是信息时代。人工智能、机器学习、区块链、 5G、物联网等各种新兴应用每时每刻都在产生大量的数据,并将其应用到人们日常生活的各个场景 中。数据已经成为继土地、劳动力、资本、技术后的第五大生产力要素。根据 IDC 预计,2021 年全 球数据总量达到 85ZB,并将在 2025 年达到 175ZB,CAGR 达到约 20%。庞大的数据为 AI 模型的 诞生孕育了肥沃的土壤。

大模型参数爆发式增长,算力成为发展关键。OpenAI 在从 GPT-2 模型升级到 GPT-3 模型时,其参 数数量从 15 亿增长至 1750 亿级别。随着参数规模的增大,算力负担也相应增加。如果要在更短的 时间内运行更大的模型,就必须进一步增加算力。在可预见的未来,算力将成为各大 AI 企业必须提 升的关键技术能力。只有拥有足够的算力,才能支持更复杂、更庞大的人工智能模型,使其能够在 实际应用中发挥更高的效能。AI 企业将不断探索和投资于新的计算技术,以确保其在竞争激烈的市 场中保持领先地位。同时,算力的提升也将推动着人工智能技术的不断进步。更强大的算力意味着 更复杂的模型和更深层次的学习,这将有助于改善人工智能系统的性能和智能化水平。因此,算力 的不断增强不仅是 AI 企业的必然需求,也是人工智能技术发展的驱动力。

单卡 AI 训练性能快速提升,Blackwell 超级芯片崭露头角。自 2016 年 Pascal GPU 的 19TFLOPS 到 Blackwell GPU 的 20PFLOPS,黄仁勋宣布英伟达用了 8 年将单卡 AI 训练性能提升了 1000 倍。即将 上市的第一款基于 Blackwell架构的超级算力芯片——GB200,其前代 GH200超级芯片是由1个 H100 和 1 个 Grace CPU 组合而成。而 GB200 超级芯片将 2 个 Blackwell GPU 和 CPU 组合,每个 GPU 的 满配 TDP 达到 1200W,使得整个超级芯片的 TDP 达到 2700W(1200W x 2+300W)。

AI 的发展离不开服务器,而服务器中处理器与内存间的高速通信是近年来亟需解决的难题。AI 服 务器中,CPU 负责对数据进行逻辑运算,由于服务器运算能力的发展,CPU 的处理速度已经远超硬 盘读写速度,因此需要内存与 CPU 通信暂时存放 CPU 中的运算数据,CPU 访问 CPU 片内缓存和寄 存器组所用的时间要比访问内存的时间短。采用寄存器,可以减少 CPU 访问内存的次数,从而提高 了 CPU 的工作速度;与 CPU 对应的是 GPU 及显存,显存是用来存储要处理的图形信息的部件,每 个像素点都以 4 至 32 甚至 64 位的数据来控制它的亮度和色彩,这些数据必须通过显存来保存,再 交由显示芯片和 CPU 调配,最后把运算结果转化为图形输出到显示器上。 随着近几年云计算和 AI 应用的发展,面对计算中心的数据洪流,数据搬运慢、搬运能耗大等问题成 为了计算的关键瓶颈,在过去二十年,处理器性能以每年大约 55%的速度提升,内存性能的提升速 度每年只有 10%左右。结果长期下来,不均衡的发展速度造成了当前的存储速度严重滞后于处理器 的计算速度,相关芯片的改进有望解决上述问题。 进入万亿参数时代,对于 AI 算力性能要求持续提升,表现为计算系统的节点内卡间互联与节点间的 网络互联,高速互联的底层是 PCIe,对于 PCIe 的技术迭代和落地迫切。从 PCIe3.0、4.0、5.0 到 6.0, 数据速率翻倍递增,2022 年 1 月,PCI-SIG 组织宣布 PCIe6.0 规范标准 v1.0 版本正式发布,6.0 支持 64GT/s,16 路双向传输带宽可达 256GB/s。

PCIe 标准持续革新,适配更高互联需求

PCIe 技术升级助力 Eagle Stream 服务器平台性能提升。Eagle Stream 新一代服务器平台是一款基于 FPGA 的高性能计算平台,专为数据中心和云计算应用而设计。相比传统的 CPU 计算平台, EagleStream 采用了 FPGA 加速技术,可实现更高效的计算和数据处理。Eagle Stream 平台采用了第 六代 XilinxUltraScale+FPGA,配备了高速网络接口和存储器,支持多种计算和存储需求。新产品将 在芯片制程、内存标准、总线标准等方面发生较大变化。在服务器运行时,数据会在 CPU、内存、 硬盘、网卡等这些关键部件进行通信,控制这些通信活动的芯片被称为芯片组(包括内存控制芯片、 PCIe 控制芯片和 I/O 处理芯片等),为这些通信提供道路的线路即为总线(包括 PCIe 总线、USB 总线和 SPI 总线等,其中 PCIe 是最主要的总线),最终合称 CPU、芯片组和总线为整个服务器的平 台方案。伴随平台切换,总线等级及传输速率升级:据 NewSight 资料显示,从 2017 年的 Purley 到 Whitley 再到即将量产 EagleStream,对应的 PCIe 接口级别依次提升,从 PCIe3.0 升级至 PCIe5.0,单 lane 速率由 8GT/s 升级 32GT/s。

PCIe Retimer 解决高速数据传输挑战,提升信号完整性。近年来,高速数据传输协议已由 PCIe3.0 发展至 PCIe5.0,数据传输速度翻倍的同时带来了突出的信号衰减和参考时钟时序重整问题,这些问 题较大限制了超高速数据传输协议在下一代计算平台的应用范围。PCIe4.0/5.0 的高速传输问题提高 了对优化高速电路与系统互连的设计需求,加大了在超高速传输下保持信号完整性的研发热度。为 了补偿高速信号的损耗,提升信号的质量,通常会在链路中加入超高速时序整合芯片(Retimer)。 PCIeRetimer 芯片已成为高速电路的重要器件之一,主要解决数据中心数据高速、远距离传输时,信 号时序不齐、损耗大、完整性差等问题。 在 PCIe 技术中,随着数据传输速率的提高,插入损耗也会增加。PCIe 规范有精确的插入损耗预算, 如下图所示,PCIe 6.0 版本的插入损耗预算为 32dB,意思就是在设计时必须确保信号在传输过程中 的总损失不超过 32dB,以保持信号质量;在满足插入损耗预算的情况下,对于 PCIe 6.0 而言,PCB 电路板的最大走线长度为 3.4 英寸(约 8.64 厘米),超过这个长度可能会导致信号质量下降,影响 数据传输的可靠性。

PCIe Retimer 解决插入损耗问题优于 PCB 方案。解决 PCIe 信号链路的插入损耗,提高 PCIe 信号 传输距离是业界面临的重要问题,对此有两种解决方案: 1)选用低损的 PCB,但成本高昂。仅仅是主板就可能会带来较大的成本增加,并且不能有效覆盖多 连接器应用场景。例如,PCB 材料 Megtron 6 的成本约为 FR4 的七倍。 2)引入适当的链路扩展器件如 Retimer。使用 PCIe Retimer 芯片,采用模拟信号和数字信号调理技 术、重定时技术,来补偿信道损耗并消除各种抖动的影响,从而提升 PCIe 信号的完整性,增加高 速信号的有效传输距离。标准发展到 PCIe 5.0 之后,更高的数据速率,更紧张的损耗预算,更短的 走线长度,使得 Retimer 芯片技术路径的优势更加明显。 PCIe Retimer 芯片:AI 时代数据中心的关键互连组件。PCIe Retimer 芯片是未来数据中心领域重要 的互连芯片,可用于 CPU 与 GPU、NVMe SSD、Riser 卡等典型高速外设的互连。AI 时代,随着 AI 服务器的快速增长,PCIe Retimer 芯片的重要性愈加凸显,目前一台典型的配 8 块 GPU 的主流 AI 服务器需要 8 颗甚至 16 颗 PCIe 5.0 Retimer 芯片。根据行业分析,PCIe 5.0 Retimer 芯片的市场规 模较 PCIe 4.0 有望明显增长,同时,出于供应安全的考虑,客户一般会选择 2-3 家 PCIe 5.0 Retimer 芯片供应商来供货。

消费者业务或继续依赖 PCIe 5.0。PCIe 5.0 已经为大多数当前消费级应用提供了足够的带宽,升级 到 PCIe6.0 标准的成本相对较高。目前以 AI 服务器为代表的数据中心对带宽要求极高。处理 AI/ML 训练模型中更快的带宽意味着生成式 AI 的并发响应更快,给到更短的文本、图形生成时间,从而进 一步提升用户体验。也意味着运营成本大幅降低。在长时间运转的 HPC 服务器中,带宽就意味着计 算效率,尤其是量子力学、分子动力学所用到的软件,所需内存带宽更高。如果没有足够的带宽, 就只能分节点来减小不同进程之间的带宽竞争。最后一大痛点是云游戏带来的,对于这种需要多并 发高图形负载的运用而言,带宽就决定了云游戏的并发数以及图形质量。 PCIe 交换芯片市场稳定增长。根据 QYResearch 数据,2022 年全球 PCIe 交换芯片市场规模约为 8.89 亿美元,预计 2029 年将达到 20.40 亿美元,2023-2029 期间 CAGR 为 12.52%。2022 年中国占全球 市场份额为 48.68%,北美为 11.77%,预计中国市场 2023-2029 期间 CAGR 为 12.92%,并在 2029 年规模达到 10.18 亿美元,同期北美市场 CAGR 预计约为 11.63%。从产品类型及技术方面来看,PCIe 3.0 发展十年,目前是市场上最成熟的接口协议,PCIe 3.0 交换芯片在市场上依然占有主导地位。2022 年全球 PCIe 3.0 交换芯片市场规模达到了 4.17 亿美元,占比 46.87%。2022 年全球 PCIe 4.0 交换芯 片市场规模达到了 3.81 亿美元,预计 2029 年将达到 7.23 亿美元。

AI 引领 PCIe Retimer 市场,Astera Labs 顺风上市。目前 PCIe Retimer 芯片主要提供商包括 Astera Labs、谱瑞和澜起科技。谱瑞是 2005 成立的中国台湾上市公司,进入 PCIe 市场较早,在 PCIe3.0 时代占较多份额,在 2020 年 16 通道 PCIe 4.0 Retimer PS8926 的发布公告中,谱瑞就表示 PCIe5.0 的版本已经在开发准备中。Astera Labs 后来居上,在 PCIe 4.0 时代比较领先,并且是全球最先推出 并量产 PCIe 5.0 Retimer 芯片的厂家,公司于 2024 年 3 月 20 日在美国纳斯达克上市,发行价 36 美 元,发行 1980 万股,募资 7.128 亿美元,超过最初发行区间为 27 美元到 30 美元,发行 1780 万股。 首日开盘价 52.56 美元,较发行价上涨 46%;收盘价为 62.03 美元,较发行价上涨 72.31%;以收盘 价计算,公司市值约 94.59 亿美元。招股书显示,Astera Labs 在 2022 年、2023 年营收分别为 7987 万美元、1.16 亿美元;毛利分别为 5868 万美元、7983 万美元,盈利情况良好。Astera Labs 与 AMD、 Arm、英特尔和英伟达均达成了合作,不少用到 AMD EPYC Genoa/ Bergamo 和英特尔第四和第五代 至强 CPU 的 PCIe 5.0 的服务器中,都有用到 Astera Labs 的 PCIe Retimer 方案。

公司的 PCIe Retimer 芯片,采用先进的信号调理技术来补偿信道损耗并消除各种抖动源的影响,从 而提升信号完整性,增加高速信号的有效传输距离,为服务器、存储设备及硬件加速器等应用场景 提供可扩展的高性能 PCIe 互连解决方案。其中,PCIe 4.0 Retimer 芯片符合 PCIe 4.0 基本规范, PCIe5.0/CXL 2.0 Retimer 符合 PCIe5.0 和 CXL2.0 基本规范,支持业界主流封装,功耗和传输延时等 关键性能指标达到国际先进水平,并已与 CPU、PCIe 交换芯片、固态硬盘、GPU 及网卡等进行了 广泛的互操作测试。

在 PCIe 4.0 时代,公司是全球能够提供 PCIe 4.0 Retimer 芯片的三家企业之一;在 PCIe5.0 时代,2023 年 1 月,公司量产 PCIe 5.0/CXL 2.0 Retimer 芯片,是全球第二家宣布量产该产品的厂家。作为 PCIe 相关的底层技术,公司的 Serdes IP 已实现突破,相关 IP 已应用到公司 PCIe 5.0/CXL 2.0 Retimer 芯 片上。在完成前述产品量产后,公司已开展 PCIe 6.0 Retimer 芯片关键 IP 的开发及验证工作。

着手 AI 芯片研发,布局近内存计算架构

AI 大模型驱动数据爆发、算法进化与商业应用。近年来人工智能的发展呈现出数据体量爆发式增长 态势,算法模型的参数量指数级增加,以加速计算为核心的算力中心对 AI 芯片的需求不断扩大。除 了传统的监控和计算机视觉等业务,AI 在向量检索、搜索推荐广告上的应用快速发展,在自然语言 处理(NLP)上,特别是 LLM 方向,更是于近期达到了里程碑式的进展,以 ChatGPT 为首的生成 类模型已经成为了人工智能的新热点。ChatGPT 等 AI 大模型已经呈现初步的商业规模,技术服务底 座加速成型,关注度和行业应用渗透度上呈现很强活力。多模态大模型在模型参数和榜单准确率上 持续突破,微软、百度、阿里等企业都在持续增加投入引领行业发展。公司目前亦正在研发基于“近 内存计算架构”的 AI 芯片。

AI 芯片解决方案概述: 公司在研的第一代 AI 芯片解决方案由 AI 芯片等相关硬件及相应的适配软件构成,采用了近内存计 算架构,主要用于解决 AI 计算在大数据吞吐下推理应用场景中存在的 CPU 带宽、性能瓶颈及 GPU 内存容量瓶颈问题,为客户提供低延时、高效率的 AI 计算解决方案。 AI 芯片是上述解决方案的核心硬件,主要由 AI 计算子系统、CXL 控制器、DDR 内存控制器等模块 组成,其中 AI 计算子系统具有较强的可扩展性,包含了 DSP Cluster 和 AI Core Cluster,DSP 支持 通用向量计算,AICore 支持矩阵和张量计算。该芯片面向大数据场景下 AI 的应用进行了针对性设 计,集成了 AI 高性能计算、异构计算、CXL 高速接口技术、DDR 内存控制技术等相关技术,具有 对大容量数据搜索和排序等高效的硬件加速功能,并且兼具数据压缩和数据加解密等功能。 同时,公司的 AI 芯片解决方案将支持完善的 AI 软件生态,能够针对性地对各类 AI 算法和模型进行 软硬件联合深度优化,可支持业内主流的各类神经网络模型,比如视觉算法、自然语言处理和推荐 系统等方向,有利于后续软硬件生态建设及市场推广工作。

互联新品有望多点开花,平台型设计公司开辟成长空间

CXL 技术持续革新,公司 MXC 芯片市场领航

CXL (Compute Express Link) 技术是一种新型的高速互联技术标准。CXL 提供一种介于主内存和 传统 SSD 存储之间的快速访问选项来改进内存层次结构,优化数据中心的性能。CXL 的目标主要是 为了解决 CPU 和设备、设备和设备之间的内存鸿沟,解决内存分割造成的浪费、不便和性能下降。 CXL 的优势体现在极高兼容性和内存一致性两方面上。目前 CXL 已经陆续发布了几代标准,即 CXL1.0/1.1、CXL2.0、CXL3.0/3.1。

CXL 旨在采用了池化技术来改善资源的利用效率,提高系统性能并应对复杂计算任务的需求。 内存池通过预先分配和回收内存资源,显著提升了数据处理的效率。池是在计算技术中经常使用 的一种设计模式,其内涵在于:将程序中需要经常使用的核心资源先申请出来,放到一个池内, 有程序自管理,这样可以提高资源的利用率,也可以保证本程序占有的资源数量,经常使用的池 化技术包括内存池,线程池,和连接池等,其中尤以内存池和线程池使用最多,内存池(Memory Pool)是一种动态内存分配与管理技术,通常情况下,程序员习惯直接使用 new,delete,malloc, free 等 API 申请和释放内存,这样导致的后果就是:当程序运行的时间很长的时候,由于所申请 的内存块的大小不定,频繁使用时会造成大量的内存碎片从而降低程序和操作系统的性能。内存 池则是在真正使用内存之前,先申请分配一大块内存(内存池)留作备用。当程序员申请内存时, 从池中取出一块动态分配,当程序员释放时,将释放的内存放回到池内,再次申请,就可以从池 里取出来使用,并尽量与周边的空闲内存块合并。若内存池不够时,则自动扩大内存池,从操作 系统中申请更大的内存池。

MXC(Compute Express Link Memory Expansion Controller Chip)芯片是一款 CXL DRAM 内存控 制器,属于 CXL 协议所定义的第三种设备类。MXC 芯片的目的是提供高带宽、低延迟的高速互连 解决方案,以支持 CPU 与基于 CXL 协议的设备之间的内存共享,MXC 芯片基于下游对内存容量持 续增长的需求应运而生,主要应用于两个方向,即内存扩展和内存池化。首先大规模应用的将是内存 扩展,目前主流的内存厂商已相继推出 CXL 内存扩展产品。除内存扩展之外,另一个应用方向是内存 池化,其作用更多是提升整个数据中心的经济效益,比如平衡服务器内存波峰波谷的需求。 公司的 MXC 芯片 M88MX5891,可为 CPU 及基于 CXL®协议的设备提供高带宽、低延迟的高速互 连解决方案。M88MX5891 内部集成了 CXL 控制器、DDR 内存控制器和 RISC-V 微处理器,支持 PCIe5.0 接口,符合 CXL2.0 规范,支持 JEDECDDR4 和 DDR5 标准,并提供 SMBus、I3C/I²C 及 SPI 接口,分别用于连接 CPU、内存系统及外部 Flash,是实现内存共享和内存池化的核心芯片,尤其适 用于内存 AIC 扩展卡、EDSFF 内存模组等设备,可极大幅度提升内存容量和带宽,满足高性能计算 和人工智能等应用对内存系统日益增长的需求。

公司在2022年 5月全球首发MXC芯片后,已与全球多家顶级云计算厂商及内存龙头企业开展合作。 2023 年 5 月,三星电子推出其首款支持 CXL2.0 的 128GB DRAM,并表示将于 2023 年量产,加速存储器 解决方案的商用化,公司的 MXC 芯片被用于该解决方案,是其中的核心控制芯片。2023 年 8 月,公司 的 CXL MXC 芯片顺利通过了 CXL 联盟的几十项严苛测试,成为全球首家通过测试的内存扩展控制 器产品,与国际知名CPU、存储器厂商的产品在CXL官网并列展示,表明业界对公司技术实力的认可。 公司已完成第一代 CXL MXC 芯片量产版本的流片及样品制备,目前正在推进量产前的相关准备工作, 有望在未来的全球市场竞争中抢得先机,该产品预计下半年开始进入上量爬坡阶段。

紧跟内存技术更新步伐,MRCD/MDB 布局深度受益

MRDIMM技术革新开启下一代高性能服务器内存解决方案。MCR/MRDIMM是继UDIMM、RDIMM、 LRDIMM 后最新一代的内存模组,其核心技术是将多个 DRAM 内存模块组合在一起,通过将两个 Rank 形成伪多内存通道(Pseudo Channel),并使用专门的控制器(接口芯片)来管理它们之间的 数据传输,大大提高了内存带宽,理论上 MCR/MRDIMM 内存的带宽是 DDR5 的两倍。 MCR/MRDIMM 主要应用于 AI 服务器,多核 CPU 等对内存带宽要求高的场景。MRCD/MBD 结合 了每个列的传输,有效地将两根 DDR 模组(双倍数据速率)转换一根 QDR(四倍数据速率)模组。 在 Memcom 2023 活动上,AMD 宣布正在与 JEDEC 合作,推动 DDR5 MRDIMM 内存标准。相比现 有的 DDR5 DIMM,带宽将会有较大的跃升,第一代 DDR5 MRDIMM 的目标速率是 8800MT/s,第 二代目标速率是 12800MT/s,第三代有望提升至 17600MT/s。此外,英特尔正在和 SK 海力士及瑞萨 合作,开发类似 MRDIMM 的 MCRDIMM,即多路合并阵列双列直插内存模组(Multiplexer Combined Ranks DIMMs)。这些内存技术的进步,无论是 AMD 的 MRDIMM 还是英特尔的 MCRDIMM,都将 推动服务器内存接口及模组配套芯片的需求持续增长,并进一步增加对 MRCD/MDB 的需求。

澜起科技 MRDIMM/MCR 内存接口芯片深度受益于内存容量和带宽的提升。AI 应用或增加对内存 容量和带宽的需求。在服务器内存接口及模组配套芯片的需求持续增长下,澜起科技着力研发了 MRDIMM/MCR 内存接口芯片,采用 MRCD*1+MDB*10 架构,理论带宽为 DDR5 的两倍,大大提 升了单模组价值量。根据全球知名市场研究机构 Yole Intelligence 2023 年第三季度研究报告的预测, 2027 年全球服务器 DDR5 内存模组出货量预计将达到 2.92 亿根。按照 JEDEC 标准,通常情况下一根 DDR5 RDIMM 需要搭配 1 颗 RCD 芯片、1 颗 SPD 芯片、1 颗 PMIC 芯片以及 2 颗 TS 芯片。这些芯 片的需求量将随着 DDR5 内存模组出货量的增加而增长。而随着 MRDIMM 占比的不断提升,用于 MRDIMM 的 MRCD/MDB 芯片需求量也有望显著提升。公司预计今年随着主流服务器 CPU 厂家规 划的支持 MCRDIMM 的新一代服务器 CPU 平台的发布,公司 MRCD/MDB 芯片也将随之开始规模 出货。

AI 驱动内存技术升级,澜起蓄力 CKD 芯片业务

AI PC 赋能消费终端,驱动硬件规格升级。时钟驱动功能集成于寄存时钟驱动器(Register Clock Driver)芯片,在服务器 RDIMM 或 LRDIMM 模组上面使用,并未部署到 PC 端。随着 DDR5 传输 速率持续提升,时钟信号频率越来越高,时钟信号的完整性问题变得日益突出。当 DDR5 数据速率 达到 6400MT/s 及以上时,PC 端内存如台式机及笔记本电脑的 UDIMM、SODIMM 模组,须采用一 颗专用的时钟驱动芯片(CKD 芯片)来对内存模组上的时钟信号进行缓冲再驱动,才能满足高速时 钟信号的完整性和可靠性要求。该芯片的主要功能是缓冲来自台式机和笔记本电脑中央处理器的高 速内存时钟信号,并将之输出驱动到 UDIMM、SODIMM 模组上的多个 DRAM 内存颗粒。届时, CKD 芯片每年的行业需求量将与当年所需的 UDIMM 和 SODIMM 数量(支持速率为 6400MT/s 及 以上)呈正相关。随着 AI PC 的放量,公司 CKD 芯片或将放量,从而形成全新的市场增长机会。

引领内存技术潮流,公司 CKD 芯片迈向市场前沿。公司已于 2022 年 9 月发布业界首款 DDR5 第一 子代时钟驱动器(CKD)工程样片,并已送样给业界主流内存厂商,该产品将用于新一代台式机和 笔记本电脑内存。根据 Intel 即将发布的桌面端处理器型号观察,计划于 2024 年发布的 ArrowLake 将可能会是 Intel 第一个支持 DDR5-6400 及更快速率的处理器,公司当前 6400MT/s 的 CKD 芯片亦 有望同步出货。

CAMM 兴起或有望拓展 CKD 芯片需求量。CAMM(compression attached memory module,压缩附 加内存模组),是一种新型的内存模组,主要定位于笔记本电脑市场,现有笔记本电脑的内存主要 有两种形式:一种是 SODIMM 内存模组,DDR5 SODIMM 需要一颗 SPD 芯片和一颗 PMIC 芯片; 一种是直焊式 LPDDR,其直接焊接在主板上,不需要 SPD 芯片和 PMIC 芯片。首先,模组形式的 CAMM,需要搭配一颗 SPD 芯片和一颗 PMIC 芯片,如果未来 CAMM 广泛用于笔记本电脑,将增 加对 SPD 芯片和 PMIC 芯片的需求。其次,CAMM 按照存储介质分为两种:一种使用 DDR5 DRAM, 另一种使用 LPDDR5。其中针对使用 DDR5 DRAM 的 CAMM,当数据速率达到 6400MT/S 及以上时, 也可能会需要 CKD 芯片,将增加对 CKD 芯片的市场需求。

传统数据中心复苏,津逮®服务器迎新机

海外互联网资本支出进入上行区间,传统数据中心或迎来修复性增长

北美互联网四大厂商资本开支 24 年呈稳定上涨趋势。根据彭博数据,微软、meta、亚马逊、谷歌 23Q4 合计资本开支为 430.07 亿美元,同比增长 8.87%,环比增长 16.25%。根据彭博预计,在 24Q1Q2 下游市场周期性低迷时,资本支出同比仍将稳定增长。2024 年四大厂商均将增加 AI 相关服务器、 芯片、网络设备和其他数字设备的开支。根据彭博预计,微软、meta、亚马逊、谷歌 24 年合计资本 开支将达 1813.49 亿美元,同比增长 22.99%。我们认为,受全球主要云计算厂商新一轮资本开支增 长以及对于高端 AI 服务器需求增加的影响,数据中心有望迎来修复性增长。

全球服务器出货量持续增长,X86 服务器仍为市场主流,AI 服务器占比不断提升。根据 IDC 数据, 23Q3 全球服务器出货量达到约 306.6 万台,同比减少约 22.77%,销售额为 315.6 亿美元,同比增长 0.5%。根据 Trend Force 预估,2024 年全球服务器整机出货量约 1365.4 万台,年增约 2.05%。同时, 市场仍聚焦部署 AI 服务器。2023 年 AI 服务器出货量近 120 万台,同比增长 38.4%,占整体服务器 出货量近 9%。受惠于北美云端数据中心业者订单带动,2024 年 AI 服务器出货占比预计将升至约 12.1%,预计到 2026 年占比将提升至 15%,出货成长率也有望达双位数,2022-2026 年 AI 服务器出 货量年复合增长率约 22%。

23 年信骅月度营收整体持续回升,亦能彰显服务器市场逐步回温。根据信骅的月度营收数据,2023 年下半年起公司月度营收恢复环比增长态势。2024年2月,公司营收2.92亿新台币,同比增加30.92%。 作为全球服务器 BMC 芯片厂商的代表,服务器控制芯片收入回暖或反映服务器市场恢复上行周期。

津逮®服务器平台系列产品持续拓展市场,或迎来放量机遇

津逮®服务器平台主要由澜起科技的津逮®CPU 和混合安全内存模组(HSDIMM®)组成,该平台具 备芯片级实时安全监控功能,可在信息安全领域发挥重要作用,为云计算数据中心提供更为安全、 可靠的运算平台。此外,该平台还融合了先进的异构计算与互联技术,可为大数据及人工智能时代 的各种应用提供强大的综合数据处理及计算力支撑,其产品线主要由两部分组成:津逮®CPU 及混 合安全内存模组(HSDIMM®)。

津逮®CPU 是公司在数据处理类芯片进行战略布局的重要产品之一,系公司与英特尔、清华大学合 作研发,第五代产品性能显著提升。津逮®CPU 是公司推出的一系列具有安全预检测(PrC)、动态 安全监控(DSC)功能的 x86 架构处理器,适用于津逮®或其他通用的服务器平台,目前已经更新 至第五代。第五代津逮®CPU 基于英特尔®第五代至强®可扩展处理器内核(代号:Emerald Rapids), 通过了澜起科技安全预检测(PrC)测试,是面向本土市场的 x86 架构服务器处理器。相比第四代产 品性能优化显著,如单颗 CPU 最高支持 48 个核心、96 个线程,最大三级缓存容量达 260MB;支持 的 DDR5 内存速度最高达 5600MT/s,CPU 之间互连的 UPI 速度最高达 20GT/s;基于 LINPACK 测 试,其综合浮点计算性能最高提升近 40%。具备更低的待机功耗和更高的能效比,以应对 AI、HPC、 数据服务、网络/5G、存储等严苛工作负载的挑战。

混合安全内存模组(HSDIMM®)采用公司具有自主知识产权的 Mont-ICMT®内存监控技术,可为 服务器平台提供更为安全、可靠的内存解决方案。目前,公司推出两大系列混合安全内存模组:标 准版混合安全内存模组(HSDIMM®)和精简版混合安全内存模组(HSDIMM®-Lite),可为各大 数据中心及云计算服务器等提供基于内存端的硬件级数据安全解决方案。

对标英特尔至强系列,开启国产 CPU 新篇章。2023 年 12 月,英特尔发布第五代至强可扩展处理器。 从其公布的 28 款 SKU 来看,澜起科技第五代津逮®CPU 当中的 C8558P 对应英特尔 Xeon Platinum 8558P;C4514Y 对应英特尔 Xeon Silver 4514Y,并将主频提高至 2.6GHz(原为 2GHz);C5520+ 对应英特尔 Xeon Gold C5520+;C6542Y 对应英特尔 Xeon Gold C6542Y;C6548Y+对应英特尔 Xeon Gold C6548Y+,津逮®系列与至强系列的对应关系清晰明了,涵盖了不同核心数量和性能等级的处 理器,满足了从高端服务器到数据中心的各种应用场景。另外,公司的第五代津逮®CPU 并不是单 纯将英特尔第五代至强可扩展处理器换标,而是在其基础上加入了澜起科技具有自主知识产权的混 合安全内存模组(HSDIMM®),可为不同应用场景提供不同级别的数据安全解决方案。凭借其出 色的性能与丰富的型号选择,津逮®CPU 作为国产服务器芯片新力量,有望在传统服务器市场日渐 回暖的背景下迎来放量机遇。

生态建设日益深入,品牌认可度不断上升。津逮®服务器平台主要针对中国本土市场,截至目前, 已有多家服务器厂商采用津逮®服务器平台相关产品,开发出了系列高性能且具有独特安全功能的 服务器机型,并应用于金融、能源、政务、交通、数据中心及智能城市等下游行业。同时,服务器 平台已与国内众多操作系统、云基础设施、数据库、硬件(如固态硬盘、GPU、内存)厂商完成了 产品兼容性互认证,品牌认可度逐年上升,为津逮®产品在国内市场上的发展奠定坚实基础。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至