算力供需及海内外租赁情况如何?

算力供需及海内外租赁情况如何?

最佳答案 匿名用户编辑于2025/09/23 14:26

英伟达最新一代R系列芯片在高强度AI训练和推理任务中更具优势。

1.算力供给持续优化:GB300预计于2025年Q3交付

GB300服务器拥有超级算力,助力企业训练和运行AI软件。1)GB300 芯片是定位为高性能计算与 AI 推理的旗舰产品。2025 年3 月18 日,GTC大会发布GB300 芯片,该芯片基于 NVIDIA Blackwell Ultra 架构。NVIDIA Blackwell 架构 GPU 拥有 2080 亿个晶体管,采用专门定制的台积电4NP 工艺制造,且所有NVIDIA Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10TB/s 的片间互联技术连接成一块统一的 GPU。2)GB300 NVL72 系统是行业首款达到ExaFLOPS 级别的企业级算力设备。系统内建72个英伟达Blackwell Ultra GPU和36个基于Arm架构的英伟达Grace CPU,理论算力可达1 万亿次浮点运算/秒,掀开全球 AI 基础设施升级的新篇章。 GB300首批已出货至Core Weave, 预计2025Q3开始放量。7月3日,美国Core Weave公司宣布已收到市场上首个基于英伟达GB300的人工智能服务器系统。该系统采用戴尔 PowerEdge XE9712 服务器,以 Nvidia GB300 NVL72作为基础。CoreWeave计划在今年内持续扩大Blackwell Ultra服务器的部署规模,以满足客户不断增长的AI计算需求。除戴尔外,其他服务器厂商正推动 GB300 服务器出货。广达资深副总暨云达总经理杨麒令表示,GB300 目前按计划推进,正在测试并与客户进行验证,预计2025年 9 月出货。

算力供给持续优化:Rubin预计于2026-2027年量产

英伟达最新一代R系列芯片在高强度AI训练和推理任务中更具优势。英伟达持续优化和迭代GPU,R100将采台积电的N3制程(vs. B100采用台积电的N4P)与CoWoS-L封装 (与B100相同)。与此同时,R100采用约4x reticle设计 (vs. B100的3.3x reticle设计)。这一工艺进步增强了R100的能效比,巩固英伟达市场领先地位。2026年,Vera Rubin 144 架构将量产,AI 算力正式迈入 Exascale 时代。英伟达 CEO 黄仁勋在GTC 2025 大会确认,Vera Rubin 144将于2026年下半年推出。Vera Rubin144包含144个Rubin GPU和多个Vera CPU,采用液冷Oberon机架,功耗600kW,提供3.6 ExaFLOPS的FP4推理性能和1.2 ExaFLOPS的FP8训练性能,其性能约为Blackwell GB300 NVL72的3.3倍。2027年,Rubin Ultra NVL576架构将量产,推动英伟达算力进一步突破。GTC2025大会,黄仁勋表示,该架构包含576个Rubin Ultra GPU,FP4推理性能达15 ExaFLOPS,FP8训练性能达5 ExaFLOPS,其性能约为Blackwell GB300 NVL72的14倍。

2.Deepseek推动AI降本、开源,推理算力需求快速提升

DeepSeek成本低且训练高效,性价比优势显著。DeepSeek于2024年12月和2025年1月分别发布V3训练和R1推理模型,Deepseek-V3的训练使用2048块英伟达H800 GPU,花费558万美元,成本不到其他顶尖模型的十分之一。DeepSeek R1训练算力只有Llama3的1/10,推理阶段缓存数据量降低了50倍。而根据DeepSeek性能测试,在数学任务中,DeepSeek-R1 的表现与OpenAI-o1-1217相当,并远超其他模型。 DeepSeek推动开源趋势,加速推理侧爆发。IDC预测,2025年,将有55%的企业使用开源人工智能基础型开发应用程序。DeepSeek使企业可以使用水平相当的开源模型,大幅降低了企业的训练和部署成本,使得更多开发者能够负担先进人工智能开发的费用,加速人工智能的普及。 杰文斯悖论指出,当技术进步提高了资源利用效率时,该资源的总消耗量反而可能会增加,Deepseek带来的效率优化不仅未抑制算力需求,反而带来算力需求的增长。同时,DeepSeek通过技术普惠化、场景纵深化和算力泛在化三重路径推动大模型运用,加速推理侧需求的爆发。

3.海外算力租赁:新GPU云厂商(Coreweave等)与英伟达深度合作,算力租赁市场快速增长

CoreWeave起源于加密货币挖矿公司,转型为AI算力服务商

CoreWeave 前身为加密货币挖矿公司,随着AI浪潮转型为全球领先的 AI 算力基础设施服务商。CoreWeave崛起与 AI 革命深度绑定,凭借独特的资源整合能力和技术优势,CoreWeave成为全球 GPU 云服务市场的重要参与者。公司主营业务是提供专为人工智能(AI)打造的 CoreWeave Cloud Platform,专注于为AI 模型训练、推理等高性能计算需求提供优化的算力、网络和存储支持,是定位为 “AI Hyperscaler” 的云计算服务商。CoreWeave通过股权和债务融资筹集超过120亿美元,投资方包括Magnetar Capital、黑石、英伟达、摩根大通、高盛、摩根士丹利等。2025年3月底CoreWeave成功IPO。

CoreWeave机构股东融合技术巨头与顶级投资机构

CoreWeave 的股权架构采用典型的“创始人控制型双类股结构”。其中Class A 普通股:每股1票,可公开交易;Class B普通股:每股10票,不可公开交易,仅创始人及特定股东持有,可随时转换为A类股(无对价)。B 类股由创始人持有,赋予创始人绝对控制权,确保创始团队在套现后仍掌握绝对话语权,而财务投资者(如英伟达)虽持股较多,但投票权被大幅稀释。 机构股东融合了技术巨头与顶级投资机构,反映出AI算力租赁公司较强的市场吸引力。NVIDIA作为CoreWeave的核心GPU供应商,通过投资确保CoreWeave优先获取H100、H200、GB300等稀缺芯片,实现供应链绑定。Magnetar作为最大外部股东,提供股权融资和债务融资,表现出传统资本市场对海外AI算力租赁赛道的长期认可。

4.国内算力租赁:我国高端算力需求旺盛,国内算力租赁市场逐步打开

受制于美国对中国的芯片禁令,中国算力成本上升,算力租赁以轻资产运营满足算力需求,市场规模有望持续扩张。美国政府对中国的科技封锁不断加剧,从限制高端芯片出口到拟限制中国企业使用美国厂商的云计算服务,严重阻碍了中国获取先进算力芯片及相关技术的渠道,导致高端芯片短缺,算力成本上升。同时,AI大模型的快速发展使得对算力的需求呈指数级增长,训练和推理需要庞大的计算资源支持。自建算力成本高昂,不仅需要购买大量昂贵的硬件设备,还需承担后续的运维和管理成本,算力租赁能够兼顾成本和满足企业算力需求,2023年后算力租赁市场迅速兴起。2024年,中国智能算力租赁市场规模达到377EFlops(FP16精度),同比增长88%。预计未来三年,中国智能算力租赁市场规模复合增长率将保持在53%,至2027年,中国智能算力租赁市场规模将达1346EFlops。

下游行业集中,CSP互联网云厂占比超六成

中国智能算力租赁市场下游行业集中,互联网行业以62%的绝对占比成为核心需求方。互联网行业的需求主要集中于云计算、AI模型训练及实时推理等高算力场景,其对大规模弹性算力的依赖源于海量数据处理、短视频推荐算法优化以及生成式AI应用的爆发式增长。 AI大模型融合千行百业,金融、政务渗透率最高。除互联网外,金融及政务的智能算力租赁需求较高。政府占比14%,其需求以智慧城市、政务云和公共安全为重心,偏向数据合规性及安全性,并倾向于采用私有化部署与国产化算力解决方案。金融行业占比6%,聚焦高频交易风控、量化建模及反欺诈分析,对低延迟算力和异构资源调度能力要求较高。另外,医疗行业占比5%,制造与教育行业各占4%。

参考报告

算力租赁行业专题报告:Neocloud引领算力租赁发展,国内市场发展可期.pdf

算力租赁行业专题报告:Neocloud引领算力租赁发展,国内市场发展可期。全球算力景气度延续,随着英伟达GB系列高密度算力机柜加速出货,全球高端算力景气度进一步提升。当前AIGC浪潮下,全球服务器出货量持续增长,咨询机构IDC预计2028年全球人工智能服务器市场规模有望达到2,227亿美元,其中生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。从需求端来看,模型迭代加速背景下训练端需求仍维持高位,推理侧需求随着应用的渗透逐步提升;从供给端来看,以英伟达B/Rubin、AMDMI系列为代表的高性能算力芯片持续迭代,2025年下半年GB300有望加速交付。根据CSP厂...

查看详情
相关报告
我来回答