未来AI算力需求趋势如何?

未来AI算力需求趋势如何?

最佳答案 匿名用户编辑于2025/06/17 09:42

训练端与推理端都对未来 AI 算力需求保持积极推动:

1.训练端:后训练新 Scaling 路径不断涌现,新架构在持续探索中

后训练阶段的 Scaling Law 成为大厂的共识。2024 年底,预训练阶段的 scaling law 的放 缓趋势初现,目前在经典 Transformer 架构基础上的算法优化成为各大厂所追求的方向,从 各大厂发布的论文来看,Post-training 阶段与 Inference 阶段的新 Scaling 路径不断出现, 包括模型微调、SFT、RM、PRM、RLHF、RLAIF、CoT、MLA 等在内的算法优化不断证 明后训练阶段 Scaling Law 的有效性。同时,Qwen 团队提出的 Parallel Scaling(并行计算) 也进一步拓展了模型的 Scaling 路径。

更多新架构如若出现有望重启预训练阶段 Scaling Law 叙事。正如上文所述,腾讯混元 Turbo-S 在 transformer 架构的基础上叠加 Mamba 架构在长文本能力上表现更加出色, Google Gemini Diffusion 将扩散模型引入文本模型提升生成速度,各大厂对于新架构探索 的尝试正逐步出现,更多新架构如若出现有望重启预训练阶段的 Scaling Law,带来又一轮 的训练算力需求增长。 产业端来看,以“星际之门”为代表的大规模算力集群进展顺利。OpenAI 星际之门在美国 德克萨斯州阿比林的一期工程与 xAI Colossus 孟菲斯算力中心项目目前正在顺利进展中, 星际之门阿比林一期工程将包含 8 个建筑,每座建筑中都会有 5 万块完全互连的大型 GPU 集群,总共有多达 40 万块芯片,总发电容量将达到 1.2GW,这也让它成为世界上已知最 大的计算集群之一。从最新发布的项目现场视频来看,目前其中 2 座主体建筑基本完工, 伴随英伟达 GPU 的逐步交付正在进行算力机架与冷却系统的铺设。同时 XAI 在 Colossus 计算集群安装了 20 万个 GPU,仍继续加码算力投资,计划再次建立一个包含 100 万 GPU 的计算集群。

中东版“星际之门”落地,主权 AI 正逐步落地。5 月 22 日,OpenAI 宣布将在阿联酋阿布 扎比建设一个超级数据中心集群,这是“星际之门”计划的一次重大海外扩张。OpenAI 此 次合作对象是阿联酋本土 AI 公司 G42,由阿联酋主权财富基金支持。双方将在阿布扎比共 建一个总容量高达 5GW 的数据中心集群,大约等于 5 座核电站的发电能力。通过阿比林项 目 1.2GW/40 万张 GPU 测算,阿布扎比数据中心集群有望部署 160w 张 GPU。项目将分 阶段推进,第一阶段将先建设一个 1GW 的小型集群,其中 200 兆瓦预计将在 2026 年投入 运营。OpenAI 表示将继续向欧洲、亚太地区拓展,寻找新的数据中心选址。我们认为,AI 算力逐步成为各国家下一阶段的竞争要素,主权 AI 的逐步落地有望推动算力需求的持续提 升。 产业供给端加速,台积电新建工厂节奏加速。作为 AI 算力产业链的前线环节,台积电近年 来扩产节奏加速,2017-2020 年,台积电平均每年新建三座晶圆厂。2021-2024 年,每年 新建晶圆厂的数量增加到五座。2025 年,台积电将每年新建晶圆厂的数量增加到九座,以 支持以英伟达为代表的客户产品交付。在这九座晶圆厂中,有八座是晶圆厂,还有一座是 先进的封装厂。伴随新产能的逐步落地,英伟达 B 系列交付节奏或将加速。我们认为,台 积电新产能规划预示着未来算力需求产业角度的乐观预期。

2.推理端:Agent 落地带来推理需求快速增长

Agent 需求的快速增长或将带来推理算力几十甚至上百倍的提升。据 Artificial Analysis 统 计,在 Scaling Law 初期,模型的发展方向是更大参数,能够带来约 5 倍的算力提升。随 着模型进入后训练和推理时代,模型输出的 token 数将有约 10 倍的提升。而 Agent 时代, 每个 Agent 在处理单任务时所需的请求数(request)有约 20 倍的提升,且 Agent 基本都 是由推理模型驱动的,因此整体算力提升或有几十至上百倍。

大量的工具调用与信息交互带来 tokens 消耗量数量级的提升。Agent 在执行任务时会进行 任务分解与编码,复杂任务常常涉及几十个不同的任务,或在执行过程中涉及到屏幕内容 的识别,这些与 chatbot 阶段不同的任务流程将大大提升 tokens 的消耗。同时,未来多 Agent 互联的场景下,不同 agent 间的通讯合作将再度加大算力的需求。我们认为,Agent 的落地 带来交互次数、任务复杂度、使用频率的提升,同时如屏幕识别等多模态的场景进一步加 大 tokens 的消耗,整体算力需求或提升几十到上百倍。

Agent 单次任务推理算力需求测算。以 70B 参数模型支持的 Agent 为例,假设单次生成长 度为 100 tokens,按照 OpenAI 2NBS 的计算公式计算,训练算力需求为 C=2*70B*100= 14*10^12FLOPs=14TFLOPs。同时,并发数量是 Agent 算力需求的重要指标,QPS(Queries Per Second,每秒查询数)是衡量 AI Agent 处理并发请求能力的关键指标,直接影响算力 需求。 假 设 并 发 请 求 数 量 为 10 次 , 则 总 算 力 需 求 = 单 次 请 求 FLOPs*QPS= 14TFLOPs*10=140TFLOPs/s。以 A100 服务器 312FLOPs/s 计算,假设利用率为 50%, 则需要 140/(315*50%)≈1 台 A100 服务器。

Agent 产品用户数量增长迅速带动算力需求提升。根据 similarweb 数据,现有 Agent 产品 月活跃人数增长迅速,截至 2025 年 3 月底,Manus 自发布后不到一个月时间月活用户增 长至 2310 万人,N8n 月活人数达 526 万人,字节扣子月活人数 498 万,Genspark 月活人 数达 442 万人。从目前有数据公布的 Agent 产品来看,月活人数增长迅猛,预计随未来越 来越多的 Agent 产品放量,推理阶段的算力需求将迎来放量。

参考报告

科技行业AI展望:New Scaling,New Paradigm,New TAM.pdf

科技行业AI展望:NewScaling,NewParadigm,NewTAM。全球AI展望:NewScaling,NewParadigm,NewTAM展望全球AI发展趋势,1)模型端新架构正逐步探索,预训练ScalingLaw有望呈现新起点;2)算力端训练与推理共同推动算力需求持续上行,有望开启新TAM,同时算力硬件设计进入新范式;3)应用端商业模式变革带来新范式,Agent在细分领域率先落地带来新TAM。持续看好AI产业投资主线,看好全球AI应用进入业绩收获期。模型:预训练ScalingLaw有望开启新起点回顾近三个季度以来的大模型迭代情况,强化学习(RL)带来的后训练test-timeco...

查看详情
相关报告
我来回答