2026年公用环保行业AI能否带动电力提前跨越周期底部II:量化测算Token出海对中国电力的弹性

  • 来源:华泰证券
  • 发布时间:2026/03/04
  • 浏览次数:76
  • 举报
相关深度报告REPORTS

公用环保行业AI能否带动电力提前跨越周期底部II:量化测算Token出海对中国电力的弹性.pdf

公用环保行业AI能否带动电力提前跨越周期底部II:量化测算Token出海对中国电力的弹性。推理时代,Token出海对中国电量/电力的潜在拉动超过10%训练时代,海外大模型由于数据管制不会布局核心算力在中国,国内大模型本土AIDC的需求增长又受制于国产芯片能力。推理时代,Anthropic/OpenAI等海外企业部署边缘算力在中国的探索逐步成熟,而国内大模型的规模效应与成本优势在token竞争中开始体现。我们测算常见参数的MoE推理模型每百万token的电耗在0.01-1度,若全球日均token调用量达到千万亿级别(目前百万亿级),对中美用电量的弹性在2%-12%。假设国产大模型1)30%-50...

与市场观点不同之处

市场尚未意识到 AI 的全球竞赛已经从“训练时代”演化到“推理时代”,国产与海外算力 的差距在缩小,而能耗增长曲线斜率更高。2026 年已经进入 AI Agent 加速落地期,与 2023-25年以大模型能力跃迁为主线不同,下一阶段产业主线不再是模型参数或 benchmark 的线性提升,推理需求对芯片的峰值算力下降,海外大模型的 GPU 优势边际减弱,国产算 力依靠更高的性价比在全球竞争中脱颖而出。Agent 模式的 token 消耗不是“对话量”的线 性函数,而是“任务复杂度×执行时长”的指数函数,推理才是未来 AI 能耗的大头。 市场可能认为中国大模型 token 出海的核心竞争优势是电价,但是我们测算发现电价占比 目前仅 10%。传统预训练要求下,数据中心对电价成本敏感性不足 5%,折旧占比超过 60%。 后训练和推理环境下,数据中心对电价成本的敏感性翻倍。我们保持其他参数不变,将训 练常用的英伟达芯片置换成华为昇腾 310 系列,总成本中电费占比约 9%,边际成本中电费 占比接近 60%。对于单位 token 的边际成本:海外芯片配置下,电价占比通常在 10%以内; 自研芯片中电价成本占比可能已经提升至 20%-30%。虽然目前中国低电价不是 token 成本 优势的主要原因,但是我们认为,随着芯片推理经济性和效率的优化、电价在单位 token 的成本中占比有可能持续提升。 Token 消耗量对电能量电价的弹性可能不如绿证与容量电价。考虑到中央政策对 AIDC 绿 电消耗比例 80%以上的要求,token 带来的电量满足要求最容易的方式就是购买目前显著 低估的绿证(2025 年绿证全年均价 4.2 元/张,2026 年以来均价 5.5 元/张,仅为同期碳价 的 8%)。同时考虑到推理模型的产能利用率显著低于训练模型,电量的弹性可能要低于电 力弹性,对电能量电价的带动可能晚于容量电价。正如我们在 2026 年 1 月的报告《公用事 业: 中美电价剪刀差:大国的相同与不同》中阐述的,两国电力供需紧张程度都远高于电量 供需,美国“缺电”迄今为止也没有缺电量,PJM 容量电价快速上涨,电量电价并没有出 现相对气价的超额上涨。

中国的电价优势在全球 AI 算力竞争中扮演什么样的角色?

正如我们在 2026 年 1 月的报告《公用事业: 中美电价剪刀差:大国的相同与不同》中阐述 的,两国工业电价自 2025 年底开始已经出现了明显的剪刀差;随着美国的气价和中国的煤 价的差距进一步拉大,新能源渗透率在两国的提升,都会更确立甚至加速这一趋势(得益 于中国风光储和电网制造业的绝对优势)。

但是,我们认为低电价本身对数据中心的成本和 token 的成本都不是决定性因素,所以国 产算力的优势更多体现在充足的电力供应上,产品迭代和产能扩张短期看不到能源瓶颈。

推理时代,电价对 AIDC 敏感性翻倍,更有可能吸引基建投资

早期 Scaling Law 聚焦预训练,对芯片的峰值算力要求较高,国产芯片存在一定差距。MoE 之后推理模型成为主流选择,2024 年 9 月开始以 OpenAI 的 o 系列为代表的“推理模型” 在预训练后引入强化学习等后训练,后训练与推理对芯片的要求大幅下降。从目前海外模 型的迭代进度来看,主流头部模型几乎全部是推理模型,后训练模型的算力需求还在进一 步增加。国内在算力受限下更侧重架构与算法精修,Qwen、DeepSeek、Kimi 等以注意力 优化、稀疏化与 MoE 等提升训练推理效率与性价比。

传统预训练要求下,数据中心对电价成本敏感性不足 5%。根据我们的测算,一个典型 80 EFLOPS(FP16)的大型智算 AIDC,假设全部芯片采用英伟达产品(不考虑最新的 Blackwell 这类顶级训练卡,参考中国合规版 H100/H800),服务器成本大概接近总投资的 90%,总 成本中电费只占 5%,折旧占比超过 60%。

后训练和推理环境下,国产芯片配置的数据中心对电价成本的敏感性翻倍。我们保持其他 参数不变,将芯片置换成华为昇腾 310 系列,总投资可以下降 40%;在国产芯片版本的 AIDC 中,总成本中电费占比约 9%,边际成本中电费占比接近 60%。相较于海外主流训练模型 而言,推理模型电价敏感性有显著提升,但总体来说影响幅度远不如芯片成本。根据 2025 年 9 月1MIT Adam Zewe 的研究,训练能耗的 70%在大模型准确性上的提升不足 2%-3%。

根据我们测算,电价 0.1 元/度的变化对 AIDC 的全投资 IRR 的影响仅 0.2%,而芯片的可得 性是核心瓶颈,且芯片的单价敏感性也远高于电价。所以,训练时代通过低电价吸引海外 AIDC 在电力供需宽松的中国本土的投资逻辑较弱,且受到我国对数据中心牌照的审批限制, 外加《数据安全法》和《网络安全法》等法规制约,海外算力需求很难落实到中国基建投 资。推理时代,海外大厂对非敏感数据的要求降低,更追求规模效应与交付成本,通过云 服务合作、开源模型本地化部署、边缘计算轻量节点、有限合资试点等方式在中国可能有 更多案例落地。

Agent 开启 token 需求爆发,中国电力天花板高

AI Agent 需求增长的背后是大模型从 Chatbot 转化为新质生产力。正如我们华泰科技团队 在 2026 年 2 月的报告《华泰科技/计算机: Agent 叙事强化,算力与 SaaS 分化加剧》中所 阐述的:2025 年是 AI Agent 元年,2026 年可能进入 Agent 加速落地期,主要体现在两方 面:一是 Agentic Coding 的迭代速度会大幅加快;二是国内外大厂会激烈争夺个人 Agent 助手的超级入口,均会成为下一轮 token 加速的重要推手。2026 年将成为 AI Agent 推理端 从“能力验证”走向“Agent 规模化应用”的关键拐点年。与 2023-25 年以大模型能力跃 迁为主线不同,下一阶段产业主线不再是模型参数或 benchmark 的线性提升,而是 Agent 形态驱动的 token 使用方式结构性变化。

区别于传统 Chat 模式,Agent 的推理范式算力消耗较大。多步规划、工具调用、长时间运 行与状态保持这三点共同决定:Agent 模式的 token 消耗不是“对话量”的线性函数,而是 “任务复杂度×执行时长”的指数函数。以 Claude Code 为例,完成一个项目需要消耗百 万级别 token(完成复杂项目的消耗会更大),这与 chatbot 单次交互消耗一千左右 token 相比,算力消耗提升 3 个数量级。从 Claude Code 技术文档来看,官方建议每名用户每分 钟的 token 限制设置在 20-30 万 token,算力消耗较大。

大模型 Token 的竞争中,电价的决定因素与日俱增

2026 年 2 月 26 日,全球最大的 API 聚合平台 OpenRouter 公布的全球最新的 Token 用量 榜单,9 日~15 日这周中国模型以 4.12 万亿 Token 的调用量,首次超过同期美国模型的 2.94 万亿 Token。前五名中我国大模型独占四席(MiniMax M2.5、Kimi K2.5、GLM 5 和 DeepSeek V3.2),全球开发者对中国 AI 能力的认可逐渐显现。中国大模型的 Token 经济,是输出境 内电力和算力的新范式,而且享受着 1998 年 WTO 电子传输不征关税的制度红利。

根据我们的测算,假设: 1) 推理模型中海外芯片的使用寿命为 5 年,国产 3 年;实际上推理 LLM 消耗 GPU 的速 度未必这么快,而且大量推理模型是硬件复用的(使用的芯片是训练 1-2 年后的旧卡与 新卡混配而成),芯片成本难以准确在训练和推理中分摊,但考虑到芯片技术迭代较快, 使用者不可能真的以设计寿命来考虑回收成本; 2) 考虑 50%的综合利用率,实际上长上下文的瓶颈还体现在显存等其他硬件,再额外考 虑 10%的冗余 token 备用;

我们发现相同电价下不同 GPU 的 token 边际成本差异仍然高达 2-3 倍,可见芯片的差异对 token 的成本来说依然是决定性的;由于 API 调用时推理卡的峰值算力通常难以充分发挥, 国产芯片和海外龙头的差距在 LLM 的应用上差距并不大,国内企业的优势很有可能不止是 电价。根据我们的测算,英伟达芯片产生的 token 成本中,电价占比通常在 10%以内;国 产芯片中电价成本占比可能已经提升至 20%-30%;所以我们认为虽然目前中国低电价不是 token 成本优势的主要原因,但是我们认为,随着芯片边际提升放缓、算法深度优化、规模 效应放大,电价在单位 token 的成本中占比有可能持续提升。

事实上,考虑到响应速度和法规限制,海外 API 调用的 token 极有可能来自本地部署的 AIDC (类似千问 global 模式和文心一言的海外版,推理资源在全球除中国大陆外的区域调用)。 不过,除视频、对话能对响应速度要求极高的需求外,光缆传输百毫秒的延时、协议开销 白毫秒级别的耗时和端口排队等拥塞,相比单个 token 本身就需要的百毫秒推理时长2,并 不一定是大部分需求的核心瓶颈。但至少我国电力的供应充足性与安全性是算力供给大幅 扩张、短期看不到天花板的前提。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至