2025年海外TMT行业2026年度策略:Scaling Law未止,商业化飞轮开始转动

  • 来源:兴业证券
  • 发布时间:2025/12/24
  • 浏览次数:66
  • 举报
相关深度报告REPORTS

海外TMT行业2026年度策略:Scaling Law未止,商业化飞轮开始转动.pdf

海外TMT行业2026年度策略:ScalingLaw未止,商业化飞轮开始转动。互联网:AI商业化飞轮加速转动,AgentInfra重塑云竞争格局。ScalingLaw未止,2025年四大云厂商资本开支预计达2400亿美元,AI已从“技术军备竞赛”正式迈入“商业化兑现期”。C端应用重塑流量变现逻辑,Google与Meta25Q3广告收入显著超预期,AIOverviews与Advantage+工具成为变现新引擎;电商领域正从“搜索即得”向“对话即交易”的范式转移,OpenAIOperator与Googl...

一、短期的情绪修正不是泡沫

对于过去颠覆式科技创新,往往伴随着过度投资与资本市场过热的行为。本轮人工智能热潮在 2023 年由 ChatGPT 爆火所驱动,伴随着算力几何式增长与交互的普及,AI 从饱受质疑的热点,如今已成为多数人承认的技术趋势。但是当前市场仍对商业化潜力、投入产出比、流动性问题等出现分歧。我们从技术进展、算力效率、现金流与财务体质、企业估值等维度来分析当前AI 是否已经进入泡沫化阶段。

1.1、AI 的演化仍驱动投入,科技进程上远未达泡沫

投入大幅增长,未来龙头将逐步以 OPEX 取代 CAPEX。全球四大互联网厂商(Microsoft, Google, Amazon, Meta)的资本开支是算力增长的最直观曲线。按四家公司的资本开支加总与 AI 基建的假设比例,2023 年龙头的AI 基础设施支出约1,474 亿美元,2024 年增至约 2,283 亿美元,2025 年预估达到3,622 亿美元。但26 年起,龙头将会提升算力租赁比例,降低自建规模,来保持更好的盈利性及对冲需求的不确定。

是否已经形成泡沫?高速增长的资本开支,去年开始引发市场出现分歧,比如商业化空间是否能支撑庞大的投入?折旧与负债率对于龙头财务的负面影响?英伟达等业者对于数据中心/ AI 服务客户的融资是否为庞氏骗局?AI 行业的发展是否已经是个泡沫等疑问。

AI 演化方兴未艾,商业化加速落地。从技术的角度来看,AI 的模型能力、算力成本、落地场景等方面持续改善,并没有见到停滞,AI 模型逐步趋近人类水平,而近期谷歌 Gemini 3.0 在能力上的跃升,印证了 Scaling law 并未失效,巨头对于算力的投入有望驱动 AI 能力的持续演化。

龙头需要更多的投入。从 ChatGPT 开始,英伟达 A100 等芯片对于大模型训练的助力印证了 scaling law 的有效性,而后模型能力逐年快速提升,直至近期的Gemini 3 等旗舰模型,AI 模型不仅超越人类专家水平,并且具有相对成熟的多模态功能,后续随着 agent 的成熟化,以及各式行业垂类场景,AI 的使用场景与调用频率有望进入爆发阶段。 更强大的芯片也拉低了算力成本。与此同时,单位算力成本下降,也意味着主要玩家将持续构建前沿算力体系,以取得 AI 服务的成本优势。由于模型优化、芯片能力、训练与推理流程演进等因素,在 MMLU 基准上,得分相当于GPT-3.5的AI 模型推理成本从 2022 年 11 月的 20 美元/百万 Tokens 下降至2024 年10月的0.07 美元/百万 Tokens。行业得以训练参数量更大、能力更强的模型,同时产品服务更加多元、反应更加敏捷,形成杰文斯悖论(价格越低,收入反而因此增加)。

AI 基建迭代、芯片性能提升仍然是 AI 模型、应用发展的基石。综上,AI 模型、应用对于训练、推理的 AI 基建需求仍然在提升,且AI 芯片迭代对于单位能耗的AI 模型 token 输出量、输出速度边界的推动起到关键作用,当前AI 市场仍然处于AI 基建迭代、芯片性能提升,进而推动 AI 模型、应用效果提升(反映为单位成本的 token 输出量、输出速度)的正向循环,尚未出现技术发展边际放缓的趋势。

1.2、AI 的商业化进程与效益评估

当前对于 AI 的投入效益容易被低估。评估当前的 AI 投入产出比需理解三个重要事实:第一,目前仍有部分 AI 算力基建用于大模型训练,这部分不产生直接收入;其次,考虑到数据中心建设周期、服务器从购买到使用的周期,资本开支投入到产出需要接近两年的时间,计算投入产出使用当期收入对应4-6 季度前的投入更为合理;第三,AI 产生效益不仅是增量收入层面,也包含毛利率以及运营效率的提升,从这点来看,以整体的盈利能力改善较为客观。科技龙头内部业务提效以及外部云客户积压订单为资本开支提供支持。内部业务方面,科技龙头开发的 AI 功能为其核心业务持续赋能,体现为活跃用户数、转化率等指标的提升;外部客户方面,微软、谷歌、亚马逊云业务的积压订单规模在外部客户 AI 需求增长的推动下保持高位,当前积压订单远高于2025 年的资本支出规划。综上,内部核心业务的效率提升、外部客户的订单都为科技龙头的资本开支规划提供支持,当前 AI 的投入并非过剩的投入,而是为未来业务增长奠定的坚实基础。

海外科技龙头当前财务能力上可以支持进一步的 AI 投入。龙头AI 基建投入的可持续性方面,当前海外科技龙头的自由现金流与负债比的水平保持健康,Factset 一致预期显示海外龙头关键财务比例未来两年将持续好转,即使资本开支实际规模高于一致预期,仍相对有较大的提升空间。

1.3、现在泡沫发展到什么程度?

互联网龙头虽然体质健康,在未来降低自建比例之后,三方的数据中心,比如甲骨文或 Coreweave,是否会面临流动性风险与财务危机?从芯片公司的估值以及近期的生态联盟,是否会造成更大的泡沫? OpenAI 在今年 9 月以来,对于数据中心上游、芯片龙头、存储龙头等环节发布了大量合作协议,并提出中长期的目标,如共计 26GW的算力供货协议、向甲骨文提出 3000 亿美元、向微软提出 2500 亿美元的算力需求。对于未来乐观的业务目标短期驱动了板块情绪,尤其是中小型数据中心与甲骨文供应链体系。但是后来市场开始担心这些三方数据中心前期投入过大的流动性与盈利压力,以及未来是否有如此大的订单需求支撑。

OpenAI 的长期协议具有灵活性,也不代表当前投入的规模。我们认为,OpenAI在此前提出的协议规模,是中长期合作的乐观目标。此前不论是OpenAI 还是甲骨文,不仅有海量融资需求,同时在电力、硬件供应链、土地审批等都亟待支持,因此会提出较乐观的目标。实际执行规模及节奏还是会基于手上的资源以及市场状况。因此,当前不必担心 OpenAI 体系过度投资的问题,还有调整空间。三方数据中心当下可预见的风险可控。另一方面,数据中心的流动性问题正在发酵,甲骨文与 Coreweave 等信用违约交换(CDS),利率也在持续攀升。我们认为,个别客户的商业化节奏仍有不确定性,而北美算力基建,仍可能受到电力供应与配套设备的影响。但是整体的流动性缺口或收入推迟的幅度仍在可控范围。尤其背负政策任务的甲骨文、英伟达鼎力支持的 Coreweave,我们相信最终还是会有合适方案来解决流动性问题。 从龙头股价的估值来看,并未出现过高的情况。不管是云服务厂商,还是核心的芯片、存储、先进封装的龙头供应商,估值都在合理甚至偏低的水平。以英伟达为例,当前股价对应下一财年的一致预期为 24x PE,还是在合理范围。而且当前一致预期尚未反应明年可能进一步提高出货量。

新科技浪潮往往伴随着过量的投入与竞争,泡沫化过程发生在技术发展速度趋缓、或是大量前期投入利用率不及预期的阶段。从当前趋势判断,AI 基建最快也要2027 年才会面临供过于求的挑战,2026 年投资不足与供不应求,才是互联网龙头当前最大的风险。

二、从应用需求端看 AI:多模态与agent 驱动渗透,商业化仍在加速

2.1、大模型趋势:海外模型集中度提升,ScalingLaw仍是主轴

2025 年下半年,海外大模型领域进入“寡头时代”的加速期。受限于巨额训练成本和生态壁垒,中小玩家逐步退出或转向垂直微调,例如Google、Anthropic、OpenAI、xAI 的模型在 OpenRouter 上的 Tokens 调用占78.3%份额。同时大模型能力继续沿着 Scaling Law 快速演进,参数规模、训练算力、多模态统一、长上下文、Agent 能力、推理成本等核心维度均出现显著跃升,行业从“百模大战”前半场的跑分竞赛,正式进入后半场的工程能力、生态控制力与商业化落地竞赛。

Google 目前占据绝对领先地位。2025 年 11 月 18 日,Google 正式发布Gemini 3.0,基准测试全面碾压: 根据 DeepMind 最新披露的对比数据,Gemini 3 Pro在19项核心基准中不仅超越了前代,更大幅领先 Claude Sonnet 4.5 与GPT-5.1。

推理与数学显著领先: 在被视为 AGI“门槛”的Humanity's Last Exam中,Gemini 3 Pro 得分达 45.8%(带工具),显著领先GPT-5.1 的26.5%;在AIME2025 数学竞赛中,配合代码执行更是实现了100% 的满分表现,证明了其在逻辑推理上的绝对壁垒。

多模态与 Agent 统治力: 巨大的代差体现在 ScreenSpot-Pro(屏幕UI 理解)测试中,Gemini 3 Pro 准确率高达 72.7%,而GPT-5.1 仅为3.5%,这种对图形界面的极致理解力是其实现“生成式 UI”和Project Jarvis 的基础。同时,在衡量长程商业任务规划的 Vending-Bench 2 中,其得分($5,478)是GPT-5.1($1,473)的近 4 倍,印证了谷歌在复杂工作流自动化上的领先地位。

OpenAI:GPT-5 系列侧重工程化优化,算力缺口致能力短期承压。OpenAI 在2025年下半年相继发布了 GPT-5 及改进版 GPT-5.1,但市场反馈显示其更像是一次“工程学上的胜利”而非“智能上的飞跃”。不同于GPT-4 时代的震撼,GPT-5系列主要改进在于响应速度、幻觉率降低(降低 80%)以及推理成本的极致压缩。通过引入动态路由(Dynamic Routing)机制,模型能在“快思考”与“慢思考”间无缝切换,显著提升了企业级应用的稳定性。

能力增长趋缓的核心原因在于算力基础设施的滞后。尽管OpenAI 已表示未来8年总投资计划近 1.4 万亿美元,但其超算集群直至2025 年底仍处于建设爬坡期,尚未完全投入训练。相比拥有成熟 TPU 集群的 Google 和已部署Colossus 的xAI,OpenAI 在 2025 年的训练算力存在明显的“空窗期”,导致其模型在复杂代码生成与前沿科学推理等硬指标上短期落后于竞争对手 xAI:Colossus 集群火力全开,“大力出奇迹的坚定践行者”。马斯克旗下的xAI在 2025 年展现了最激进的迭代速度。依托于孟菲斯已建成的Colossus 集群(已扩容至 20 万张 GPU 并全负荷运转),xAI 确立了“实时性+超大参数”的差异化路线。自下半年 Grok 4,Grok Code Fast 1,Grok 4.1 等模型发布以来,其在OpenRouter 上的调用份额从 25 年 6 月 1 日的 0.6%快速提升到25 年11 月23日的40%。 Grok 5 将是 Scaling Law 的“试金石”。 在 2025 年11 月与Ron Baron 的访谈中,马斯克首次披露了下一代旗舰 Grok 5 的核心细节。他透露,Grok 5 的参数规模将跃升至 6 万亿级别,是前代模型的两倍,旨在通过极致的“智能密度”逼近AGI临界点。尽管为了追求完美,发布时间从原定的年底略微推迟至2026 年Q1,但马斯克形容其能力将是“Crushingly Good”(碾压级的好),并预言其有10%的概率触达人类智能水平。

Meta:Llama 4 "Behemoth" 遭遇滑铁卢,全面转向“大力出奇迹”基建路线。2025 年下半年,Meta 的 AI 战略经历了痛苦的调整期。备受期待的旗舰模型Llama4 "Behemoth" 因在复杂推理和代码任务上未达预期而被迫推迟发布,早期放出的中小参数版本在实测中也被认为缺乏竞争力。面对模型能力的掉队,扎克伯格迅速调整策略,开始全面效仿马斯克(Elon Musk)的“大力出奇迹”,试图通过极速堆叠算力来弥补算法的不足。 马斯克的坚定“学生”。 为了绕过传统建筑审批长达数年的周期,Meta 开始直接在现有园区搭建 “帐篷式”临时数据中心 来部署GPU 集群。这一策略直接复刻了 xAI 在孟菲斯 Colossus 集群和 Tesla Model 3 产能爬坡期的做法,将算力上线的速度置于散热效率和稳定性之上,体现了 Meta“不惜一切代价”的追赶焦虑。而且尽管模型短期受挫,Meta 并未缩减开支,反而宣布了到2028 年投入6000亿美元用于美国本土 AI 基建的激进计划。这种“力大砖飞”的投入表明,Meta正试图通过绝对的算力规模优势,在下一代模型(Llama 5)训练中突破智能天花板。

2.2、AI 应用:C 端 AI 商业化飞轮开始转动

2025 年下半年,AI 从单纯的“技术军备竞赛”正式迈入“商业化兑现期”。AI 成为了广告主投放效率的倍增器。在 25Q3 中,Google 和Meta 均交出了超预期的广告收入答卷,同时我们也见到用户购物习惯正被 AI 改变的趋势,验证了AI 驱动的“商业化飞轮”已开始高速转动。 Google:AI Overviews 重塑搜索广告,YouTube 变现提速。Google Q3 2025营收达到 1023.5 亿美元(YoY +16%),其中广告收入达 741.8 亿美元,超市场预期2.33%。

搜索广告(Search): 并没有被 ChatGPT 分流,反而受益于AI Overviews(AI概览)的全面部署。数据显示,整体查询量和商业查询量增速在25Q3加快。同时 AI Mode 目前已有 7500 万日活用户。

YouTube:AI 自动生成的高质量视频背景和多语言配音功能降低了创作者门槛,YouTube 广告收入在Q3 突破 102 亿美元(YoY +15%)。

Meta:AI 广告 Advantage+年化收入达 600 亿美元。Meta 25Q3 营收达512亿美元(YoY +26%),广告单价在投放量增加的同时上涨10%。其中Meta 的AI 自动化投放工具(Advantage+)已成为核心增长引擎。Advantage+ 持续提升广告效果,使用 Advantage+ 开展潜在客户开发活动的广告主,平均每次获客成本比未使用该方案的广告主低 14%。 用户使用习惯正被 AI 改变。随着大模型推理能力的提升,电商行业正在经历从“搜索框+货架”向“对话+自动执行”的范式转移。OpenAI 和Google 不约而同地将战略重心从单纯的信息检索转向了交易闭环,试图将AI Chatbot 打造为拥有“钱包权限”的超级购物代理。

OpenAI:打造“对话即交易”闭环,流量变现新引擎。OpenAI 在2025 年下半年通过一系列激进的商业化合作,正式切入电商赛道,试图将其8 亿周活用户转化为直接购买力,以缓解高企的模型训练成本。

Agentic Commerce(代理式商务)崛起: 5 月,OpenAI 推出了整合式AI 解决方案 "Operator",并宣布与 eBay 和 Etsy 达成战略合作。不同于传统的链接跳转,Operator 能够在后台自主处理从商品比价到结账的全流程。Shopify深度整合代码更是证实了这一点:用户只需对ChatGPT 说“帮我买一份适合极客的生日礼物”,AI 即可直接调用 Shopify 后台完成下单,实现了真正的“对话式购物”。

支付基础设施打通: 9 月推出的 "Instant Checkout" 功能是里程碑式的一步。通过与 Stripe 和 PayPal 的底层打通,用户无需离开聊天界面即可完成支付。这一“聊天驱动商务”模式在 10 月得到了 Walmart 的响应,双方合作推出了高度个性化的购物体验。

Google:Shopping Graph 护城河加持,Gemini 重塑沉浸式购物。面对OpenAI的进攻,Google 依托其庞大的 Shopping Graph(包含超500 亿个产品列表)和Gemini 的多模态能力,构建了更为“沉浸”和“懂你”的防御体系。

对话式 AI 搜索与决策: 在 2025 年 I/O 大会上,Google 推出了基于Gemini 的 "Conversational AI Search"。该功能支持多轮次、深上下文的交互(例如:“这双鞋适合西雅图的雨季吗?”),并能根据用户意图动态调整广告策略,直接简化了从发现到购买的决策链路。

虚拟试穿(Virtual Try-On)标准化: 5 月 20 日,Google 在Search Labs 全面上线了由生成式 AI 驱动的虚拟试穿工具。用户上传照片后,AI 能精准模拟面料纹理与垂坠感。这一功能不仅大幅降低了退货率,也成为了H&M、Everlane 等品牌提升转化率的核心工具。

Agentic Checkout(代理结账): Google 同样补齐了自动执行能力。新的"Agentic AI Checkout" 允许 AI 代理根据用户预设的偏好(尺寸、预算、品牌),自主追踪价格并在商家网站上通过 Google Pay 完成支付,真正实现了“看着买”到“帮我买”的跨越。

早期 AI 电商转换率表现亮眼。根据 Seer Interactive 调研数据显示,AI 电商的流量还初早期阶段,但其转化率远高于谷歌自然搜索流量,传统Google 自然搜索的购物转化率为 1.76%,而 ChatGPT 达 15.9%,Perplexity 10.5%,Claude 5%阿里巴巴:Qwen 重塑“万能助手”,打造中国版 Agentic OS。阿里巴巴通过通义千问(Qwen)APP 的全面升级,展示了其在 C 端Agent 领域的野心。2025年11月,阿里正式推出了基于 Qwen3-Max 模型的全新个人AI 助手,试图将“淘宝+高德+饿了么”的生态优势转化为 AI 时代的流量护城河。定位为"会聊天能办事的个人 AI 助手"。千问 App 公测一周下载量突破1000万次,上线仅 3 天就冲入苹果 App Store 免费总榜前三。计划将地图、外卖、订票、办公、学习、购物、健康等生活场景接入。目标是打造"Agentic AI",让用户只需一句指令就能完成跨场景任务。

2.3、云+基础软件:Agent 投产中必不可少的一环

AI 云时代,深耕 PaaS 带动业务正循环。传统云时代,云厂商业模式的优势相比传统服务器在于衍生出了高毛利的 PaaS+SaaS 层;但在AI 云时代,扩大Capex做强基础设施并捆绑 PaaS+Agent 并非是唯一路径。参考甲骨文CY25Q2云毛利率 14%,扣除部分折旧 7%+融资成本后,边际毛利率空间大幅收窄。因此做强高毛利 PaaS 层(Agent Infra)将成为 AI 云时代更具备ROI 的轻资产战略选择。云厂 Agent Infra 的首要选择:推理引擎+记忆引擎。Agent Infra 涉及Agent 运行时基础设施以及 Agent 平台等多个环节,基于模型路由的推理引擎以及基于RAG的记忆引擎能力的增强将助用户做出质价比的模型选择和延长对话及Agent 执行的上下文窗口,极大提升下游应用的可用性,特别是长文本场景的应用,如教育、医疗、客户管理等。从需求趋势来看,我们看到2025H2 海外大企业客户更倾向于基于大模型实现 Agent 自主化开发,加之代码能力增强降低开发者门槛,因此明年软件应用收入或通过云厂 PaaS 收入有所体现。

三方软件厂商的机会在于低价值量环节的整合。参考亚马逊Agentcore平台的主要组件,Memory 组件收费为每 1000 个新事件 0.25 美金;而Obeservability每1000 次调用仅收费 0.005 美金,我们判断,在低价值量赛道率先完成多云/跨云集成的公司将集中受益。

三、AI 半导体:AI 将占半导体半壁江山,关注硬件供应瓶颈环节

3.1 CAPEX 展望与技术趋势

AI 数据中心需求强劲,大型项目容量持续增长。以当前科技龙头的大型数据中心规划为例,2025 年总容量预估为 4,199MW,2026 年全年将增加4,624MW,总设计容量将达到 15.28GW,标志着 AI 数据中心需求持续上行的趋势。四大科技巨头中,谷歌、Meta 逐季上修 2025 年全年资本开支规划,从项目规划看,Meta(Hyperion、Prometheus)、亚马逊(Ridgeland、Rainier)、微软(Fairwater、Fayetteville)都将在 2026-2028 年达到 1GW 以上的量级,标志行业开始进入千兆瓦级别;OpenAI 方面,公司于 2025 年 9 月、10 月与甲骨文、英伟达、AMD、SK-海力士、三星电子签署一系列合作协议,其中,与英伟达、AMD的合作协议分别涉及 10GW、6GW 的算力容量。

技术趋势:能耗将成为硬科技各环节的投资重点。无论从投资规划反映的AI 数据中心总能源需求,还是单机柜 GPU 数量提升带来的机柜能耗提升,都将推动未来 2-3 年内行业各环节对热损耗的优化,以降低能源损耗:(1)先进制程:先进制程有助于提高芯片功效,未来 AI 芯片或将与手机芯片一同成为新一代制程的需求方,先进制程晶圆代工、设备公司有望受益;(2)存储:新一代HBM、eSSD有助于提高数据存储、读取效率,提高 GPU 的利用率并降低能源消耗;(3)网络:机柜内互联方案的复杂化将带来能耗提升,需要行业积极推动CPO、CPC等新方案以降低能耗;(4)电源:从 400V 转向 800V 有助于降低机柜外输电过程中的热损耗,技术转向将带动 SiC、GaN 等三代半导体需求;(5)液冷:液冷相比风冷可以实现更高效的散热,以提高数据中心TCO;(6)量子计算:量子计算在特定任务上具备数量级的效率优势,通过 AI 数据中心与量子计算机的整合方案有助于降低整体项目的 TCO。

3.2、AI 芯片:2026 年多个新平台上市,竞争白热化

GPU、ASIC 竞争将于 2026 年白热化。GPU 和 ASIC 之间的路线竞争仍然在延续,且将在 2026 年达到白热化阶段,一方面,英伟达下一代技术平台Rubin将于 2026 年推出,有望树立 AI 芯片新的前沿规格、技术方案标准,此外,AMD也将于 2026 年推出其首个机架级方案 MI400 平台,并已获得OpenAI 的长期合作协议,标志着新的 GPU 竞争者正在加入;另一方面,除谷歌TPU稳定迭代外,2026 年博通、Marvell 等 ASIC 厂商与包括 Meta、OpenAI、亚马逊在内的AI 龙头的新一代 ASIC 项目也将进入量产阶段,2026 年ASIC 相比新一代GPU是否具备 TCO 优势,将成为决定 AI 芯片竞争格局的重要因素。

英伟达:计算、网络持续迭代,保持技术领先优势。在计算方案上,英伟达将保持每年一迭代的进度,分别推出 Rubin(2026)、Rubin Ultra(2027)、Feynman(2028),此外,英伟达还将在 Rubin 平台上推出专门为Prefill 任务设计的RubinCPX,以优化 Rubin、Rubin Ultra 等旗舰芯片在 Prefill、Decode 两个任务间的算力分配;在网络方案方面,英伟达在 scale-up 环节向Marvell、高通等合作伙伴开放 Nvlink 部分协议,以扩大对非 GPU 市场的影响力,并先将在scale-out 环节推出 CPO switch,再向 scale-up 延申,标志着光通信方案的重大技术迭代。

AMD:2026 年 MI400 平台有望转化为 GPU 第二供应商门票。AMD经过过去3年在软件团队、系统解决方案团队的不断投入后,开始在AI 芯片市场获得一定的产品吸引力,公司将于 2026 年推出 MI400 平台,该平台为公司首个机架级解决方案平台。2025 年 10 月,公司与 OpenAI 签署合作合同,算力容量达到6GW,将从 2026 年下半年开始部署,首批交付 1GW AMD MI450 GPU,此外,AMD向 OpenAI 发行 1.6 亿股普通股认股权证,将随着GPU 交付逐步确认归属,直至6GW 合同完成。AMD 与 OpenAI 的合约有望推动MI400 平台在AI 芯片市场的竞争力,并为 AMD 确定 GPU 第二供应商的行业生态位。AI ASIC:谷歌 TPU 稳固发展,亚马逊、Meta、OpenAI 新项目26 年逐步爬坡。2026 年多个 AI ASIC 项目开始进入正式上市阶段。其中,谷歌TPU稳定迭代,第七代 TPU Ironwood 即将上市,Anthropic 近期宣布了多达100 万个TPU的计划,除谷歌稳定发展的 TPU 需求外,博通 2026 年有望正式量产Meta、OpenAI 等 AI 龙头的新一代 AI ASIC 芯片,其中,公司于2025 年10 月宣布于OpenAI 的长期合作订单规模达到 10GW 量级;亚马逊 Trainium 过去曾出现交付问题,但目前问题正在得到改善,截至 CY25Q3 Trainium2 已成长为规模数十亿美元的业务,公司将于 2026 年正式上市 Trainium3。

高通、联发科:尚处于 AI 芯片早期阶段。高通、联发科等手机SoC龙头近几年在 AI 芯片加大布局,高通于 10 月发布 AI 芯片 AI200、AI250,预计分别在2026年、2027 年商用,沙特阿拉伯 HUMAIN 已宣布将搭载200MW的AI200、AI250;联发科则宣布 2026 年 ASIC 收入将达到 10 亿美元目标,2027 年预计达到数十亿美元量级,此外,公司于 25Q3 宣布正在和第二个Hyperscale 客户讨论新的ASIC 项目,表明公司 ASIC 业务正在稳步推进。目前高通、联发科仍处于AI 芯片的早期阶段,对市场竞争格局影响有限,长期看,二者均为英伟达NVLinkFusion 的合作伙伴,或有望通过该协议的基础加快进入AI 芯片市场的进程。

结论建议:行业层面,在 AI 模型持续迭代,且计算、网络方案快速升级的背景下,英伟达的龙头地位短期不易被撼动,但在增长率方面,明年AMDGPU、博通以及 Marvell ASIC 在出货量和收入上或将因新项目的落地而更具弹性。此外,在多年持续增长的资本开支投入后,市场对数据中心折旧、ROI 的关注度进一步提升,虽在短期内难以验证、对比 GPU、ASIC 的全生命周期ROI 水平,但盈利目标的压力将加速科技龙头的自研芯片项目进度,同时,2026 年投资者的关注度也会向可能实现 Capex 优化的 AMD GPU、ASIC 倾斜。

3.3、AI 存储:供需周期反转,2026 年预计保持紧平衡

AI 服务器需求引发供给短缺,2025 年 H2 DRAM、NAND 现货价格走高。2025年下半年 DRAM、NAND 价格走高:(1)供给侧层面,经过2-3 年产能控制,DRAM和 NAND 稼动率已恢复至高位,2026 年产业预计以机台升级为主,尚未大规模拉动新设备投资,晶圆供给增量相对有限,且通用DRAM、NAND产能一定程度上受到 HBM 等高规格存储产品的产能挤占;(2)需求层面,除AI 服务器的强劲增长外,通用服务器、存储服务器的需求也出现边际改善,单位服务器的DRAM、NAND 规格也在提升,带动位元需求的快速增长,SK-海力士预计2026年DRAM位元出货量同比增速超过 20%,NAND 位元出货量同比增长high teen。

HBM:2026 年行业过渡至 HBM4,HBM4 出货占比预计达到43%。根据Yole预测,全球 HBM 市场规模预计从 2024 年的 170 亿美元增长至2030年的980亿美元,对应 CAGR 为 33%,占 DRAM市场的比例将从2024 年的18%增至50%,2026 年 HBM 需求仍然强劲,SK-海力士、美光均表示全年产能已经售罄。技术方面,2026 年英伟达 Rubin 芯片将推动 HBM 进入HBM4,根据TrendForce报告,HBM4 占 HBM 出货比例预计达到 43%,SK-海力士仍然是行业领导者,HBM4的迭代对 SK-海力士保持竞争力有利。 eSSD:AI 服务器拉动 eSSD 需求,HBF 等新技术可见度提升。eSSD(企业级固态硬盘)在速度、延迟、可靠性和能效方面好于机械硬盘,成为了北美数据中心 AI 服务器的存储载体,根据 Mckinsey 预测,eSSD 市场总量将以35%的CAGR增长,从 2024 年的 181EB 增至 2030 年的 1078EB,驱动力来自于AI 推理、RAG数据库等需求,此外,随着模型规模、复杂度增加,并向多模态加速渗透,每个推理服务器的 SSD 容量预计也将持续增长。技术方面,闪迪推出高带宽闪存(HBF),将通过类似于 HBM 的先进封装工艺提高NAND 的带宽,与HBM协同,弥补 HBM 的容量不足问题,推理需求提速有望加快HBF 落地。

机械硬盘:市场格局健康化,有望受益于 AI 冷存储需求。虽然HDD(机械硬盘)在 AI 服务器的生态位被 eSSD 替代,但随着 AI 生成的文本、图片和视频量提升,行业在 2022-2023 年完成库存消化后,恢复增长趋势。供给侧,西部数据、希捷为行业主要的供应商,市场占比总和达到 80%以上,二者均对扩产保持审慎态度,行业供给总体可控;需求层面,HDD 接近 80-90%以上需求来自数据中心市场,相比 DRAM、NAND 对消费级市场的敞口有限,根据西部数据管理层展望,行业位元需求 CAGR 预估为 15%,在 AI 需求的带动下有望达到23%的水平。

3.4、电源液冷:技术更迭价值量爆发,2026年一体化方案受益

到 2030 年 AI 数据中心将扩容 3.5 倍:根据麦肯锡(McKinsey)测算,随着全球AI 模型规模与算力需求持续爆发,数据中心建设投资正进入指数级增长阶段。预计 2025 — 2030 年间,全球数据中心总建设规模将由约80 GW提升至220GW 以上,其中 AI 数据中心占比快速提升至 70% 以上,整体容量较2025年扩大约 3.5 倍。 电源与液冷系统市场规模将达到 2 万亿美元:麦肯锡估算,到2030 年,随着AI 模型参数量与功率密度显著提升,单位机架功耗上到兆瓦级,驱动供电与散热系统升级,AI 数据中心建设 CAPEX 将增长至 8.9 万亿美元:IT 设备投资增长至 5.7 万亿美元(受 GPU 供货与 AI 训练集群扩张驱动);电源与液冷系统增长至 2.0 万亿美元(HVDC 配电、液冷模块及储能系统升级);工程与机房建设增长至 1.2 万亿美元。

AIDC 电源:2026 年一体化电源方案供应商迎来机遇:2025 年英伟达的《下一代 AI 基础设施的 800 伏直流架构白皮书》发布 800V 高压直流的普及主要经历三条路径,中间涉及到从白区到灰区的电源配套设施演进。随着Ai 服务器功率密度在 2025–2027 年进入 30–60kW 时代,电源链路从白区(机柜侧)向灰区(配电室、中压侧)快速前移,带来整流、配电、储能与母线系统的全链升级需求。从 48V/PowerShelf 向 800V 直流架构演进的过程中,整流器、HV-IBC、直流母线、配电柜、能量存储等环节的价值量明显抬升,形成一体化电源方案的新增空间。

在这一趋势下,头部一体化方案厂商有望深度受益:维谛:在机房级整流柜、直流配电、后门换热、机架级供电等领域布局完整,是北美运营商与头部 AI 客户的核心供应商,率先受益于800V 整流、HVDC配电柜与 BESS 直流储能的放量。 台达:在整流模块、DCDC、电源架、SST(固态变压器)等核心器件具备领先地位,有望从“48V→800V”的代际更替中实现单机柜价值量提升,以及在中压直流化过程中的产品渗透。 光宝:深耕服务器与 AI 机柜电源,在板级电源(VRM、IBC)、机架电源、功率模块等方面具备成本与规模优势;随着 HV IBC 成为800V 架构核心,其高功率 DCDC 产品将进入量升价增阶段。 施耐德:在配电柜、母线槽、直流保护器件及 BESS 方面具备全链条能力,能够提供从中压到白区的整体解决方案,将随 800V 配电与直流储能在新建机房的渗透而持续受益。伊顿:全球领先的配电与电能质量厂商,在直流断路器、配电网络、整流/逆变设备和储能融合方案具有优势,随着客户从 UPS 转向直流储能与HVDC配电,其产品矩阵将进一步受益于替代需求的出现。

液冷:2026 加速渗透:从传统空调到液冷,各技术的适用区间随机架热密度快速提升而显著分化。低功率阶段(3–10kW)仍以边界空调与抬高地板气流为主;随着机架功率进入 15–30kW,行级制冷与冷通道封闭成为主流;超过30–50kW后,被动与主动后门换热开始介入;当功率进一步提升至75–150kW以上,液冷成为必要配置,并在 150kW 以上的极高密度场景中成为唯一可行方案。

液冷全面进入规模部署期,浸没式液冷渗透加速:美国液冷市场在AI 服务器功耗持续上行的推动下将保持高增速,行业规模预计在未来十年实现4 倍扩张。技术结构上,直冷板因成熟度高与适配性强,仍将是主流路线;同时,随着机架功率密度进入 50–100kW 区间,浸没式液冷在极高负载场景中的优势加速显现,占比将持续提升。产业链方面,英维克、维谛、施耐德受益于液冷系统与机房级解决方案需求扩张;台达、光宝则在泵组、电源与控制模块中获得更高渗透,整体行业迎来中期成长机会。

英维克:受益于冷板系统与液冷站从单柜交付转向整排/整机房部署,液冷站、泵组与管路组件的系统 ASP 明显提升,订单量与单套价值量同步抬升。维谛:凭借液冷站、直冷板、浸没式、后门换热与机房级配电的全栈能力,在北美 CSP 的液冷与高密度机房招标中优势突出,2026 年将率先获得系统化方案导入带来的增量。 施耐德:依托液冷站、母线槽、配电柜与能耗管理平台的系统整合能力,在“液冷+配电”一体化方案中渗透度提升,受益于新建 AI 机房液冷基础设施成套采购的扩张。 台达:在液冷站电控、泵驱动与流量/温控传感模块具备优势,随着液冷系统从机械设备走向智能化运行,其控制系统和电控模块渗透率提升显著。光宝:在冷板配套、泵组件以及高功率 VRM/IBC 领域具备规模优势,GPU热设计功耗提升带来的板级电源与冷却配件需求同步增长,实现“散热+电源”双轮驱动的增量空间。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至