2025年央国企科技创新系列报告:人工智能与大模型专题
- 来源:招商证券
- 发布时间:2025/07/14
- 浏览次数:537
- 举报
央国企科技创新系列报告:人工智能与大模型专题.pdf
央国企科技创新系列报告:人工智能与大模型专题。与互联网产业一样,人工智能行业也遵循“技术-硬件-终端-应用”的发展范式,只不过技术端由通信网络变为大模型理论研究,其发展高度取决于上游AI芯片与算力硬件水平。当前国产芯片厂商正加速技术突破,叠加应用生态持续完善,推动生成式AI在多行业实现深度落地。大模型及其硬件基础架构构成产业核心价值,相关领域投资将同时获得技术突破红利与产业升级收益。全球大模型竞争格局:全球大模型技术进入深度竞争阶段,中美两国呈现差异化发展路径。OpenAI、谷歌、Anthropic等海外巨头的产品注重多模态理解与复杂推理能力,且具备强大的基础研究支持。...
一、人工智能与大语言模型发展状况:前沿与格局
1、从人工智能到大语言模型
中国互联网产业的发展范式遵循“技术-硬件-终端-应用”的次序,在 21 世纪初 凭借政策支持、市场开放和技术引进,中国互联网行业飞速扩张,使得以移动 设备为先、智能手机为后的互联网终端时代为企业和个人带来前所未有的产业 迭代和资本机遇。智能设备端,中国替代化效率显著,加上低廉的网络费用和 消费电子价格,国内网民数量由 2007 年末的 5,000 万人迅速提升至 2020 年末 的 10 亿人。如果说游戏、视频和电商等移动终端软件应用是互联网行业的爆发 支点,那么如今人工智能时代中的大语言模型及基于 Agents 的应用就是当今与 未来的行业爆发点。 互联网时代爆发的各类手机品牌、电商公司、以软件和应用为主的 IT 企业,对 应了人工智能时代下 AI 芯片厂商、负责研发大模型的互联网大厂、服务器与数 据中心设备供应商的明星地位。Agents 技术、AI 端侧应用及边缘计算等领域高 度依赖人工智能在技术与硬件端的发展趋势及算力上限,终端与应用端相对更 低的技术壁垒与投入成本使其不会成为人工智能行业的约束变量。 与互联网产业一样,我国的人工智能行业也遵循“技术-硬件-终端-应用”的发 展范式,只不过技术端由通信网络变为大模型理论研究,例如深度学习框架、 Transformer 架构和各种开闭源大模型;硬件端由服务器、路由器和 PC 等电子 设备变为技术门槛更高的 GPU、高速互联网络(如 InfiniBand)和服务器集群; 终端在互联网时代的手机和 PC 之外,加入了例如智能机器人、智能家居和自 动驾驶 EV 等边缘计算设备;应用端则从传统的搜索引擎和日常软件过渡为高 开发成本、技术门槛高的生成式 AI 产品。
大模型在人工智能时代中的地位就如同互联网时代中的浏览器应用。浏览器是 用户设备通过互联网技术,与所有应用互动的桥梁;而大模型及 Agents 技术则 是用户与任务、端侧 AI 以及边缘计算设备互动的桥梁。不同之处在于,互联网 时代的关键议题是让每位用户都能高效、低成本地使用互联网应用,因此更加 注重硬件(移动设备、PC)和应用端。人工智能时代则更强调技术与硬件,因 为以算力和算法为基础的人工智能行业需依赖坚实的理论基础,以保障算力增 长不受限于硬件演进速度。 根据《全球人工智能创新指数报告》,美国已连续四年位居第一,中国则保持全 球第二。人工智能的本质是提升计算效率、降低单位劳动成本,而近年兴起的 大模型是实现这一目标的关键技术变量。大模型通过融合文本、图像和音频等多模态信息,推理出最适合提示指令(prompt)的输出结果,这一过程正是生 成式 AI 的核心能力,也是其提升企业劳动效率的直接路径。最新大模型依托多 模态能力、端侧部署和边缘计算,逐步渗透至制造、商业、教育、金融等行业 场景,在为企业带来利润与效率增长的同时,也显著提升了上游 AI 硬件厂商的 投资价值。 从数据发展情况来看,国内在模型训练中的数据标注、数据清洗、高质量数据 供给上仍存在数据积累少、标准不统一、数据共享机制不完善等问题。国内在 人工智能基础研究上的差距使得高校和研究院更侧重于模型开发与训练,而在 人工智能行业基石的算力、算法和数据这些硬件和基础设施上投入不足,缺乏 高质量成果。因此,为巩固我国人工智能行业根基,必须加大大模型硬件端 (如 AI 算力芯片)投资,以促进行业更新与产品迭代。

2、把握 AI 时代风向:积极投资大模型芯片厂商
持续提高 AI 硬件端的技术上限是我国人工智能行业的首要命题,其相关产业在 近期将成为高回报潜力明显的资本投入方向之一。美国垄断地位体现在技术层 的英伟达与模型层的 OpenAI,具备坚实的基础层体系,中国近期注重打造从基 础层至应用层的全栈自主能力建设,整体产业呈现出“硬件决定上限,软件与 应用紧随其后,宏观环境决定生态效率”的独特特点。 中国互联网大厂如阿里云、百川智能、面壁智能、零一万物、昆仑万维等,自 2023 年 7 月起已进入开源模型密集建设期,模型参数规模持续上升,商业化案 例不断涌现。开源大模型是全球人工智能行业的主流方向,其基础框架便于企 业通过调参和定制化方式实现商业化落地,显著降低试错成本。另一方面,以 寒武纪、地平线、中兴微电子、壁仞科技、摩尔线程、后摩智能等为代表的国 内芯片技术直接决定国内大模型的性能上限。建议关注国内领先的 AI 芯片公司 和数据中心设备供应商;同时,为 AI 提供底层支撑的供配电系统、液冷散热、 高速互联与存储、以及 AI 软件生态领域亦值得重点关注。
3、全球大模型行业的竞争格局
当前全球大模型技术已进入深度竞争阶段,中美两国呈现出差异化发展路径。 海外企业如 OpenAI、Google、Anthropic 等在通用大模型领域持续领跑,代表 产品如 GPT-4、Claude 3 等展现出强大的多模态理解与复杂推理能力,整体技 术领先周期约为 12–18 个月。这些头部厂商正加速构建“模型即服务”(MaaS) 生态闭环,通过 API 平台和插件系统形成牢固的商业护城河。相比之下,中国 企业则更注重实际场景导向的发展模式,依托产业生态和政策支持,在中文处 理、行业适配、本地部署等方向实现差异化突破。百度文心、阿里通义、讯飞星火等国产模型,已在金融、政务、教育等重点领域展现出明显的竞争力。 从产业链视角看,中国人工智能正在经历从“软硬件解耦”到“全栈协同”的 战略转型。在算力层面,面对高端 GPU 进口受限等外部压力,国产芯片企业如 华为昇腾、寒武纪持续推进产品迭代,并通过昇思、CANN 等软件栈优化,实 现对超过 70% 主流 AI 任务的国产化适配。在数据资源方面,中文高质量语料 库建设显著提速,多个行业知识库已突破千亿 token 级别,强化了大模型的本 土语义理解能力。同时,ModelArts、BML 等平台推动 MLOps 工具链国产化, 从训练到部署的完整流程逐步打通,提升了国产模型的工程化效率与落地能力。 未来,国内 AI 龙头企业和大模型产品将围绕核心技术攻坚和产业场景落地两条 主线持续发力。一方面,模型压缩、低算力适配、多模态融合等方向将成为重 点,支撑政务、金融、医疗等高安全、高可信行业的大规模应用。以阿里通义、 百度文心、讯飞星火为代表的头部模型,正分别在智能客服、电商推荐、搜索 引擎增强、教育评测等场景中不断深化服务能力。在信创政策推动下,金融、 电信等行业的大模型国产化采购率已超过 45%,为产业生态建设提供了宝贵的 迭代反馈和真实场景验证。 另一方面,制造、交通、能源等传统行业将成为大模型赋能的新高地,尤其是 通过“AI+工业互联网”的结合,推动从预测性维护、质检优化到智能排产等生 产环节的智能化升级。同时,随着端侧设备算力提升,端侧大模型(如语音助 手、车载系统、AI OS)也将加速普及,赋能消费电子、智能家居等场景,打造 “端云协同”的新型技术生态。
在这一轮技术升级中,中国大模型产业将继续践行“重点行业优先突破 + 底层 技术自主演进”的发展策略,推动形成技术自立、生态完善、上下游联动的产 业体系,进一步带动云计算、数据服务、边缘算力等关键环节协同发展,成为 推动数字经济高质量增长的核心动能。同时,也需积极应对生态壁垒、数据合 规、芯片封锁等外部挑战,把握住垂直行业深度赋能、端侧 AI 爆发、新型人机 交互等结构性机遇。 展望未来,中国大模型产业将面临三重关键跃迁:1)从技术追赶向局部领跑转 变,在细分赛道形成全球对标优势;2)从单点突破走向生态协同,实现模型、 平台与行业应用的系统整合;3)从试点验证迈向规模商用,推动 AI 能力融入 千行百业。这一趋势将进一步重塑全球人工智能竞争格局,为中国科技产业带 来长期结构性增量,也为投资者提供新一轮具备产业纵深与成长性的布局窗口。
4、海外 AI 企业的进展
(1)OpenAI
OpenAI 在 2025 年 4 月发布的两款 o 系列推理模型,o3 和 04-mini,带来了推 理能力的飞速增长,还具备自主选择工具解决复杂问题的能力。虽然 OpenAI 未正式公布 o3 的参数数量,不过由于 o3-mini 模型已达 2 千亿个参数,o3 的参 数数量可能位于万亿级别,达到 DeepSeek R1 模型的 2 倍以上。 o3 模型强大的推理能力为编程、数学、科学、可视化领域带来新突破,并且在 高复杂性、多层次分析以及图片与图表分析的误差率上比 o1 模型低 20%。这 款模型在软件工程、商业和咨询、创意创作等领域里具备很强大的落地能力。在模型架构上,o3 采用密集变换器(Transformer)架构,意味着每一个参数都 全程参与运算,并以略高的成本维持高质量输出。而 o4-mini 则可能采用一种新 的架构优化或专家路由,展现小规模模型高效率、低成本的竞争优势。 OpenAI o4-mini 模型则更注重成本优化和效率,它的小规模设计使其在数学、 编程、可视化数据处理上更具性能与功耗比,以低成本优势媲美百亿级模型。 o4-mini 自主使用工具的能力非常强大,在具备 Python 场景下,它在 2025 年 的 AIME 美国数学竞赛问题中达到了 99.5%的通过率;而在同等条件下,o3 仅 有 98.4%的通过率。显然,o4-mini 在具备适合的工具环境下的推理表现不劣于 o3。 硬件端和算法设施迭代产生的计算量潜力通常预示新一代大模型的迭代。从历 史上看,AI 的重大飞跃,例如从 GPT-3 到 GPT-4 的过渡,都得益于芯片、算 法和数据中心建设所带来的百倍算力提升。由于大模型的发展始终围绕着以更 低的单位成本解决难度更高的问题,我们预计,在下一代 OpenAI 模型问世之 前,硬件端和数据中心能力将出现显著的进步和迭代。建议关注数据中心和上 游芯片企业的投资机会。 Open AI 今后的研究重点为多模态交互增强、提高模型对复杂信息分析与内容 生成能力、降低误导性信息输出、优化硬件需求以实现低能耗运行。多模态交 互增强意味着先提高模型对文本、图像、音频信息的理解与生成能力,然后在 降低模型在复杂上下文语境下理解、生成的犯错概率,并且通过算法优化降低 运行能耗。这将为 Open AI 模型带来医疗、教育、客户服务等领域的落地机会。 例如,在医疗场景下执行 AI 治疗诊断,或教育场景下的个性化学习推荐。
(2)Anthropic
Anthropic 在 2024 年 6 月发布的 Claude 3.5 Sonnet 凸显超过 GPT-4o 的编码 能力,并且可以通过 Sonnet API 像人类一样使用计算机,包括查看屏幕、移动 光标、点击和键入文本等。Claude 3.5 Sonnet 在 SWE-bench Verified 代码能 力测试的成绩从 33.4 分提升到 49 分,超过当期包括 Open AI o1-preview 在内 的所有公开可用模型。Anthropic 在 2024 年 H2 专注于提升 Claude AI 聊天机器 人的用户体验、推出企业级生成式 AI Claude Enterprise、对消费级用户提供三 级定价,并且也通过和数据挖掘公司 Palantir 和亚马逊合作,逐步踏入国防场 景应用,以 AI 帮助政府完成大量的复杂数据处理和情报分析。 Claude Sonnet 4 和 Opus 4 为公司下一代最先进的智能模型,前者为性耗比更 高的日常消费级模型,后者是为企业和专业领域打造的高端旗舰模型。两款模 型的上下文窗口相等,但后者的最大输出长度达到两倍。在定价方面,Sonnet 4 模型每百万 token 的输入/输出价格分别为 3 美元/15 万美元,Opus 4 分别为 15 美元/75 美元;Sonnet 4 的性价比优势为 80%,并且性能表现几乎与 Opus 4 模型持平,使其适用于日常编程开发、内容生成、原型开发等日常工作需求; 而 Opus 4 的性能优势则需要在大型代码库重建、高级 AI 代理开发、科学研究 等复杂领域才能充分展现。 Anthropic 的下一目标是迈向通用人工智能,包括提升推理和工作代理能力、增 强多模态能力、优化长上下文理解、拓展 AI 与物理世界的交互等等。公司在年 初前后获得了谷歌和亚马逊的大额融资,并在 2025 年 3 月获得 E 轮的 35 亿美 元融资。Claude 系列模型已经接入亚马逊 AWS 平台,方便企业和开发者随时访问并部署 Claude,尤其通过亚马逊 Bedrock 服务,实现便捷、安全且可扩展 的 AI 应用构建。与此同时,Anthropic 已与谷歌签订了高额云计算使用合同, 并且谷歌在自家模型平台 Vertex AI 上为 Claude 提供官方入口,这极大地拓宽 了 Anthropic 的用户基础和市场渗透率,助其积攒更多互联网场景用户。
(3)谷歌
谷歌在 2025 年 6 月面向公众发布 Gemini 2.5 Pro/Flash/Flash-Lite 三个档次模 型,Pro 的高性能配置适用于复杂性处理,Flash-Lite 更适合消费级场景。定价 方面,Gemini 2.5 Flash-Lite 每百万 tokens 的输入/输出价格为 0.1 美元/0.4 美 元,高配版 Pro 的价格为 0.3 美元/2.5 美元,在同档次模型定价上均低于 Anthropic 的 Claude Sonnet 4 和 Opus 4。 Google I/O 大会上公布了许多面向消费级用户的内容:1)通过 iOS 和 Android 手机屏幕共享与 Gemini 实时对话的 Gemini Live;2)图像生成模型 Imagen 4 和影片生成模型 Veo 3;3)集创作、编程和设计于一体的 Canvas 平台功能更 新;4)面向大学生的一年制免费 Gemini Pro 订阅等。谷歌 Gemini 系列注重多 模态工具落地化和快速部署能力,每一项更新都以“降低门槛,加速创造”为 核心目标。我们预计,Gemini 系列未来在持续强化多模态性能的同时,将持续 围绕消费级创作和多元化适用为切入点,在平台嵌入和功能方面强化生态优势。 企业级应用方面,Gemini 已将生成式语言、生成式图像两种功能嵌入 Google Workspace 平台之中,用于阻止垃圾邮件、钓鱼式攻击、长文本摘要与撰写、 实现业务流程自动化等商务内容,使企业员工无需将精力浪费于高重复性工作 上,有更多时间来完成更耗时、更困难的工作内容。Gemini 强大的平台适应性、 快速响应力、易用性使其能够随时充当 AI 研究分析师、销售助理、创意助理、 会议记录助手、办公伙伴等商务角色。 谷歌在内部战略会议上公布了 2025 年的核心计划:将 Gemini AI 列为主要发展 对象,通过加速扩展、大规模发展实现跨设备和多模态的升级,并且持续保持 大模型竞争格局之中的领先地位。
(4)Meta 和 Mistral AI 等
Meta 在 2025 年 4 月公布 Llama 4 系列的 Scout/Maverick/Behemoth 模型,是 首批采用 MoE 架构的产品,MoE 架构运算中只采用小部分参数,而非 Transformer 架构中的全局激活,因此训练和推理的计算效率较高。Behemoth 模型的性能最强,总参数规模达到 2 万亿个;Scout 模型具有 1,090 亿个参数, 适合大型代码库推理、文档摘要、高效信息提取等商务用途;Maverick 的总参 数量为 4,000 亿个,支持语音与视觉输入、多语言支持以及强大的编程能力。 Llama 4 Scout 的长上下文窗口达到突破了开源模型记录的 1,000 万个 tokens, 领先于 GPT-4o,使其在超大上下文处理、复杂对话与多轮推理任务中表现出色。 Meta 已经在 LlamaCon AI 大会上透露了独立的聊天机器人应用 Meta AI,它将 效仿市面主流大模型的对话型内容生成、图片生成等消费级功能,并且在定价 方面可能采取免费、订阅式付费两个版本。我们预计,Meta AI 问世后的首批付 费服务将主要针对消费级应用以及复杂性质略低的商务用途。Meta 首席产品官 Chris Cox 表示,Llama 4 将推动 AI Agent 的发展,利用水平更高的推理能力完 成企业级与消费级的任务处理。此外,Meta 最近也在美国建设一系列数据中心,以推动公司在互联网、人工智能与元宇宙领域的发展。 Mistral 是 法 国 的 初 创 公 司 , 自 2023 年 成 立 以 来 先 后 推 出 了 Mistral Small/Large/8x7B 三款模型。Mistral Large 在大模型编码测试 HumanEval 中 的问题解决率达到了 45.1%,超越了 LLaMA 270B(29.3%)、与 GPT3.5 相当 (48.1%),并与 GPT 4(67.0%)相比略有差距。Large 的数学性能(45.0%) 表现更佳,显著优于基准测试中的 LLaMA 270B(13.8%)、GPT 3.5(34.1%) 和 Gemini Pro 1.0(32.6%)。Mistral AI 模型普遍采用 MoE 架构,具备高效、 低成本、高扩展性和高计算性价比等优势。Mistral Small/Large 目前具备 32k tokens 上下文长度与多语言支持,以低企业应用成本的竞争优势媲美前沿性能。

5、大语言模型核心技术原理与应用层解析
变换器架构是大模型的核心技术,它通过其自注意力机制能够有效捕捉数据中 的长距离依赖关系,并实现并行处理输入数据,从而形成新的表示。目前,海 外主流的大模型几乎都采用了变换器架构。变换器架构给予大模型同时捕捉所 有信息与信号,以及快速处理的能力,使其更擅长高复杂度、高质量内容生成。 MoE(Mixture-of-Experts)专家网络架构是在变换器架构基础上的一种创新。 它引入了多个分离的“专家”子网络和一个门控网络,使得模型能够根据任务 类型和性质部分激活(或组合)相应的专家子网络。这种方法不仅显著提升了 模型处理复杂任务的能力和效率,更增强了模型的扩展性,而非仅仅是为了缩 小计算能耗。需要区分的是,MoE 与变换器并非是平行或互相独立的架构技术, 而是基于变换器架构上的一种变体,其核心目的是降低大模型的计算量,提高 模型的性价比与扩展性。MoE 架构本质上像一种“按需调度”的团队,针对不 同类型的任务,仅激活最合适的专家模块,从而显著提高模型的扩展能力与推 理效率。
(1)Transformer 变换器架构
变换器架构具备并行处理序列数据的优势,而非像传统循环神经网络(RNN) 中的顺序处理。变换器的组件构成通常分为三类:编码器-解码器架构(适用于翻译、摘要等序列任务)、仅编码器架构(适用于简单文本理解及分类)、以及 目前文本生成式大模型广泛采用的仅解码器架构。Open AI GPT 系列、 Anthropic Claude 系列、 Meta LLaMA 系列和 Mistral AI 模型都采用仅解码器架 构,并在高配模型之中部分纳入专家网络架构。 变换器架构的特点包括 1)自注意力机制:允许模型同时处理计算序列中所有 词元间的关联性,而非逐一处理,提高并行计算效率;2)前馈网络(FFN): 每一个经过自注意力层的词元独立通过 FFN 并行执行非线性转换;3)多头注 意力与并行训练:通过并行运行多个自注意力机制,从不同角度提取输入信息, 并且利用 GPU 加速模型训练的过程。
(2)MoE 专家网络架构
专家网络(MoE)架构通常与变换器架构结合使用,它专注于提升大模型规模 的效率,并且通过引入稀疏激活实现更大数据量下的高性能。专家网络层由多 个独立的“专家”子网络构成,每一个子网络负责特定类型的推理任务。此架 构典型的推理过程为:1)专家分配:针对某一项推理任务,专家网络中的门控 网络会将每一个输入词元分配给一个或多个专家子网络并行处理;2)条件计算: 不同的专家根据任务性质被并行“条件激活”,而未被激活的专家不必参与计算, 大大地缩小计算成本。专家网络的另一个优势为扩展性,亦即允许模型在不显 著增加计算资源的情形下,扩大模型容量,并提高复杂推理性能。

6、AI 行业发展对我国技术路径之启发
当前,全球人工智能和大模型技术正以前所未有的速度发展,成为引领新一轮 科技革命和产业变革的核心驱动力。ChatGPT、视频生成模型 Sora 等海外 AI 的突破性进展,不仅展示了通用人工智能的巨大潜力,也深刻影响着全球产业 格局。近年来,海外 AI 及大模型领域的趋势可以总结为:
技术迭代加速: 以 Transformer 架构为基础的大模型,在自然语言处理、 计算机视觉、多模态理解等方面取得了里程碑式进展。模型参数规模持续 扩大,性能不断提升,并在各个垂直领域展现出强大的通用能力。
应用场景拓宽: 大模型正从实验室走向实际应用,在智能客服、内容创作、 代码生成、科学研究、医疗诊断等多个领域展现出广泛的应用前景。其强 大的泛化能力正在重塑传统行业的生产模式和工作流程。
生态系统日益完善: 围绕大模型的开源社区、算力基础设施、数据标注平 台、应用开发工具等生态环节日益成熟,吸引了大量开发者和企业参与, 共同推动技术创新和应用落地。
算力竞争加剧: 大模型的训练和推理对算力需求巨大,高性能计算芯片、 云计算服务、智算中心等基础设施的建设成为各国竞争的焦点。
伦理与治理问题凸显: 随着 AI 大模型能力边界的拓展,数据隐私、算法 偏见、信息茧房、内容安全等伦理和治理挑战日益突出,引起国际社会广 泛关注。 海内外 AI 与大模型的发展阶段与竞争格局存在差异。根据我国 AI 行业目前的 发展阶段,未来发展重点方向为:投资产业链上游的硬件基础设施,如 AI 芯片、 AI 服务器和集群、高速互联、存储技术等;助力我国 IT 企业提升数据处理技术, 加速完成包括数据采集、预处理和标注等必要的大模型训练前奏,并且在开源 算法框架上(如 PyTorch、TensorFlow 等)支持开放创新生态;同时注重引入 AI 领域的高端人才及人才培养。
7、投资机会展望
产业生态构建与 AI 技术融合是把握国内大模型时代红利的关键。根据目前的行 业趋势与大模型的发展状况,从投资的角度来看,未来可以关注: 1) 底层算力基础设施建设:随着大模型对算力需求的爆发式增长,智算中心、 高性能计算集群、AI 芯片研发等领域存在巨大投资机会。可在基础设施建 设、芯片设计制造、以及相关供应链方面进行战略布局。 2) 垂直行业大模型研发与应用:针对央国企所处的能源、交通、制造、金融、 通信等特定行业,定制开发和部署行业大模型,将极大提升业务智能化水平。 这包括投资于行业数据积累与清洗、模型训练与微调、以及应用系统集成。 3) 大模型赋能的工业软件与解决方案:大模型技术将深刻改变传统工业软件 的开发模式和功能。投资于基于大模型的工业设计、仿真、生产管理、质量 控制等软件和解决方案,将帮助央国企实现数字化转型升级。 4) 安全可控 AI 技术及产品: 鉴于国际地缘政治环境,自主可控的 AI 核心技 术、平台和产品将成为战略重点。 5) 大模型驱动的创新业务孵化:利用大模型的通用能力,探索孵化全新的产 品和服务模式。例如,基于大模型提供企业级智能咨询、自动化内容生成、 智慧决策支持等增值服务。 6) 投资大模型相关上下游产业:围绕大模型生态的数据标注、模型评测、知 识图谱构建、伦理治理工具等上下游环节协同投资。
二、AI 大模型硬件投资机遇:算力基石与国产替代
大模型行业遵循“硬件-终端-应用”的发展逻辑,由算力芯片的技术追赶为行业 底层支撑,以终端落地与商业化为企业盈利切点,再通过 AI 算力+终端在应用 侧的广泛布局、创新和迭代来构建下一条 S 型曲线。国产 AI 算力芯片在制程、 工艺、性能和落地场景上不断进步,增长空间显著,领先供应商体现出技术壁垒较高,渗透率高,以及次级供应商产品供应丰富、产品适配性强的竞争格局。
1、国内 AI 芯片的供应、竞争与投资机遇
近年来,国产 AI 芯片的快速发展为国内大模型训练与推理提供了关键算力支撑, 以华为昇腾、寒武纪 MLU 等为代表的芯片通过优化计算架构和能效比,显著降 低了千亿参数级大模型的训练成本,使得文心一言、通义千问等模型得以在国 产硬件生态中实现技术突破,同时推动了边缘端 AI 应用的落地部署。 大模型产业链分工明确,上游主要系硬件(芯片、服务器等)和软件,下游为 金融、办公、传媒、医疗、电商等 AI 落地场景。大模型行业的核心商业模式是 硬件端的技术驱动,通过不断增加芯片算力、模型的参数规模、数据量级、泛 化能力来实现资本盈利和传统产品替代。AI 芯片属于研发周期长、高成本、技 术门槛高的行业。国内大模型中游主要由阿里、腾讯、百度、华为等互联网大 厂构成,它们主导模型的研发、部署以及解决方案。其中,华为、百度和阿里 具备独立研发的 AI 芯片,而其他大厂更多采取与芯片企业合作的方式完成大模 型的研发与落地。国内大厂在近期无法完成国内芯片研发与供给的产业痛点, 故 AI 芯片供应商将在近十年内保持高议价能力。 因此,大模型中的人工智能芯片是硬件端的技术节点,也应是投资的切入点。 按技术架构分类,常见的 AI 芯片为 GPU、FPGA 和 ASIC;按应用场景分类, 云端 AI 服务器经常采用 CPU+GPU/FPGA/ASIC 等三种组合模块。这类 AI 芯 片的国内供给厂商有寒武纪、地平线、华为海思、中星微电子、云天励飞等。 国内 AI 芯片的泛落地场景包括智能驾驶、智能城市、公共安全、物联网、边缘 AI 推理与工业场景等等。同时,国内领先的 AI 芯片厂商几乎已与相应的企业取 得合作关系,并已推出行业解决方案或市场化产品。AI 供应商在国内大模型行 业中占据难以撼动的上游地位,同时还在边缘 AI 领域具备许多跨行业的落地场 景和市场空间,具备极大的投资潜力。
国内 AI 厂商的竞争格局为:技术优势向头部企业聚拢,广泛的 AI 落地场景使 头部企业渗透率倍增。以海康威视为例,公司已在 2023 年底分别在公共安全、 交通管理、民生服务、生态环保、智慧城市等领域研发了超过 250 项定制化的 行业解决方案,并且已经拓展出超过 500 种特定行业的智能硬件应用。未来 AI 硬件的头部企业将继续扩张行业覆盖面积,加深 AI 硬件的应用范围,并且巩固 其市场份额。预计国内 AI 芯片厂商的市场集中度将持续提高,在近五年内迎来 较为显著的投资回报率。 AI 领域中的领先企业通过扩展海外制造基地,搭建全球供应链,以触达更广阔 的市场。以华勤技术为例,公司的全球化“1+5+5”战略布局将上海总部设为 核心,并将东莞、西安、南昌和无锡设为辅助性研发中心与国内制造中心。华 勤技术还在越南、印度和墨西哥等地扩展海外生产基地,形成全球化的业务布 局和竞争优势。预计更多头部 AI 厂商将加快海外研发与生产基地布局,拓展 AI 硬件市场;可以重点关注具备海外布局能力的国内 AI 厂商。
2、GPU:AI 训练与推理主力
2022 年,美国政府出台禁令限制英伟达向中国出口高端 GPU 芯片及相关 CUDA 软件,这一举措直接切断了中国 AI 产业的关键技术供应链。在此背景下, 中国 AI 芯片产业迎来爆发式发展,以寒武纪、壁仞科技、后摩智能为代表的创 新企业迅速崛起,与阿里、百度等科技巨头及中芯国际等传统芯片制造商形成 产业联盟,共同推进自主可控的 AI 芯片技术研发与生态建设。这一产业协同效 应不仅填补了技术空白,更为国内人工智能产业的自主发展奠定了坚实基础。 AI 算力芯片的任务类型分为两大类:训练和推理;其中,训练芯片侧重计算力, 推理芯片侧重高效率与低延迟率,推训一体芯片则注重计算力、功耗和灵活性 之间的平衡。国产产品大多为训练侧或推理侧芯片。 TOPS 是衡量 AI 芯片算力的指标,更高的值意味着芯片在单位时间内能完成更 多的计算任务。算力领先的国产产品有寒武纪的训练侧 MLU290(512 TOPS)、 壁仞科技的训练侧 BR100(2,000 TOPS)、阿里集团平头哥的推理侧含光 800 (820 TOPS)和天数智芯的训练侧 BI(295 TOPS)。 制程指半导体制造工艺的最小特征尺寸,国际领先标准为台积电的 3nm/5nm 工 艺,应用于英伟达的 Hopper H100/Blackwell B100、AMD 的 Radeon RX700 系列和苹果的 M3/M4 系列集成 GPU 芯片。国产领先的制程水平为 7nm,代表 厂商有寒武纪、海光信息、沐曦、天数智芯、壁仞科技等。可以重点关注具备 算力强大、制程工艺先进、研发团队强劲三个特点的国内 GPU 厂商。
3、ASIC:固定计算场景的性价比之王
GPU 芯片在 AI 计算中有约 15%的晶体管处于闲置状态,而 ASIC 则具备定制 化、低功率、小体积等特点,使其更适合功能固定的运算场景;例如用户侧部 署、智能驾驶、智能家居、AI 眼镜等等。尽管 ASIC 也可用于模型训练,但其 在推理领域的优势尤为突出——效率与速度可达 CPU 的 100-1,000 倍,同时在 性能成本比上显著优于 GPU 和 FPGA。 在投入回报上,虽然 ASIC 的前期定制化成本较高,但大规模量产后单位成本 可降至 GPU 的三分之一;中等复杂度的 ASIC 的盈亏平衡点在 10 万片左右, 成本优势更利好中小型厂商。对云计算或 AI 应用提供商而言,定制化 ASIC 能 大幅降低长期运营成本,缩短盈利周期。 国内领先的 ASIC 制造商有寒武纪、中芯国际、中兴通讯、紫光国微、瑞芯微、 芯原股份、翱捷科技、富满微、睿创微纳、中微半导等。寒武纪专注于包括ASIC 在内 AI 芯片的设计,系国内 AI 芯片的领航者;紫光国微作为国产 ASIC 龙头之一,以特种集成电路和安全芯片为核心,业务覆盖智能安全芯片及特种 IC;富满微的 ASIC 产品主要应用于通信及消费电子领域;芯原股份提供高定 制化、低成本的一站式 ASIC 设计服务,技术及规模优势显著;瑞芯微作为行 业早期入局者,长期为大模型训练与推理提供高性能、高能效的 ASIC 解决方 案。ASIC 国内市场份额约为 GPU 的三分之一,但伴随 AI 推理、边缘计算等场 景的定制化需求提升,国内龙头厂商的成长性与投资回报空间有望继续扩大。
4、FPGA:灵活性与定制化优势
FPGA 的可重新编程性和灵活性使其可以在大模型算法不断演进、模型架构频 繁更新时,重新编程或定义以适应变化,无需更换或重制硬件。整体来看, FPGA 比 ASIC 更灵活,其计算能效在小批量、低延时的场景下优于 GPU。但 是 FPGA 的开发与编程过程比 GPU 复杂,因此编程成本是首要的考虑因素。 FPGA 在通信领域中的应用规模最广:例如,5G 基站的信号处理和数据处理; 工业领域中的视频、图像处理和信号控制;EV 的智能感知系统(ADAS)、车 载设备的信号处理与控制等。数据中心也常常将 FPGA 芯片低延迟、高吞吐量 的优势应用于运算处理加速。FPGA 市场目前几乎完全被海外企业垄断,英特 尔和 AMD 占据了 2019 年 85%的全球市场份额。目前的行业领航者 Xilinx、 Altera/英特尔、Lattice、Microchip 等美国公司共占据全球约 90%的市场份额。 目前,500k 以上的高容量 FPGA 是国产替代的难点,国内厂商需要在硬件架 构、IP 性能、EDA 软件等多方面深入发展,并且解决 EDA 软件在大规模 FPGA 布局中的布线问题。国产 FPGA 中最高水平的 400k 逻辑单元,仅达国 外容量最大的 AMD Versal Premium 逻辑单元数(18,507k)的 2.16%。国产最 先进的 14/16nm FPGA 在制程工艺上仍落后于 Xilinx 早在 2018 年发布的 7nm 异构 Versal。因为技术门槛较低,国产 FPGA 通常集中在消费电子领域中的低 容量替代(接口桥接、协议转换、传感器管理等),并且在 28nm 的中容量市场 (工业、汽车、无线通信、航空航天与国防)中具备相对成熟的产品。AMD 在 高端市场中保持 65%-70%的毛利率,而国内 FPGA 厂商的典型毛利率仅达 35%-40%。不过,部分 FPGA 国产厂商已经在 45/55nm 领域逐渐逼近 Xilinx Spartan 6 的水平,代表企业包括紫光同创、安路科技、智多晶等。

三、大模型产业链的投资机遇:延伸算力生态
在硬件端以外,与大模型行业密不可分的供配电系统、散热技术、高速互联与 存储开发者软件平台及生态终端亦具备优良的投资前景。供配电装置技术壁垒 低于人工智能基础研究,国内已经有诸多家企业具备跨行业落地案例,龙头集中度中等。液冷散热方面,国产产品的降温能力不低于算力上限,各家互联网 大厂的数据中心未来需要更高的散热性能,提升液冷散热技术的回报潜力。高 速互联、存储与软件生态方面,国内已具备初步产品布局,但是更开阔、创新 激励性更强、政策支持更显著的开发生态将进一步促进行业迭代和资本红利。
1、上游机遇 1:光模块及光器件
算力需求提升带动网络带宽成倍增加,驱动数通光器件需求高增。AI 大模型的 训练和推理需要处理海量数据,并依赖于大规模 GPU 集群内及集群间的高吞吐 量、低延迟互连。因此,大模型的快速发展对网络硬件的性能提出了更高的要 求,数据通信的互联速率正从 400G 向 800G 快速过渡,并进一步向 1.6T 甚至 3.2T 演进。光模块等光器件作为实现高速数据传输的核心组件,在全球互联网 云厂持续加大资本开支建设或升级数据中心的背景下,需求快速增长。2024 年, 400G 以上的高速光模块全球出货量近 2000 万只,2025 年预计将增至 3700 万 只。据 Cignal AI 预测,数据通信光器件全市场规模在 2025 年将增长超过 60%, 达到 160 亿美元以上。
数通速率提升推动光模块技术的快速迭代,也对连接器的性能指标提出更高的 要求,驱动光互连成为主流路线。美国半导体厂商 Amkor Technology 指出,AI 加速器、GPU、高容量交换机正在快速实现算力的提升,但在芯片间、主板间、 机架间的互连瓶颈,仍制约着数通速率的提升。根据康宁,当数据速率达到 200 Gb/s 时,通过铜缆传输电信号的物理性能将达到临界点、所需的功率也将 过高。随着 AI 模型对数据传输带宽的要求持续攀升,铜互连技术逐渐暴露出性 能瓶颈;相较而言,光互连具有传输损耗低、带宽容量大、抗干扰能力强及支 持长距离传输等优势。 受益于 AI 驱动数据中心架构高速迭代,光模块/光器件是核心受益环节,中国 相关企业竞争力突出。根据 Lightcounting 统计,2024 年前十大光模块厂商中, 有 7 家属于中国企业,中际旭创连续三年排名第一,央企中国信科旗下光迅科 技、青岛国企海信宽带、武汉国企华工科技也均名列前十。随着全球大模型加 速更新迭代,海外云厂商加大资本开支,国内算力链建设进度也逐步提速,高速光模块需求持续攀升。将光引擎和 ASIC 芯片共同封装在一起的 CPO(光电 共封装)技术,具备性能和功耗的双重优势,相关产品将在 2025 年下半年逐步 交付,或推动下一代数据中心架构逐步扁平化,成为主流光互连解决方案,为 光互连器件提供增量需求。
2、上游机遇 2:供配电技术
AI 算力演进提升数据中心的供电需求,引导供配电系统向模块化、预制化和集 约化发展。供电指从数据中心从外部电网或发电机获取电力,电力经过变压后, 再将转换后的电力按需分配至数据中心内不同区域的设备以完成配电。稳定的 供配电是 AI 算力中心的底层刚需,提供易部署、适配度高、高性价比和稳定性 的供配电厂商将会迎来增长机遇。国内代表供配电标的包括科华数据、科士达、 中恒电气、禾望电气、科泰电源、亿纬锂能等。 科华数据提供各式变流器、逆变器、蓄电池、电力解决方案及外部电源,系产 品矩阵最丰富的供配电厂商之一。中恒电气主攻 5G 领域的电力系统及相关模 块化组件、数据中心供电系统预制化解决方案,服务体系较为成熟。禾望电气 提供一体机、变流器、变频器以及各类电力系统的模块化组件,在功率与性能 上选项丰富。科泰电源主攻电站及电力控制系统。亿纬锂能主攻储能电池、动 力电池以及锂电池技术,落地场景偏向物联网和 EV 领域。 除了从外部电网供电,AI 数据中心亦可采用备用电源供电。常见的外部供电技 术包括小型模块化反应堆、固态氧化物燃料电池、大功率 UPS(不间断电源) 和柴油发电机。科华数据在大功率 UPS 上已有布局,欧陆通已推出多种高效率、 高功率密度的数据中心电子电力产品,落地场景丰富,服务体系成熟。
3、上游机遇 3:液冷散热
随着 AI 算力需求和芯片性能不断上升,未来 AI 服务器将需要降温能力更强、 能耗更低的散热技术。AI 数据中心高功耗的特性使液冷技术低能耗、高散热的 优势突出。以 AMD Opteron、英特尔至强、奔腾建立的传统 CPU 服务器处理 器的单个功耗范围为 50W~220W(中低端 PC、家用电视的水平),而基于英伟 达 A100/H100/B200、昇腾 910B 建立的 AI 服务器处理器的单个功耗范围为 220W~1,000W,对应的额外散热需求约达到 4~5 倍。算力升级几乎必然带来 散热需求的全盘上升,为国内液冷市场及相关供应商带来增长空间。 市场上两种主流的服务器液冷技术为冷板式液冷和浸没式液冷;冷板式液冷的 产品成熟度较高、行业布局多,应用范围广泛;浸没式液冷则以接近百分百散 热效率和成本优势有望成为新式技术路线。冷板式液冷的散热机理为导热板传 热,冷却液不直接与热体接触;初始定制成本适中,后续运维成本低,兼容性 极强;冷板式液冷的市场占比约为 65%,国内主流供应商为浪潮信息。浸没式 液冷需要发热体完全浸泡在冷却液内,需要较高的冷却液成本,并且需要兼容 性测试;但是后续运维或系统改造的成本较低;浸没式液冷的市场占比约为 34%,国内主流供应商为曙光数创。 液冷市场潜力巨大,可以考虑积极布局数据中心液冷及散热领域。液冷泵是液 冷系统的核心组件。根据数据中心的规模,每一个采用液冷技术的 AI 服务器至 少需要数十个至上百个液冷泵。AI 算力升级与大模型行业发展使液冷系统组件成为行业刚需。国内液冷泵供应商中金环境、新界泵业、大元泵业正在逐渐替 代格兰富、威乐等外资厂商;并且中金环境的液冷泵已经广泛应用于华为、腾 讯的数据中心。液冷技术成熟、产品矩阵丰富、具备头部服务器厂商合作关系 的国产液冷供应商均有望带来显著回报。

4、中游机遇:高速互联与存储
更先进的互联与存储技术将有效缩短训练过程中数据加载和传输的时间,从而 提升训练效率。大模型的训练过程包括许多文本、图像、音频和视频数据频繁 地在内存、显存和存储设备之间进行传输和交换。在分布式训练场景下, InfiniBand 和以太网(RoCE v2)为系统提供每秒太字节(TB)单位的高带宽、 低延迟互联技术确保数据在不同计算之间的高效传输,避免产生训练瓶颈,并 且加速分布式训练的过程。高性能存储技术,例如 Lustre 和 IBM 的 GPFS 也是 通过提供每秒太字节单位的极大吞吐量和百万级 IOPS(每秒输入/输出操作) 以满足模型训练极高的数据读写需求。 为了突破单集群算力规模、电力供给和空间限制,长距离组网技术助力 AI 行业 进行跨数据中心分布式训练,重点关注国内光通信、交换机、共封装光学 (CPO)、有源电缆(AEC)和光交换技术厂家。相关标的包括光迅科技、仕 佳光子、长飞光纤、中际旭创、源杰科技、长光华芯、博创科技、天孚通信、 亨通光电等。 高带宽域(HBD)对于大模型训练效率至关重要,但是现有的 HBD 在可扩展性、 成本和容错率上存在显著限制。最近,北京大学、阶跃星辰和曦智科技的研发 团队合作推出了一种基于光交换模组为中心的高带宽域架构 InfiniteHBD,单位 成本仅为英伟达 NVL-72 的 31%,且 GPU 浪费率低于其 10%。相较于以交换 机、GPU 或交换机-GPU 混合型三种传统的 HBD 架构,InfiniteHBD 采用的光 交换技术(OCD)实现了动态可重构的点对多点连接,具备节点级故障隔离和 低资源碎片化的能力,在可扩展性和成本上全面优于市面方案。曦智科技已经 在光电混合计算领域取得显著进展,达到全球领先水平,现有产品涵盖光子计 算、光子网络和激光网络三个方向。
5、下游机遇:AI 软件生态建设
我国 AI 芯片产业正迎来蓬勃发展的新阶段,众多本土创新企业在云、边、端等 多个应用领域崭露头角,共同构筑起百花齐放的竞争格局。这些企业不仅在硬件架构上推陈出新,更在软件生态建设上持续发力,力求打破国际巨头的技术 壁垒,加速国产替代进程。在通用人工智能浪潮以及国内大模型技术飞速发展 的背景下,与 AI 芯片配套的软件平台及开发空间也是支撑 AI 算力增长的核心 驱动点。国内芯片厂商需要在不断优化硬件性能的同时,不忘打造软件生态, 激励 AI 应用的开发与创新。 寒武纪作为国内云端 AI 芯片的领航者,推出了 Cambricon NeuWare 软件平台, 采用云边端一体、推训一体架构,可以实现从单卡到集群的分布式系列任务,并且 随时进行智能应用的开发、迁移和调优。壁仞科技 BIRENSUPA 软件平台构建了 一个完整且功能强大的 AI 软件开发体系,涵盖了从底层硬件抽象层到编程模型、 BRCC 编译器、深度学习与通用计算加速库、以及针对不同场景的应用 SDK。 BIRENSUPA 全面支持 TensorFlow 和 PyTorch 等主流深度学习框架,并集成了 自研推理加速引擎,在国产 AI 软件平台中处于领先地位。后摩智能聚焦存算一 体智驾芯片,其后摩大道软件平台旨在为智能驾驶提供高效、可靠的 AI 算力支持。 摩尔线程致力于全功能 GPU,其 MUSA SDK 与 AI 软件平台为图形渲染、通用计 算和 AI 应用提供了全面的开发环境。
四、央国企相关产业布局
1、集成电路和人工智能产业
(1)上游:半导体设计、制造和封测
半导体制造设备国产化加速替代。半导体器件制造的工艺分为前道和后道工序, 前道工序通常用于实现元器件所要求的特性,最终将掩膜版上的电路图转移至 硅片上。后道工序则以封装和测试为主,确保元器件的可靠性便于与外电路连 接。中国作为全球最大的半导体市场,占据全球市场份额近三分之一。但目前 我国在半导体制造环节中设备国产化率较低,光刻机等设备面临严重“卡脖子” 问题。 从产业环节来看,央企上市公司涉及布局半导体材料、设计等关键工艺节点。 其中,EDA 在集成电路产业中贯穿了设计、制造、封测等环节,华大九天作为 国产 EDA 龙头,加速推动半导体行业自主可控;华润微实现功率半导体全产业链;中船特气是国内首个进入 5nm 制程的电子特气供应商,同时,电解氟化技 术打破技术封锁;长电科技加速发展先进封装,在芯片封测领域排名世界第三。
(2)中游:云服务、服务器及相关产业链
东数西算加速算力中心建设,带动液冷建设需求同步增长。在 AI 算力需求大幅 增长的背景下,我国东数西算工程全面启动,围绕京津冀、长三角等 8 个地区 启动建设国家算力枢纽节点,规划 10 个国家数据中心集群,数据中心作为新基 建的重要内容,主要由央企和地方国企承担建设工作。与此同时,伴随算力需 求的快速增长,传统风冷难以满足散热需求,当机柜功耗持续提升至 1000kW 以上,则需采用浸没式液冷解决散热问题。 国有企业承担算力基建重任,国产化替代加速推进。据 IDC 数据,中国以企业 为主要用户的通用算力中心利用率约 10%-15%。但随着 DeepSeekR1 的发布 及各企业的全面接入,算力形成新一轮需求,国有企业承担算力基建主力军的 重任。此外,据 2022 年 9 月国资委发布的《国资委 79 号文》,自 2023 年起, 信创产业将从“关键环节、部分市场”走向“全产业链、全行业”的信息技术 升级,明确到 2027 年底前,实现所有中央企业的信息化系统国产化替代。 从产业环节来看,央企上市公司已形成从液冷技术、服务器、操作系统到智能 计算中心的完整基建链条。其中,曙光数创作为数据中心液冷方案龙头,连续 三年市占率第一。此外,央企以沉淀的丰富数据为基础,通过自建算力中心或租赁算力的方式,向政府、企业或个人提供 SaaS、PaaS、DaaS 服务以及智 慧场景解决方案。如政企业务上,太极股份深度参与北京、江西等地的政务大 数据建设;工业制造上,海康威视产品覆盖工业检测、产品检测等场景;个人 业务上,萤石网络聚焦智能家居摄像机、智能入户、智能服务机器人等五大 AI 交互类产品。
(3)下游:人工智能大模型
大模型参数量向十万亿级增长,算力和高质量数据成为模型训练关键。大模型 从类型上看,主要包括云侧和端侧两部分。其中,端侧大模型布局在设备终端, 直接使用设备端算力运行。云侧大模型则依赖云端算力,早期以大语言模型 (LLM)为主,如 GPT 系列和 DeepSeek 等,通常在文本输出和翻译上表现出 色。随着输入信息的多样化,包括文字、图片、语言等,针对多样化数据类型 衍生出多模态大模型。此外,根据适用场景的特定性,又可进一步拆分为通用 大模型、行业大模型和垂直大模型,对于行业理解的专业性依次深入。训练参 数上,目前大模型的参数量正在向万亿、十万亿级增长。以 GPT 系列为例, 2019-2022 年间模型参数量从 15 亿激增至 1750 亿,训练卡规模从 8 张扩展至 8000 张,算力需求呈指数级增长态势,也对数据质量要求持续提升。此外,尽 管 DeepSeek 的出现证明在训练侧算力降低的情况下,同样可以开发出性能强 大的模型。但当前 DeepSeek 的 DAU(Daily Active User)已达豆包大模型近 2 倍,对于推理侧算力的基础设施需求快速增长。 从产业环节来看,大模型建设的核心在于高质量数据支撑,而央企积累的丰富 数据资源成为关键基础。其中,三大运营商担任通用大模型开发的主力军,多 家央企依托主业优势深入行业大模型领域。目前,三大运营商均推出了各自的 通用大模型和面向行业的专用大模型体系,且模型已通过中央网信办备案,即 完成对模型开发标准、内容安全、数据主权等审查,可以向公众开放或者商用 (非生成式人工智能或不具备舆论属性等大模型无需备案)。此外,宝信软件、 海康威视、国投智能等多家央企上市公司围绕主业发布相关行业大模型。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
- 相关标签
- 相关专题
- 相关文档
- 相关文章
- 全部热门
- 本年热门
- 本季热门
- 1 人工智能AI产业链全景图.pdf
- 2 医疗人工智能应用行业发展白皮书.pdf
- 3 2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(英文).pdf
- 4 硬核电子科技产业研究:半导体、5G、人工智能(111页).pdf
- 5 5G高颜值读本:5G为人工智能和智能制造赋能(98页PPT).pdf
- 6 人工智能行业专题报告:从CHAT~GPT到生成式AI(Generative AI)-人工智能新范式,重新定义生产力.pdf
- 7 人工智能121页深度报告:“智能+”助力中国经济高质量发展.pdf
- 8 德勤全球人工智能行业发展白皮书2019(93页).pdf
- 9 埃森哲人工智能应用之道(92页).pdf
- 10 赛迪2024新型工业化重点理论研究成果发布.pdf
- 1 2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(英文).pdf
- 2 赛迪2024新型工业化重点理论研究成果发布.pdf
- 3 2025能源安全远景报告:能源与人工智能.pdf
- 4 2024气象人工智能技术与应用报告.pdf
- 5 可持续发展专题研究:人工智能推动全球可持续发展前景分析.pdf
- 6 新加坡经发局:国家人工智能战略2.0.pdf
- 7 人工智能行业分析:AI新纪元,砥砺开疆·智火燎原.pdf
- 8 2025“人工智能+”行业发展蓝皮书-上海交大.pdf
- 9 【智慧水利】人工智能赋能数字水务白皮书--百度.pdf
- 10 未来城市的人工智能行业-能源.pdf
- 1 2025汽车人工智能行业应用案例集.pdf
- 2 人工智能行业《2026年具身智能产业发展研究报告》:软硬件迭代加速,人形机器人蓄力规模突破.pdf
- 3 人工智能与制造业行业:2025上海市“AI+制造”发展白皮书.pdf
- 4 2026六大未来产业发展趋势与人工智能八大落地场景洞察.pdf
- 5 2025年全球人工智能技术、政策、产业与投融资趋势全景洞察报告,加速与应用.pdf
- 6 人工智能行业专题(14):大模型发展趋势复盘与展望.pdf
- 7 人工智能行业:人形机器人动力之源,电机应用要求与变革方向.pdf
- 8 人工智能行业:算力奔腾时代,重构数据中心电源及基础设施架构脉络.pdf
- 9 亿欧智库-人工智能电动汽车行业:2025中国AIEV产业年度回顾及发展总结报告.pdf
- 10 传媒行业人工智能专题:Seedance 2.0开启新机遇,从IP到平台、如何看AI漫剧机会.pdf
- 全部热门
- 本年热门
- 本季热门
- 1 2026年AI“创造性破坏”重构产业生态——多行业联合人工智能3月报
- 2 2026年人工智能行业:投研人如何养“虾”?
- 3 2026年人工智能行业专题:2025年度海外大厂CapEx和ROIC总结梳理
- 4 2026年人工智能行业专题(15):从全球模型巨头的发展历程,思考模型企业的壁垒与空间
- 5 2026年如何更好“统分结合”来因地制宜发展人工智能?
- 6 2026年中国人工智能行业:春节迄今,模型智能体化,token消耗速度加快,将智谱MiniMax目标价上调至800港元1000港元
- 7 2026年传媒行业人工智能专题:Seedance 2.0开启新机遇,从IP到平台、如何看AI漫剧机会
- 8 2026年中国互联网与人工智能行业:春节节前思考,从应用采用的角度出发;token消耗量或开启多年增长期
- 9 2026年公募增配光通信、半导体设备、封测,减配芯片设计、游戏、广告——多行业联合人工智能2月报
- 10 2026年通信行业年度策略:乘风人工智能,持续看好设施升级及应用落地
- 1 2026年AI“创造性破坏”重构产业生态——多行业联合人工智能3月报
- 2 2026年人工智能行业:投研人如何养“虾”?
- 3 2026年人工智能行业专题:2025年度海外大厂CapEx和ROIC总结梳理
- 4 2026年人工智能行业专题(15):从全球模型巨头的发展历程,思考模型企业的壁垒与空间
- 5 2026年如何更好“统分结合”来因地制宜发展人工智能?
- 6 2026年中国人工智能行业:春节迄今,模型智能体化,token消耗速度加快,将智谱MiniMax目标价上调至800港元1000港元
- 7 2026年传媒行业人工智能专题:Seedance 2.0开启新机遇,从IP到平台、如何看AI漫剧机会
- 8 2026年中国互联网与人工智能行业:春节节前思考,从应用采用的角度出发;token消耗量或开启多年增长期
- 9 2026年公募增配光通信、半导体设备、封测,减配芯片设计、游戏、广告——多行业联合人工智能2月报
- 10 2026年通信行业年度策略:乘风人工智能,持续看好设施升级及应用落地
- 1 2026年AI“创造性破坏”重构产业生态——多行业联合人工智能3月报
- 2 2026年人工智能行业:投研人如何养“虾”?
- 3 2026年人工智能行业专题:2025年度海外大厂CapEx和ROIC总结梳理
- 4 2026年人工智能行业专题(15):从全球模型巨头的发展历程,思考模型企业的壁垒与空间
- 5 2026年如何更好“统分结合”来因地制宜发展人工智能?
- 6 2026年中国人工智能行业:春节迄今,模型智能体化,token消耗速度加快,将智谱MiniMax目标价上调至800港元1000港元
- 7 2026年传媒行业人工智能专题:Seedance 2.0开启新机遇,从IP到平台、如何看AI漫剧机会
- 8 2026年中国互联网与人工智能行业:春节节前思考,从应用采用的角度出发;token消耗量或开启多年增长期
- 9 2026年公募增配光通信、半导体设备、封测,减配芯片设计、游戏、广告——多行业联合人工智能2月报
- 10 2026年通信行业年度策略:乘风人工智能,持续看好设施升级及应用落地
- 最新文档
- 最新精读
- 1 2026年中国医药行业:全球减重药物市场,千亿蓝海与创新迭代
- 2 2026年银行自营投资手册(三):流动性监管指标对银行投资行为的影响(上)
- 3 2026年香港房地产行业跟踪报告:如何看待本轮香港楼市复苏的本质?
- 4 2026年投资银行业与经纪业行业:复盘投融资平衡周期,如何看待本轮“慢牛”的持续性?
- 5 2026年电子设备、仪器和元件行业“智存新纪元”系列之一:CXL,互联筑池化,破局内存墙
- 6 2026年银行业上市银行Q1及全年业绩展望:业绩弹性释放,关注负债成本优化和中收潜力
- 7 2026年区域经济系列专题研究报告:“都”与“城”相融、疏解与协同并举——现代化首都都市圈空间协同规划详解
- 8 2026年历史6轮油价上行周期对当下交易的启示
- 9 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 10 2026年创新引领,AI赋能:把握科技产业升级下的投资机会
