2025年阿里巴巴研究报告:AI产业变革驱动阿里价值重估
- 来源:中信建投证券
- 发布时间:2025/03/11
- 浏览次数:921
- 举报
阿里巴巴研究报告:AI产业变革驱动阿里价值重估.pdf
阿里巴巴研究报告:AI产业变革驱动阿里价值重估。DeepSeek与Qwen引领国内大模型热潮,DeepSeek通过技术突破、架构创新及模型开源推动行业快速发展,阿里发布Qwen2.5Max和最新推理模型QWQ,并开源万相2.1,进一步巩固技术影响力。国内CSP竞相接入DeepSeek,推动大模型行业集中度提升,DeepSeek促使国内大模型定价下降,进而推动周边产品创新。AI助推阿里云增速提升,阿里与苹果合作聚焦端侧用户体验,利用AI技术提升手机侧体验,带来新的增长曲线和增量机会。AI应用市场潜力巨大,逐步起量贡献增长动能。阿里深耕自研模型,聚焦细分场景和智能体开发,加速AI应用落地,同时通过...
一、DeepSeek 与阿里的技术创新引领国内 AI 产业变革
(一)DeepSeek 与 Qwen 引领国产大模型爆火出圈
DeepSeek 与 Qwen 引领国内大模型爆火出圈。DeepSeek(深度求索)成立于 2023 年,在同年 11 月 28 日 发布 DeepSeek-LLM,正式涉足大语言模型领域。2024 年 12 月,DeepSeek V3 发布,是一个参数规模达 6710 亿的混合专家(MoE)语言模型,训练成本为 557.6 万美元。2025 年 1 月 20 日发布 DeepSeek R1 深度推理版本, 对标 OpenAI 的 o1 模型,通过强化学习技术实现了 AI 的自主推理能力,训练成本效率提升近 20 倍,通过强化 学习有效降低无效训练,对并行计算需求较低,使得在资源有限的情况下也能展现出强大的计算能力。模型在 复杂任务推理和联网搜索能力方面表现出色,能够处理多种类型的复杂信息,为用户提供准确、全面的回答。 在多模态融合方面成果显著,能够将文本、图像、音频等多种模态信息进行有效整合与处理。实现多种模态之 间的自然交互与转换,如根据文本描述生成高质量图像,对图像内容进行精准的文字解读等,为用户带来全新 的多模态交互体验。阿里巴巴从 2019 年开始启动 Qwen 大模型的研发计划。2024 年 9 月发布 Qwen 2.5,在语 言理解、推理和代码生成方面表现出色。2025 年 1 月 29 日发布的 Qwen 2.5 Max 是阿里云通义团队对 MoE 模 型的最新探索成果,预训练数据超过 20 万亿 tokens,在所有 11 项基准测试中,全部超越了 DeepSeek V3、 Llama-3.1-405B 等对标模型。基于阿里巴巴在电商、金融、物流等商业领域的深厚积累和丰富实践,Qwen 2.5 Max 对商业场景的理解极为深刻,能够为企业提供精准的商业策略建议、营销文案创作、市场趋势分析等服务,助 力企业在商业竞争中取得优势。Qwen 与阿里云紧密结合,充分借助阿里云强大的算力和云服务能力,为企业用 户提供便捷的模型调用、定制开发、部署运维等一站式服务,大大降低企业使用 AI 技术的门槛和成本,使企业 能够快速将 AI 技术应用于自身业务流程中。
DeepSeek 训练方法在高效混合精度与强化学习的深度融合上突破。DeepSeek 在训练方法上的创新主要体 现在三个核心领域:混合精度训练的突破性应用,多令牌预测机制的优化,以及面向推理的强化学习框架创新, 这些方法显著降低了训练成本并提升了模型性能。DeepSeek 首次在大规模语言模型中全面应用 FP8(8 位浮点 数)混合精度训练技术,传统训练通常采用 BF16(16 位)或 FP32(32 位)精度,而 FP8 通过细粒度的量化压 缩,将数据存储和计算量减少至传统方法的四分之一。其技术突破体现在三个方面:动态在线量化、高精度累 加补偿、存储与通信优化。DeepSeek 采用的显存节省技术还包括多令牌预测(MTP)的优化。多令牌预测(MTP) 的密度增强传统模型以“下一个令牌预测”为主,而 DeepSeek 提出多令牌预测每个位置同时预测后续多个令牌。 使用 DualPipe 策略,允许 MTP 模块和主模型之间共享参数、梯度、嵌入和输出头,提升显存效率。DualPipe 算法以实现高效的流水线并行性,流水线气泡更少,信道使用效率更高。大模型的训练通常用无监督或有监督 进行预训练,然后通过有监督精调(SFT)进一步学习。然而 SFT 有时难以将人类的偏好显式地整合进去,这时就需要强化学习来进行精调。DeepSeek 采用群体相对策略优化(GRPO)策略,只需要在一个分组内进行多 个采样输出的比较,再根据比较结果选择较优的策略。GRPO 中不再需要一个显式的价值网络,从而降低了显 存占用并提高了训练速度。DeepSeek-V3 通用模型旨在提供高效、可扩展的自然语言处理解决方案,注重综合 场景的适用性,面向广泛的商业和研究需求。DeepSeek-R1 推理模型专注于提升模型的推理能力,特别是在数 学、代码和逻辑推理等高难度任务中,追求深度思考和分析的顶尖表现。

DeepSeek 模型架构关注动态负载均衡与注意力机制创新。DeepSeek 在模型架构上的突破围绕混合专家 (MoE)扩展效率、注意力机制轻量化展开,实现了性能与资源占用的双重提升。首先,DeepSeek 的核心突破 之一在于混合专家 MoE架构的深度优化。传统 MoE 模型长期面临专家负载不均衡、训练收敛困难的问题,而 DeepSeek 通过细粒度专家分割和创新性设计解决了这些痛点。DeepSeek 使用细粒度专家策略将专家网络拆分为 大量极小的单元,每个专家仅负责特定知识子领域的任务。离散化的知识划分通过缩小专家范围,降低了单一 专家需涵盖的任务复杂度,使得模型无需过多参数即可高效完成任务,显著减少计算负载。同时采用无辅助损 耗负载均衡方法,将特定于专家的偏差项添加到路由机制和专家亲和力中。偏差项不会通过梯度下降进行更新, 而是在整个训练过程中持续监控并进行调整以确保负载平衡。如果训练中某个专家没有获得合理的命中次数, 可以在每个梯度步骤中微调偏差项增加命中概率。通过动态调整,DeepSeek-V3 在训练过程中获得了比有辅助 损失均衡模型更好的性能。其次,DeepSeek 使用多头潜在注意力机制(MLA)突破显存与计算效率。一种通 过低秩键值(KV)联合压缩的注意力机制,在显著减小 KV 缓存的同时提高计算效率。MLA 的方法是将 KV 矩阵转换为低秩形式,将原矩阵表示为两个较小矩阵(相当于潜向量)的乘积,在推断过程中,仅缓存潜向量, 而不缓存完整的键 KV。这规避了分组查询注意力和多查询注意力的查询的信息损失,从而在降低 KV 缓存的前 提下获得更好的性能。MLA 大概贡献了 2-4 倍的计算效率提升,MoE则贡献了 4 倍以上的计算效率提升。
软硬协同下的计算效率极限挖掘,模型开源加速技术创新。DeepSeek 的硬件创新集中于通信优化技术与国 产化芯片适配,最大化利用现有算力资源。基于 PTX 进行 All-to-All 通信内核优化,使用 PTX 编程以充分利用 InfiniBand(IB)和 NVLink 带宽,并节约流式多处理器(SM)。大模型分三个阶段,预训练、后训练和推理, 预训练是无监督学习和构建基础模型阶段,后训练关注微调模型和优化特定任务性能,推理指模型完成测评以 后上线应用。DeepSeek 将多个模型作为开放权重模型发布,允许研究人员和开发人员研究训练后的模型参数并 基于此进行二次开发,包括自由使用、修改、分发和商业化这些模型,在后训练阶段对大模型行业有巨大的影 响。虽然 DeepSeek 尚未开源完整的训练数据,但与 OpenAI 的封闭模型甚至 Meta 所谓的开源模型 Llama 相比, 其开放性已相当显著。为了能够将推理能力迁移到 MoE 架构不适合的场景,DeepSeek 选择 Llama 和 Qwen 系列开源大模型进行蒸馏,蒸馏是将复杂的大型神经网络压缩为更小、更简单的神经网络,同时尽可能多的保留 结果模型的性能的过程。此过程涉及训练较小的“学生”神经网络,通过其预测或内部表示的精调来学习模拟 更大、更复杂的“教师”网络的行为。
Qwen 与 DeepSeek 展现出既趋同又差异化的技术演进路径。阿里最新推出的 Qwen 2.5 Max 是一款超大规 模 MoE模型,使用超过 20 万亿 tokens 的预训练数据进行训练,相较于前代 V3 模型,其推理速度提升 7%,但 实测显示云端推理速度仅为 28 token/s,与 DeepSeek 的 60 token/s 存在显著差距。这种性能差异源于双方在注意 力机制的关键选择:DeepSeek 采用 MLA(多头潜在注意力)机制,而阿里坚持 GQA(分组注意力)技术路线。 尽管两者都致力于优化 KV 显存占用,但 MLA 通过算法层面的创新实现了近双倍的推理效率。与 DeepSeek 不 同,阿里未采用 GRPO 及无需数据标注路径的方法,而是依赖高质量数据进行后训练,这使得阿里模型的幻觉 率较低,深度推理模型关联小于 3%,而 DeepSeek 幻觉率为 14.3%。在训练过程中,阿里已解决 MOE 训练中 数据均衡这一难题,采用辅助负载均衡策略,让不同专家充分学习知识,避免因负载不均衡导致模型性能下降, 这与 DeepSeek 类似。但在训练周期和成本上,阿里模型高于 DeepSeek 的 V3 模型,阿里耗时 1200 多万小时, V3 为 270 多万小时。DeepSeek 的优势还体现在其采用的多令牌 MTP 等更先进技术,以及对通信进行深度到 GPU 底层的优化。DeepSeek 也并非完全开源,主要开源后训练、推理代码及框架,预训练相关如 FP8 混合监督 训练脚本及 PTX 优化硬件方法未开源,仅提供方法论描述,这给阿里在预训练方法论复刻上带来难度。不过, 阿里在技术路径上与 DeepSeek 较为接近,未来将探索借鉴优秀的工程细节方法,持续提升自身模型的性能与竞 争力。
(二)全球头部玩家竞争依然激烈,DeepSeek 和通义大模型加速迭代
DeepSeek 促使大模型行业纷纷朝后训练以及深度通用模型的方向迭代发展。DeepSeek-R1 在后训练阶段大 规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语 言推理等任务上,性能比肩 OpenAI o1 正式版。OpenAI AGI 规划路径:第一阶段为 AI 对话者,像 ChatGPT 以 及 V3 这类对话式模型均处于此阶段;第二阶段是推理者,O1、R1 便属于这一阶段,目前国内正处于该阶段。 第三阶段是智能体,OpenAI 推出的 operator 产品,便是真正意义上早期的智能体,它能够自主执行复杂业务, 如订机票、日常规划等,还能跨应用进行安排。此外还有 openAI 开发的 Deep Research,其本质是将 O3 产品化。 谷歌也推出了类似面向研究场景的产品,由 google gemini flash thinking 深度模型赋能。如今,整个业界已转变 为对深度推理模型的角逐,深度推理模型将成为大厂竞争的核心产品,并推动高阶智能体产品的发展,这意味 着 AGI 又向前迈进了一步,进入了第三阶段。与此同时,李飞飞 S1 模型基于 Qwen 2.5 32B、7B 指令级模型进 行后训练,使用了 1000 多组高档数据,借助 google gemini flash thinking 深度推理模型推出运算模型,其效果与 R1 相当,这将为后训练开辟新的技术路径:test scaling(测试缩放)。测试缩放有望成为一种全新的后训练方法, 以极少的数据量和低成本获取专家级模型。

国际头部大模型玩家仍保持技术创新与算力领先优势。由马斯克旗下 xAI 于 2024 年 2 月 18 日发布,Grok 3 系列包含多个模型版本,其核心突破在于使用 20 万块 GPU 集群训练,算力消耗达国产模型 DeepSeek V3 的 263 倍,训练量是前代 Grok 2 的 10 倍。Grok 3 以“思维链”推理能力为核心亮点,通过分步骤解决复杂问题, 在代码编辑、数学推理等领域表现卓越。在 Chatbot Arena 测试中早期版本曾位列第一,目前全网免费开放推理 功能(Think)与深度搜索(DeepSearch),性能对标 OpenAI 的 o1-pro(定价 200 美元/月)且略优于 DeepSeek-R1 和 Gemini 2.0 Flash Thinking。但因算力瓶颈,日活 2600 万的用户量已导致响应延迟大幅上升。作为行业标杆, OpenAI 产品线涵盖 GPT 系列(GPT-4、GPT-4o mini 等)、o 系列(含专注推理的 o1-pro)及视频模型 Sora。最 新推出的 GPT-4.5 通过扩大预训练和后训练规模,提升了非监督学习能力,在理解模式、建立联系和生成创意 方面取得了重大进步。GPT-5 计划 5 月推出,重点提升多模态生成能力。其中,o 系列通过强化数学、编程推理 能力,错误率降低 34%,响应速度提升 50%。为应对 Grok 3 竞争,OpenAI 持续加速技术迭代,巩固其在文本、 视频生成及复杂任务处理领域的优势。Gemini 2.0 系列推出三个版本:Flash:定位高效计算,适合高并发任务; Pro:突出编码与海量文本处理能力;Flash-Lite:专注低成本大规模文本生成。该系列支持文本、图像、音视频 的全模态交互,集成谷歌搜索与代码执行工具,且具备实时对话、屏幕共享等创新功能。其在多语言支持和上 下文窗口(达百万级 Tokens)上的优化,使其成为企业级应用的首选。Meta Llama 3.3 多语言大型语言模型(LLM) 是一个预训练和指令调优的生成模型,Llama 3.3 指令调优的纯文本模型针对多语言对话用例进行了优化,并在 常见的行业基准测试中优于许多现有的开源和闭源聊天模型。
DeepSeek 开源周集中展示并开源一系列创新技术,涵盖 AI 开发关键环节,为行业注入新活力。首日推出 的 FlashMLA,针对英伟达 H800 高端加速卡进行优化。在处理长短不一文本序列时,它能智能调配算力,大幅 提升 GPU 解码与处理变长序列的计算效率,将显存占用削减至传统方案的五分之一。第二天亮相的 DeepEP, 是全球首个面向混合专家模型(MoE)和专家并行(EP)的开源高性能通信库。它借助 FP8 压缩技术和 RDMA 技术,攻克大规模 AI 模型训练与推理中的通信难题,在 H800 的 GPU 上,通过 NVLink 技术实现单节点内 GPU 间约 150GB/s 的极速通信带宽。第三天发布的 DeepGEMM,专注于 FP8 高效通用矩阵乘法。它能动态调整运算 精度,通过 JIT 技术提升内存空间利用效率,运算速度更快且更节省显存,超越传统千万行工程库的运算速度。 第四天登场的 DualPipe 和 EPLB,DualPipe 使模型训练的前向计算与反向传播同时进行,减少训练 “气泡” 时 间;EPLB 则智能调配冗余专家至空闲 GPU,避免负载不均衡。最后一天推出的 Fire - Flyer 文件系统(3FS), 专为高性能计算打造,解决 AI 训练和推理数据读写痛点。它拥有 6.6TB/s 的吞吐量,通过 SSD+RDMA 技术实 现数据强一致性。从技术层面,这一系列创新技术构建起协同高效的系统,助力开发者挖掘算力潜力,同时开 源降低大模型开发门槛,吸引全球开发者,推动大模型应用拓展,促使行业朝着更高效、开放的方向迈进。
阿里在大模型领域动作频频,发布新推理模型 QWQ 及重磅开源万相 2.1。阿里在大模型领域的发布成果, 从算力基础设施投入规划 3800 亿,到新推理模型发布,再到强大视频生成模型开源,全方位展示阿里在大模型 研发、应用及生态建设的雄厚实力与积极布局。2月 25日,阿里 Qwen 团队发布新推理模型“深度思考(QwQ)”, 由 QwQ-Max-Preview 支持,基于 Qwen2.5-Max 打造。该模型类似 DeepSeek R1 和 kimi 的推理模型,在数学理 解、编程以及 AI 智能体等方面表现卓越,可同时支持深度思考与联网搜索,并展示完整思维链。Qwen 团队还 透露,QWQ-MAX 官方版本即将发布,同时会推出 Android 和 iOS 应用程序,以及可在本地设备部署的更小模 型如 QWQ-32B 等。同日深夜,阿里云宣布万相 2.1(Wan)重磅开源。此次开源采用 Apache2.0 协议,开放 14B 和 1.3B 两个参数规格的全部推理代码和权重,同时支持文生视频和图生视频任务。14B 版本万相模型在指令遵 循、复杂运动生成、物理建模、文字视频生成等方面优势显著,在权威评测集 Vbench 中,以总分 86.22%大幅 超越 Sora、Luma、Pika 等国内外模型,稳居榜首。开源仅 6 天,万相大模型便反超 DeepSeek R1,登顶 Hugging Face 模型热榜、模型空间榜两大榜单,总下载量超百万,Github 的 Star 数据超 6K,成为全球开源社区新宠, 极大推动视频生成大模型技术的普及与创新。
Manus 被冠以“全球首款通用型智能体”的名号,但业内评价尚不统一。Manus 突破一般 AI 以生成想法 为主的限制,实现真正的自主执行能力,例如从包含十来份简历的压缩包里筛选出最符合的求职简历、做房产 研究、股票分析等。在接收到用户发送的复杂任务指令时,能够将任务分解为多个子任务,无需用户进行额外 的提示或干预,自动规划出合理的执行步骤。Manus 还能在虚拟环境中调用各类工具,来完成编写和执行代码、 浏览网页、操作应用等复杂任务。根据公司在官网中公布的 GAIA 基准测试(评估通用人工智能助手能力的一 个国际化基准测试)表现来看,在基础任务的测试中,Manus 已经接近人类水平(Manus 基任务准确率达 86.5%、 中级任务为 70.1%、高级任务为 57.7%,而人类在 GAIA 测试中的平均准确率为 92%)。Manus 背后的 Monica.im 创立于 2022 年,Monica 是一款 All-in-One 的 AI 助手,产品形态从浏览器插件、慢慢拓展至了 App、网页 端。主流的使用场景:当用户在浏览器中点开它的小图标,就能直接使用其接入的各大主流模型,实现对细分 场景用户需求的准确理解。Manus 延续了 Monica 团队这种思路,创始人表示:“产品不能只有聊天机器人一 种形态,Agent 会是新增的形态、需要新的产品去承接”。相比于 DeepSeek 火爆初期在行业内的一致认可,目 前对 Manus 的看法尚不统一。以 Manus 展示的智能体应用场景为例,国内的大模型初创企业智谱、国外的 OpenAI 其实都展示过类似的功能。
Agent 和 AI Bot(聊天机器人)产品的本质进阶,Manus 重新定义 AI代理边界。Manus 通过“Multiple Agent 架构”与自主规划执行能力实现复杂任务的全流程闭环处理,重新定义了 AI 代理的边界,其核心价值在于将 LLM 的推理能力与人类工作流深度绑定,使 AI 从“交互界面”升级为“执行引擎”。Manus 通过“Multiple Agent” 架构,运行在独立的虚拟机中,利用规划代理、执行代理和验证代理的分工协作,大幅提升复杂任务的处理效 率,并通过并行计算缩短响应时间。每个代理基于独立的语言模型或强化学习模型,彼此通过 API 或消息队列 通信,任务在沙盒中运行以避免干扰,同时支持云端扩展。这种架构使 Manus 更像是由多个助理协作完成检索 资源、对接、验证信息等工作,帮助用户完成整个工作流程。在 B2B 业务中,Manus 通过网页爬虫和代码编写 能力,自动匹配最合适的供应商,从质量、价格、交货能力等维度提供最优选择,并将结果以图表形式直观呈 现,甚至进一步给出详细的操作建议。这种能力让 Manus 不仅像一个“实习生”,更像是一个微缩版的“部门 主管”。Manus 的成功标志着 Agent 技术跨越“玩具”阶段,向产业落地迈出关键一步。
头部玩家在竞争中将出现分流,底座模型集中化利好芯片厂商。对于一般厂家而言,复刻其后训练难度相 对较低,但完整复刻预训练几乎不可能,因其未开源相关内容,仅提及大致方法。当下,能够尝试复刻的基本 只有头部的两三家企业,如阿里、字节等。头部大厂需要约 3 个月时间深入研究预训练方法细节,其他企业大 多只能基于后训练 R1 模型进行蒸馏。阿里在全球开源市场中力求占据领导者地位,将继续深耕自研模型,后续 会借鉴 DeepSeek 的先进做法。阿里在深度推荐模型及强化学习等后训练方法上已有实践,在预训练方面,诸如 FP8 混合精度、优化通信网络及 GRPO 算法等尚未应用,未来将参考借鉴以提升自身模型,推动自研模型不断 升级,巩固市场地位。Kimi 发布了对标 R1 的 Kimi 1.5,并已将其集成到自身产品中。字节虽未开源大模型架 构,但该架构与 DeepSeek 类似,只是在底层 GPU 提升提效方面未像 DeepSeek 深入优化。未来一两个季度,阿 里、字节等头部公司将致力于提升预训练效率,以 DeepSeek 为标杆组建团队开展攻坚。这一趋势意味着市场对 底座模型的需求集中化,头部三五个模型即可满足市场,芯片厂商只需将精力集中在适配这些头部模型上,就 能为整个行业提供解决方案,这对芯片厂商而言是利好消息,避免了过去频繁适配不同模型及算法变化带来的 困扰,能够实现大规模出货。从长期看,芯片市场正处于从公用算力向 AI 算力的范式切换阶段,DeepSeek 的 出现加速了这一进程。随着应用生态成本下降、推理性能提升,各类应用将蓬勃发展。
二、DeepSeek 开源推动国内 CSP 发展和竞争,阿里显著受益
(一)国内 CSP 竞相接入 DeepSeek,大模型行业集中度进一步提升
国内外互联网企业纷纷接入 DeepSeek,以提升用户体验并吸引流量。由于 DeepSeek 开源的特征,主流云 计算公司基本都已部署 DeepSeek,国内包括阿里、腾讯、百度等,国外如微软、AWS、谷歌等。同时,国产芯 片如华为昇腾、寒武纪也在适配 DeepSeek,将其用于推理。行业涵盖了金融、教育、医疗、办公、娱乐等多个 领域。这种行业内大规模统一部署同一模型的现象实属罕见,此前大部分厂家可能只是选择性地部署 Llama 等 其他模型。阿里巴巴已将 DeepSeek-R1 满血版和 6 个蒸馏版部署至阿里云上,同时 DeepSeek-V3 也同步部署。 这一举措不仅丰富了阿里云的模型资源,也为用户提供了更多元化的 AI 服务选择。腾讯在微信中灰度测试了基 于 DeepSeek-R1 的“A I 搜索”功能,随后通过微信搜索为腾讯元宝导流,用户可以通过元宝免费使用 DeepSeek R1 满血版、DeepSeek-V3 等模型。百度则将其核心产品百度搜索接入了DeepSeek-R1,用户可以通过百度App 的“AI+” 功能体验 DeepSeek 满血版,进一步提升了搜索服务的智能化水平。360 通过其纳米 AI 搜索 APP 集成了包括 DeepSeek 在内的 50 多款大模型,用户可以根据需求切换不同模型进行对话。字节跳动则仅在飞书中接入了该 模型,目前暂未将其应用于抖音等核心业务。
阿里与 DeepSeek 深度绑定,合作模式除了阿里云平台接入开源 DeepSeek 模型,还包含支撑 DeepSeek C 端用户算力模式。DeepSeek 已授权商业化使用,阿里将这些模型部署在云上,供其他客户调用。对于阿里而言, 运营方并不在意平台上是自研模型还是第三方模型。DeepSeek 作为开源模型,允许第三方运营,不存在分成问 题。虽然接入第三方模型会影响阿里自研模型的调用次数,但整体上能够扩大阿里平台上大模型的业务规模。 此外,第三方模型的存在还会对阿里模型的定价产生影响,为保持竞争力,阿里模型定价需与 DeepSeek 看齐甚 至更低,这虽会降低阿里模型调用的单次收益,但整体调用次数的增加仍能拉动业务增长。在成本方面,如果 客户调用阿里平台上的 DeepSeek 模型,阿里需承担调用成本;若用于支撑 DeepSeek C 端用户,相关成本则由 DeepSeek 方面承担,并且需向阿里支付费用。目前 DeepSeek 日活达 3000 万,其中 1000 万日活由阿里分担, 专门用于支撑 DeepSeek 的 C 端用户,相关成本由 DeepSeek 覆盖。
头部拥有自研模型的厂家集中度高,其他大模型企业面临转型压力。当前,大模型行业呈现出愈发集中的 发展态势。目前市场上约有十五六家企业涉足大模型领域,未来预计数量将减半,仅留存六七家。在自研模型 方面,阿里、腾讯、字节、百度头部企业,持续投入资源进行迭代升级自研模型,以保持技术领先地位,另一 方面,它们也会借鉴 DeepSeek 等先进模型的技术方法,不断提升自研模型的竞争力。被称为“AI 六小虎”的 6 家中国大模型独角兽(智谱、零一万物、MiniMax、百川智能、月之暗面、阶跃星辰)中,已经有两家逐步放 弃预训练模型,缩减了预训练算法团队人数,业务重心转向 AI 应用,目前应用较多的是月之暗面 Kimi、智谱、 Minimax。与此同时,处于第二梯队的企业则面临转型压力,例如商汤、百川等,转型方向主要聚焦于两方面: 一是转向应用开发,通过将大模型技术融入各类应用场景,实现技术的落地与商业化;二是聚焦垂直模型,针 对特定行业或领域,打造更具针对性和专业性的模型,满足细分市场的需求。逐步降低对自研模型的依赖,最 终淡出自研模型的竞争。
(二)DeepSeek 促使国内大模型定价下降,进而推动周边产品创新
国内大模型定价以 DeepSeek 官方价格为指导,各厂商定价逐渐下降。开源模型如 Llama、DeepSeek 等, 不涉及与第三方结算,可自由运营,主要变化体现在国内定价下降。国内和海外的定价存在显著差异。国内价 格已大幅下降,需要与 DeepSeek 官方价格一致或略低于官方价格,即 R1 价格为 16 元/100 万 token,V3 价格 8 元/100万token。以阿里的 Qwen 2.5 Max模型为例,此前保持着较高利润率,定价为 60元/100万token,在DeepSeek 进入市场后,现在已降至 9.6 元/100 万 token,整体来看,官方旗舰模型和视觉推理模型的价格都在下调。豆包 的定价策略较为激进,为应对竞争直接以 5 折官方价推出,这表明大厂之间已经开始了价格战。国内各大厂商 整体价格开始下调,长期趋势是接近官方价格。而海外通常是几十美金/100 万 token,海外市场仍保持较高利润 率,目前尚未调价。海外主要以公有云使用模式为主,企业习惯通过公有云进行部署。而国内仍有一定比例采 用私有化部署,将模型下载到自己的数据中心,在本地机器上进行所有训练和推理,国内厂商和海外厂商在大模型上的收入相差几个数量级。在这种情况下,阿里处于微亏或低利润状态,为提升 Maas 平台的运营能力和利 用率,模型贴本或微亏出售,为提升利润,在使用模型时还会关联其他产品,这些其他产品能够提升阿里模型 调用的利润率,弥补部分损失。
阿里通过将模型与其他产品相结合的方式弥补因模型调用利润率降低所带来的损失。随着模型定价的下降, 调用量有望显著上升。虽然调用量的增加可能导致自研模型调用量出现一定程度的下滑,不过从总体调度情况 来看,由于市场需求的扩大,整体的调度量依然会增长。例如,当前阿里免费为每个用户提供 1000 万 token, 当定价下调时,token 的利用率会相应提高,从而在一定程度上提升利润率。若直接售卖模型,价格受到限制, 难以突破其设定的界限。于是,阿里选择将模型封装成产品,这一转变促使价格体系发生了根本性变化。通过 将不同层级的功能和服务分开定价,避免了简单的大模型定价模式,提升商业化利润率。阿里所提供的产品并 非仅仅局限于模型本身,其涵盖了丰富多样的模型类型,如音频模型、文字模型、动态模型等。并且,除了各 类模型,还有大量辅助应用开发的产品插件,例如数据库插件、搜索插件、优化分析插件等,数量多达几十个。 从模型调用次数的比例来看,模型本身的调用占比约为 6 成,而插件的调用占比达 4 成。目前平台上的插件调 用占比呈上升趋势,其种类也日益丰富。这些产品插件能够通过与模型 API 相结合的方式,拉动数据使用,进 而提升整体利润率。在这种模式下,模型本身可能利润微薄甚至不盈利,但借助周边产品的协同作用,能够将 整体利润水平拉高。
三、AI 助推阿里云增速中枢上行,苹果阿里合作前景广阔
(一)AI 赋能阿里云,助力增速中枢上行
传统云业务板块 IaaS、PaaS、SaaS 持续增长,IaaS 业务占比最大,PaaS、SaaS 利润率高。阿里云主要包 含 5 个业务板块:IaaS、PaaS、SaaS、MaaS、行业解决方案。IaaS 是基础硬件设施服务,涵盖服务器售卖以及 多种租赁业务,如弹性计算、云主机 CPU 服务器租赁、高性能服务器 HPC、GPU 租赁,还有存储、网络、带 宽、CDN 等。该部分占整个业务板块的 40%以上。IaaS 前期需要投入大量开发成本,入局门槛高、市场集中度 高;阿里云与其他厂商 IaaS 产品矩阵高度相似,主要通过低价策略抢占市场份额,同时也更具规模效应和趋同 效应,因此毛利率较低,大概在 15-20%,EBITA 利润率仅为个位数。在国内云计算市场份额方面,阿里、华为、 中国电信、中国移动和腾讯为市场排名前五,阿里占比超过 1/4。阿里云拥有约 400 多万客户,多数客户选用最 基础的产品,如 office 终端服务器,并将业务部署到云上。在国内,阿里云设有华北、华中、华南、西北、西 南 5 大超级数据中心,通过负载均衡技术,无论客户身处何地,都能就近获取算力服务。在国际市场,阿里云 在东南亚的越南、新加坡、印尼、菲律宾、泰国、日本以及中国设有数据中心,业务辐射东南亚本土;在中东 的迪拜、利雅得等超大城市也有专门数据中心。此前,阿里云在北美硅谷和弗吉尼亚设有数据中心,因地缘政 治因素现已退出美国和加拿大市场,目前该区域主要由微软和谷歌主导。今年,阿里云计划在墨西哥开放数据 中心,以辐射中美洲和南美,同时在泰国也将开通数据中心,服务周边地区。AI 发展催生云基础设施新需求, 包括更大的训练与推理计算力,以及因模型参数增长带来的存储需求。故而在 AI 时代,IaaS 层趋同效应或减弱, 头部化更显著,稳定、智能且性价比高的云基建极为关键。PaaS 层为开发者和企业提供全生命周期技术支持, 涵盖 Serverless 服务、数据库、中间件、大数据处理等,在阿里业务体量中占比约 30%,利润率约为 50%。随 着云原生技术日益普及,云上 PaaS 产品优势愈发凸显。头部云厂商凭借硬软一体技术架构与卓越运维能力,使 云上 PaaS 迭代迅速,不仅具备多活、数据备份、灾难恢复等企业级关键能力,还拥有全球化快速部署的实力。 SaaS 层提供完整的产品供客户直接使用,如钉钉、通义灵码 AI 编程助手、宜搭无代码平台等,阿里云秉持“被 集成”的 SaaS 发展策略,并不直接涉足 SaaS 产品的开发领域,而是借助开放 PaaS 层的丰富能力,该板块占比 约 10%,利润相对较高,大概为 60%以上。阿里云整体 PaaS 层及 SaaS 层丰富度较高,通过差异化供给有望获 得较强定价能力。
AI 驱动 MaaS 与行业解决方案业务板块成长。Maas 作为阿里云新一代技术架构的关键组成部分,在 2023-2024 年间,阿里云从传统的 PaaS 和 SaaS 架构成功跃迁到这一全新的模型及服务体系。阿里云 CTO 认为, MaaS 并不是一个技术层,而是一个包含了大模型能力和服务的概念层。过去一年,Maas 的收入产品体系呈现 多样化。一方面,实现大模型商业化,平台汇聚众多通义千问自研模型,如文本、音乐、视觉理解与生成等类 型,同时接入 Llama、kimi、智谱、DeepSeek 等第三方模型。另一方面,平台提供多种服务:一是模型输出, 允许做 APP SaaS 的客户直接调用模型能力,并进一步微调,通过上传自有数据形成基于千问模型的垂直专属模 型;二是支持客户基于开源模型进行深度训练。此外,平台配备搜索、数据库、BI 等数十个可选插件,形成以 模型为核心、叠加众多周边服务的综合性平台。其商业模式主要有:按每千 token 计费的模型调用流量结算; 客户调好模型后,可按小时、天、月或年租用 GPU。整体而言,Maas 收入以租赁为主,模型调用次之,周边产 品销售再次之,在阿里云业务中占比只有个位数,平均利润率 30-40%。阿里云将自身丰富的产品与 AI、大数 据技术深度融合,打造出面向不同行业的定制化方案,如医疗、电信、移动、金融等领域。行业解决方案利润 率较高,稳定在 40-45%,占比约为个位数。代表性产品中,AIot 具体运营模式如 AI 硬件厂商加入至阿里天猫 精灵网络,支付每台网络服务器成本。其他产品还包含开发工具,比如云效面向软件开发企业的 office 工具; EMAS 专门支撑 APP;还有短消息等其他企业服务。

加速云和 AI 硬件基础设施建设,AI 带动 Capex 增加。未来三年,阿里将投入超过 3800 亿元用于建设云 和 AI 硬件基础设施,总额超过去十年总和。过去阿里投资主要集中于 IaaS 硬件采购以及数据中心建设。当下, 数据中心建设已基本完工,未来的资本支出将主要用于基础设施的维护与更新,包括服务器、网络、存储、液 冷、机架、电源等方面。随着 AI 行业的爆发,C 端用户数量的增加以及阿里模型自身用量的上升,这使得实际 需求超出了年初的原定预算,对 Capex 有增量影响。未来,阿里将按季度采购扩容所需的硬件卡,阿里已于 2024 年适配昇腾、寒武纪等国产芯片。 多业态叠加 AI 增长动力共同驱动阿里云业务增长。未来,阿里云的增长动力主要源于以下三个方面:一 是 IaaS 国际市场,预计将保持 15%-20%的增速,在阿里云的业务结构中,IaaS 占据最大份额,而海外业务作为 近两三年兴起的板块,目前呈现两位数增长,占比已从 2023 年的不足 10%提升至现在的 15%左右,且增速高于 国内市场;二是政企项目,此前因竞争激烈,2021-2023 年间大型国企与阿里合作意愿低,而 2023 年后形势好 转,2024 年营收从十几亿跃升至几十亿,增长超 50%,未来有望延续增长;三是阿里 AI,目前阿里云 400 万客 户中使用AI的约33万,渗透率约8%,增长一方面来自向存量400万客户渗透,目标是将渗透率提升至 15%-20%, 即从去年 33 万客户增长到今年约 60-80 万,另一方面 2025 年将迎来大流量,DeepSeek 现日活 3000 万以上且持 续增长,预计今年可达 6000 万级别,阿里将承担约 1/3 份额,同时苹果计划为高端手机及 MAC 等产品打造端 侧模型,相关业务若接入阿里云也将成为增长动能。
大模型及 AI 重构产品驱动阿里云营收增长。大模型与生成式人工智能应用市场保持着高速的增长,无疑将带动阿里云收入增长。阿里云 FY2025 第三季度实现营收 317.42 亿元,同比增长 13%,增速较上一季度的 7% 显著提升,主要得益于 AI 相关产品对公共云收入的拉动,其中,AI 收入连续六个季度保持三位数增长。2024 自然年纯 AI 及 AI 周边产品收入约 70 亿元(含智能客服 10 亿元、内容安全审核 7-8 亿元),占阿里云收入比例 为个位数,预计到 2025 年或 FY2026 占比能达到两位数。收入归属方面,AI 业务涵盖模型调用、GPU 租赁及 周边产品,例如 MaaS 平台客户完成模型训练后租赁算力的收入计入 MaaS 板块,而非 IaaS。2024 年阿里纯模 型调用收入约 2 亿,GPU 租赁收入约 30 亿,插件及周边产品收入 1 亿多,软件与硬件合计约 35 亿,主要依赖 大客户支撑。阿里云 MaaS 利润率从过去的 50%以上降至 20%左右水平,主要因 DeepSeek 低价策略引发行业降 价压力,叠加研发与工程成本攀升。为应对利润下滑,阿里云通过 MaaS 平台周边产品(如文本安全数据库、 SQL 插件)提升利用率,以弥补模型亏损。同时,后训练工具开发与 V3 模型免费额度策略吸引客户留存,并 通过垂直行业(教育、金融)的深度推理需求巩固竞争力。尽管模型利润承压,但客户在部署 DeepSeek 等新模 型后,预计将逐步转向付费模式,叠加行业解决方案的长期收益,有望平衡整体运营。
DeepSeek 间接拉动阿里云端 API调用量快速增长,MaaS 平台成为关键抓手。阿里云 AI 客户数从去年 12 月的 33 万增至今年 2 月初的 34.6 万左右,新增约 1.5 万客户中多数为存量用户转化,主要受免费体验策略驱动 (如 DeepSeek 模型开放 1000 万 token 免费额度)。这些用户对免费资源消耗迅速,约五六千客户在 10 天内耗 尽额度,预计4 月起 DeepSeek 相关调用量在阿里云总调量中占比将超过50%。随着免费期结束及正式定价推出, 预计更多客户将基于 DeepSeek 的 R1、V3 模型开发垂类应用,进一步巩固云业务与 AI 生态的协同效应。此外, 阿里云对 AI 渗透率持乐观预期,计划通过持续优化工具链(如后微调工具)和降低迁移成本,推动一季度末 AI 渗透率提升,其中已有部分客户开始尝试后训练及垂直模型构建。阿里云当前客户总量约 400 万,年度增长 较为平缓,但通过 AI 业务向存量客户深度渗透实现结构性增量。客户的产品构建逻辑正发生根本性转变,AI 从可选模块升级为基础设施,直接推动 RAG 插件、外挂知识库、智能搜索等辅助功能需求激增。此类增量业务 对算力的消费较通用场景提升约 30%,尤其在教育、金融、科研等深度推理需求强烈的行业表现突出。然而, 部分领域(如办公软件)因原有模型系统成熟且客户已投入微调成本,短期内迁移至新模型的意愿较低。
(二)阿里携手苹果开创端侧用户新体验,有望带来新的增长曲线
阿里以其在模型及数据上的优势满足苹果高标准要求,进而赢得苹果青睐。阿里具备诸多优势。其一,阿 里此前已与高通、MTK 等头部芯片厂适配,并有实际案例,如传音旗下 TECNO、itel 和 Infinix 三大品牌,其 中 TECNO 在非洲、中东、东南亚地区采用端侧模式,阿里在安卓、Windows 平台积累的相关经验,可复用到iOS 上。其二,阿里自身模型已在网信办完成备案,算法也历经一年多完成合规审批。苹果在海外版采用端侧 自有模型结合 OpenAI 的架构,期望端侧模型由自身掌控。然而,任何公司欲在中国市场开展生成式 AI 服务, 都需通过政府审批备案。国内产品上线商业化,需依据网信办《生成式人工智能服务管理办法》进行算法备案, 包括开源代码及说明数据集来源等,苹果因不愿开源而导致端侧模型在国内备案受阻,在此背景下,苹果决定 寻找一家中国合作伙伴以服务中国用户,而阿里成为其最优选择。其三,苹果的端侧模型架构,需先由用户端 处理数据,再传至苹果私有云加密,最后传到阿里云进行推理,这要求阿里能解析加密数据、脱敏并定制,市 面上的通用模型无法满足。其四,阿里能给予长期服务承诺,苹果对用户体验要求极高,最初欲合作的百度在 打磨沟通中难以快速响应。DeepSeek 因缺乏端侧模型,且自身 C 端用户量无法支撑足够算力,难以满足苹果未 来用户量爆发的需求,未能加入合作。此外,苹果还有诸多定制需求,如对接 Siri 指令并保证响应速度,定义 端侧文本、图像等多种场景,要求端侧模型显存小、功耗低等。阿里因掌握更多中国消费者个人数据,如购物 和支付习惯,且 AI 模型已在这些数据集上训练,能助力苹果为中国用户提供定制服务,成为苹果最终选择。不 过,为保障数据安全,阿里不会与苹果分享个性化数据集。未来数据安全要求数据本地化存储,多模态交互使 用云端模型时,处理完数据需过滤敏感信息,不允许云端存储完整原始信息。
重点利用 AI提升端侧(手机侧)的用户体验。阿里需要进行多智能体的调度,同时需要借助 Siri 打通阿里 模型,进而打通 iOS 上的各类应用,如邮件、短消息、记事本、日历等。如此一来,用户只需下达简单指令,即可实现跨 APP 操控。例如,用户说“请帮我订一下明天下午 2 点的电话会议”,系统便能自动完成设置,并 在明天 1:50 进行提醒。在交互体验方面,还涵盖诸多细分场景,打电话时的多语言翻译功能,即便双方语言不 同,也能实现顺畅交流;又如图像搜索功能,用户只需告知 Siri 查找照片,系统就能快速自动检索出来,为用 户带来全新体验。对于第三方应用,如淘宝或饿了么,现阶段仅能实现打开应用,选择商品和支付功能尚未完 善,不过未来已有相关规划。今年,阿里仍将以提升端侧体验效果为主要目标。端侧 license 采用阶梯定价模式, 出货量不同价格也有所差异,如 5 万级别、500 万级别、千万级别各有对应价格。同时,苹果要求阿里提供固 定算力支撑,如针对 1000 万用户、2000 万用户、3000 万用户等不同规模,分别确定所需的算力卡数量。未来 合作将围绕端侧 license 和一定的算力支撑展开,但这种合作并非百分百确定。目前阿里在技术上正在与苹果对 接,但由于苹果认证的流程极为复杂,需要专门团队长期配合以满足其多样化需求,期间可能出现各种问题, 远期功能仍具有不确定性。 与苹果合作能带来显著增量。苹果在硬件设计与制造领域处于领先地位,大模型针对苹果芯片、传感器等 硬件进行深度优化,可促使硬件协同优化能力快速提升。同时,苹果产品定位高端,与之合作有助于大模型服 务进入高端市场,吸引更多高端用户和企业客户,为后续拓展业务和市场份额奠定基础。阿里将在云端为苹果 提供固定算力。据阿里测算,若支撑 1000 万用户,苹果需向阿里支付 20 亿人民币;若支撑 2000 万用户,则支 付 40 亿至 50 亿人民币,支付金额与用户量相关。阿里将根据用户量扩容来支撑苹果未来在 AI 方面的云端算力 需求。苹果的合作方式较为特殊,阿里需为其特别开辟一个集群,从营收角度看,该部分收入既属于模型收入, 也可归为 maas 范畴,且苹果的数据与阿里其他客户的数据完全隔离。在未来商业合作中,阿里的首个重要节点 是为 3 月 25 日的机器学习发布会做准备,届时将展示现阶段产品成果,手机、平板等设备都将集成模型。
四、AI 应用市场潜力巨大,有望逐步起量贡献增长动能
(一)持续深耕自研模型,加速 AI 应用市场落地
AI 模型布局继续深耕通用推理模型与深度推理模型,同时聚焦细分场景产品和智能体的开发。阿里在 AI 模型布局上呈现出差异化战略路径,技术体系构建于两大维度:通用推理模型与深度推理模型。前者以通义千 问为代表,承担基础能力支撑;后者专注于提升模型的推理能力,追求深度思考和分析的顶尖表现。深度推理 模型 Qwen 系列的独立产品化,标志着阿里正在构建类 OpenAi-O1 技术体系这一新范式。该体系着重解决复杂 任务拆解、多模态推理等深度认知问题,已在科研分析、金融建模等领域形成标杆案例。这种技术分层策略不 仅完善了产品矩阵,更在底层形成了从基础研究到商业转化的完整闭环,为行业智能化转型提供了可复制的技 术框架。阿里计划打造类似海外 Deep Research 智能体的产品,该智能体具备赋能研发与研究的能力,能够撰写 和生成更高质量的研究报告。未来,阿里将从单纯的模型价格竞争,转向在商业应用及聚焦产品力方面,通过 开发一系列新形态的智能体产品服务客户,并基于这些新产品制定定价策略。在产品架构层面,阿里云的战略 转型尤为显著。过去一年 MaaS 服务以提供基础模型和微调能力为主,而当前则加速推进"模型即产品"的深度改 造。具体表现为:一方面通过技术优化降低模型调用成本,另一方面将 AI 能力封装为可即插即用的智能体产品。 这种转变使得客户无需直接调用底层模型,而是通过智能体 API 快速构建业务解决方案,显著降低了技术使用 门槛。支撑这一转型的核心理念包含双重维度:技术驱动商业重构与技术普惠。在商业重构层面,阿里正以生 成式 AI 为支点重塑核心业务体系——电商场景中,AIGC 技术已实现服装广告的智能拍摄与设计,成本降幅达 70%;广告系统通过 AI 精准投放使 ROI 提升 30%;钉钉生态则集成智能会议助手、HR 智能体等 20 余个垂直 应用,服务超 7 亿用户。在技术普惠维度,阿里云将 MaaS 升级为包含基础模型、场景化产品、智能体市场的 三维服务体系,通过标准化产品输出降低行业 AI 应用成本。
AI应用市场潜力巨大,核心聚焦 AI Chatbot、教育及金融领域。AI Chatbot 产品在 APP 等应用中逐渐成为 标配。其优势在于将以往的快思考转变为慢思考,虽回复时间延长几秒,但回答问题更加系统、准确,极大提 升了回复质量。例如,DeepSeek 在数据方面存在短板,数据多依赖外部搜索。一旦为其提供搜索引擎的平台(如 豆包、百度、搜狗等)停止合作,即便 R1 模型性能强大,在面向 C 端用户时,整体表现也会因数据不足而逊 色于国内互联网大厂。相比之下,阿里拥有海量 UGC 产生的数据,在 AI Chatbot 方面存在数据优势。其次,大 模型推动教育行业的创新,过去 AI 在教育场景中主要是简单地帮助用户上传经验、告知题目解法。如今,大模 型的创新带来了新的变化,它能够呈现题目思考和推理过程,为学生和老师提供更强大的教育交互方式。用户 可以反复提问,模型会从不同侧面讲述解题过程。金融领域一直对模型精度要求极高,阿里平台上的金融客户 都倾向选择最强模型。大模型专门为金融业务赋能,业务系统集成了数据分析、数据挖掘等功能,在财报分析 等场景中发挥作用,在大模型的加持下,业务系统的表现更加强劲。此外,还可量化为较小模型,为 AIPC 等 产品赋能。虽然目前模型尚未优化到小端侧设备(如眼镜、行李箱、可穿戴设备等),但在电脑上已实现应用, 未来有望在更多小端侧设备(如摄像头、路由器、扫地机器人、音箱、手机等)的芯片 Soc 上进行优化,实现 端侧推理,推动整个行业发展。在汽车智能座舱方面,可以将小模型置于中控,提供 Copilot,提升人机交互体 验。同时,智能驾驶方面,大模型可通过多模态模拟生成一些环境,类似 cosmos 世界模型生成用于模拟仿真的 环境,如道路交通、桥梁、隧道及各种复杂天气,为自动驾驶测试提供更多数据源,减少实地采集数据的需求, 加速模拟训练的复杂度。
阿里推出了一系列基于模型的增值服务产品,产品利润率可观。析言 GBI,集成于应用市场,可结合模型 对阿里客户的销售数据、库存数据、营收数据等进行分析。用户输入 1000 个数据相关问题,它能快速生成报表,并进行趋势分析,如预测库存时长、回款时间等,辅助客户决策。智能客服,包括电话和文字智能客服,通过 预训练模型和搜索功能(如夸克搜索)获取信息并生成结果。RAG,企业可将自身数据灌入其中,模型能够进 行推理。通义听悟,专注于语音识别和语音合成,可将会议音频快速转化为去除口语的完整纪要。电商辅助产 品,能将原始图片输入模型,生成用于电商展示的图片和视频,大幅降低成本。在周边产品方面,RAG、SQL、 BI 等已成为客户选择产品时的标配插件,通常客户至少会选择两到三个此类产品。这些产品价格相对稳定,能 保持较好的利润率,在大模型本身可能利润微薄甚至不盈利的情况下,借助这些周边产品的协同作用,将整体 利润水平拉高。
百炼未来计划构建大量智能体,目前智能体已划分出不同层级。其中,面向企业端的角色化智能体发展态 势良好。以钉钉为例,作为最早应用此类智能体的平台,已针对企业多样化场景打造了约 700 个官方智能体。 这些智能体广泛分布于企业的各个职能领域。在财务板块,细分出了数十个智能体,涵盖会计、总账管理、财 务管理等多个具体类别;人力资源领域则包括招聘、面试、薪资核算、培训等不同环节的智能体;此外,资质 管理、采购行政等方面也均有相应的智能体覆盖,可谓渗透到了企业运营的方方面面。企业基于阿里提供的官 方智能体,进行一定程度的调整,如改变智能体的顺序或名称,无需复杂的微调操作,即可转化为贴合自身需 求的智能体投入使用,大大提高了智能体在企业中的应用效率和适应性。但目前应用仍存在任务复杂度边界, 智能体当前无法替代 CRM、OA 等复杂流程系统(如多部门协作的项目管理、跨系统数据同步),其定位偏向简 单任务自动化和流程节点提速。

(二)战略聚焦 C 端产品叠加 AI 赋能
成立智能信息事业群,数据打通与 AI技术驱动新流量入口。过去阿里云主要专注于 To B 业务,而 C 端产 品呈现出分散的状态,像夸克、秒鸭、通义等产品,由多个不同的团队分别运作。这种分散的管理模式使得 C 端业务发展受到诸多限制。一方面,阿里整体关注利润率,对 C 端业务的推广投入较少;另一方面,C 端产品 分布在不同事业群,如公益项目放在阿里云,不仅缺乏做 To C、To B 业务的预算,而且员工习惯了 B 端产品的 思路,与 C 端战略差异较大。为了改变这一现状,阿里在 2024 年底对主架构进行了重大重组,将原本分散的 C 端产品和硬件产品整合到新成立的智能信息事业群。同时,从海外聘请了来自 Salesforce 的许主洪教授,负责 C 端技术和业务规划。这一举措使得 C 端业务得以独立发展,与 B 端产品完全分离,模型团队和 C 端产品团队也 各自独立运作。未来,C 端产品将拥有独立预算,计划在 C 端市场大规模投放互联网广告,与豆包等产品展开 竞争。对 C 端用户而言,打通淘系生态与数据至关重要。AI 驱动应用会使电商入口迁移,需打通地图、电商、 飞猪等生态数据,打通后入口将转向新的 AI 方向,形成新流量入口。未来流量会协同高德地图、饿了么等生态 APP,相互推荐入口,通义 APP 为协同入口,引导客户下载和使用,从而实现业务的增长和拓展。在 C 端产品 方面,各个产品都有明确的发展目标和策略,关注教育、社交类产品,以季度为单位推出新产品。以夸克 APP 为例,它已经拥有 2000 多万稳定的日活用户,且用户群体主要集中在 15 岁到 25 岁的年轻人。未来,夸克将聚 焦于 AI 教育、AI 健康、AI 高考志愿等场景,有望成长为超级 APP,2025 年目标是将日活提升到 3000 万。同 时,夸克还具备独特的商业价值,其宽带发展能力可以封装成搜索 API,供模型能力客户调用,搜索结果也可 以单独售卖,相关收入归属于云业务。此外,C 端事业部将形成产品矩阵对标豆包 Flow 团队,但产品数量会控 制在五六个左右,以实现更高效的运营和管理。
端侧战略主要聚焦于汽车、手机、PC 三大硬件,同时对于小硬件也采用自主研发或合作的方式推进。端 侧已经拥有丰富的模型,包括不同规模的语言模型、视觉模型和语音模型。这些模型具有强大的功能,能够识 别多语言,包括方言,还可以合成不同的声色,为用户提供更加个性化的体验。智能信息事业群下专门设立了 负责 AI 硬件的团队,目前已有 200 多人。在 2024 年,他们推出了多款产品,如升级版的天猫精灵 X6、闺蜜机 等,这些产品背后都采用了模拟驱动技术。此外,还涉及 AI 眼镜等产品,像 Rokid、雷鸟等背后的技术应用。 在大硬件方面,阿里积极与外部合作。手机方面与传音深度捆绑,传音出海的手机搭载端侧模型后可实现打电 话实时多语言翻译,且在本地处理;PC 方面与联想合作,联想新一代 AIPC 中集成了相关技术;汽车方面与智 己汽车、吉利汽车等新锐汽车公司合作,将端侧模型嵌入智能座舱,提供新的交互式体验。阿里还计划将通义 模型做成操作系统(OS),采用“1+3+N”模式开放给生态。“1”是通义千问,“3”是中控屏、智能音箱等三个 产品,“N”是周边产品如扫地机等,通过 SDK 让周边客户接入,形成一个庞大的 AI 硬件生态系统。 大模型与数据打通升级用户画像,提升精准推送质量。Meta 这类占据市场份额较大的社交平台,用户使用 时间长,产生的信息丰富。Meta 使用大模型捕捉用户的历史资料、平台信息、分享的图片、位置、言论和转发 内容等,以小时为周期更新画像,精准度远超其他平台。在这种精准画像的基础上,平台可以实现默认推荐商 品、增加智能导购以及与用户对话推送更精准信息。这种合作模式能以小时或天为单位更新画像,精准度远超 静态画像。相比之下,国内电商领域的用户画像与 Meta 不同,阿里很多推荐基于相对静态的画像,如年龄、地 址、职业、收入等,静态画像依据的是一两个月前的信息,精准度自然欠佳。要提升广告效果,首先要打通整 个阿里系的数据,包括飞猪等非淘系 APP 以及未来 C 端产品的数据,用户画像会更饱满,也可拉通各 APP 的 标签进行共同推荐。目前阿里先打通非淘系的地图、飞猪等 APP 的数据,并进行灰度测试,选取 1 万个或 500 个客户测试,已取得一定效果。不过,阿里存在内容缺失的问题,缺乏像抖音那样用户自发创作的丰富内容。 若能补齐内容短板,再结合数据打通,效果会比之前更好。未来,通义等其他 APP 中拉通淘系数据,用户通过 与 AI 对话就能搜索并直接购买产品。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
- 亚太强力名单_Directors’ Cut:3月更新,将阿里巴巴胜宏科技APRTata Consumer加入名单;移出Samsung F&M三菱房地产地平线Titan(摘要).pdf
- AgentScope:迈向 Agentic 智能体应用-阿里巴巴.pdf
- 中国电商行业:四季度业绩前瞻;首选推荐阿里巴巴和拼多多.pdf
- 阿里巴巴公司研究报告:重启新篇章:聚焦、增长、重估.pdf
- 阿里巴巴-BABA.US-AI云业务前景乐观,即时零售达成里程碑.pdf
- 正泰安能:向设计要效益:AI自动化设计的实践与回报.pdf
- 艺恩报告:智驾未来:AI重塑汽车消费新纪元.pdf
- 清鹏算电:AI与电力市场应用探索——清鹏能源大模型智能体实践与展望.pdf
- 启信慧眼:全球布局洞见先行:构建AI时代的供应链韧性-2026供应链风控白皮书.pdf
- 计算机:通过AI原生,提升驾驶敏捷性和商业价值统一采购平台(英文版).pdf
- 相关文档
- 相关文章
- 全部热门
- 本年热门
- 本季热门
- 1 阿里巴巴2019年年报.pdf
- 2 2021阿里巴巴碳中和行动报告.pdf
- 3 阿里巴巴数据中台实践分享.pdf
- 4 深度解析阿里巴巴、小米、京东、美团的战略变迁(98页PPT).pdf
- 5 阿里巴巴的新零售与生态赋能体系研究(58页).pdf
- 6 阿里巴巴集团港交所上市招股书全文661页.pdf
- 7 阿里巴巴vs亚马逊,五层飞轮战略全景分析.pdf
- 8 阿里巴巴深度研究:练就核心商业强大基本盘.pdf
- 9 企业IT架构转型之道:阿里巴巴中台战略思想与架构实战.pdf
- 10 阿里巴巴IPO上市路演中文版PPT.ppt
- 1 互联网行业深度报告:以云计算+AI为主线看阿里巴巴未来发展.pdf
- 2 阿里巴巴研究报告:以长期主义经营电商,跨境与云支撑新增长.pdf
- 3 阿里巴巴:2025年环境、社会和治理(ESG)报告.pdf
- 4 阿里巴巴研究报告:聚焦消费和云+AI战略,持续投入重新创业.pdf
- 5 中国电商行业:四季度业绩前瞻;首选推荐阿里巴巴和拼多多.pdf
- 6 阿里巴巴研究列报告:业务重知,价值重判.pdf
- 7 阿里巴巴-BABA.US-AI云业务前景乐观,即时零售达成里程碑.pdf
- 8 阿里巴巴公司研究报告:重启新篇章:聚焦、增长、重估.pdf
- 9 阿里巴巴公司研究报告:“千问”App上线,竞逐全球市场.pdf
- 10 阿里巴巴公司研究报告:AI应用关键一手,阿里AI飞轮提速可期.pdf
- 1 中国电商行业:四季度业绩前瞻;首选推荐阿里巴巴和拼多多.pdf
- 2 AgentScope:迈向 Agentic 智能体应用-阿里巴巴.pdf
- 3 亚太强力名单_Directors’ Cut:3月更新,将阿里巴巴胜宏科技APRTata Consumer加入名单;移出Samsung F&M三菱房地产地平线Titan(摘要).pdf
- 4 讯飞医疗科技公司研究报告:AI医疗先行者,贯通式布局医疗信息化.pdf
- 5 医药生物行业医疗器械2026年度策略:把握出海陡峭曲线,卡位AI医疗商业化落地.pdf
- 6 艾瑞咨询:2025年中国企业级AI应用行业研究报告.pdf
- 7 新经济中工作的四大未来:2030年的AI与人才(英译中).pdf
- 8 2026年半导体设备行业策略报告:AI驱动新成长,自主可控大时代.pdf
- 9 青矩技术公司研究报告:全过程工程咨询服务领军者,积极布局AI推行数智化咨询新模式.pdf
- 10 AI医疗行业专题报告:AI重构医疗,从场景落地到变现讨论.pdf
- 全部热门
- 本年热门
- 本季热门
- 1 2026年产业赛道与主题投资风向标:上海市出台楼市优化新政,阿里巴巴开源Qwen3.5_Plus
- 2 2025年阿里巴巴公司研究报告:重启新篇章:聚焦、增长、重估
- 3 2025年阿里巴巴:AI云业务前景乐观,即时零售达成里程碑
- 4 2025年阿里巴巴公司研究报告:AI应用关键一手,阿里AI飞轮提速可期
- 5 2025年阿里巴巴公司研究报告:“千问”App上线,竞逐全球市场
- 6 2025年阿里巴巴研究报告:重构乐观悲观情景分析;阐述AI云资本支出到收入的转化框架
- 7 2025年阿里巴巴研究报告:AI叙事强劲,业绩及估值仍有上调潜力
- 8 2025年阿里巴巴研究报告:AI叙事强劲,业绩及估值仍有上调潜力
- 9 2025年聚焦中国互联网行业:领先AIapp追踪,重点关注多模态,AI基础设施题材重燃;上调阿里巴巴目标价格(摘要)
- 10 2025年阿里巴巴研究报告:聚焦消费和云+AI战略,持续投入重新创业
- 1 2026年产业赛道与主题投资风向标:上海市出台楼市优化新政,阿里巴巴开源Qwen3.5_Plus
- 2 2025年阿里巴巴公司研究报告:重启新篇章:聚焦、增长、重估
- 3 2025年阿里巴巴:AI云业务前景乐观,即时零售达成里程碑
- 4 2025年阿里巴巴公司研究报告:AI应用关键一手,阿里AI飞轮提速可期
- 5 2025年阿里巴巴公司研究报告:“千问”App上线,竞逐全球市场
- 6 2025年阿里巴巴研究报告:重构乐观悲观情景分析;阐述AI云资本支出到收入的转化框架
- 7 2025年阿里巴巴研究报告:AI叙事强劲,业绩及估值仍有上调潜力
- 8 2025年阿里巴巴研究报告:AI叙事强劲,业绩及估值仍有上调潜力
- 9 2025年聚焦中国互联网行业:领先AIapp追踪,重点关注多模态,AI基础设施题材重燃;上调阿里巴巴目标价格(摘要)
- 10 2025年阿里巴巴研究报告:聚焦消费和云+AI战略,持续投入重新创业
- 1 2026年产业赛道与主题投资风向标:上海市出台楼市优化新政,阿里巴巴开源Qwen3.5_Plus
- 2 2026年创新引领,AI赋能:把握科技产业升级下的投资机会
- 3 2026年新消费行业年度策略:新消费三大引擎,AI+消费、情绪经济、新质零售
- 4 2026年AI“创造性破坏”重构产业生态——多行业联合人工智能3月报
- 5 2026年AI“创造性破坏”下的产业重构
- 6 2026年计算机行业OpenClaw:吹响AI Agent时代号角
- 7 2026年专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告
- 8 2026年腾讯控股重新探讨腾讯的AI争议:嵌入式工作流为何胜过单品表象
- 9 2026年汇量科技公司研究报告:出海程序化广告龙头构筑AI飞轮
- 10 2026年轻松健康公司研究报告:深耕AI医疗的数字健康生态构建者,数据与技术双轮驱动
- 最新文档
- 最新精读
- 1 2026年中国医药行业:全球减重药物市场,千亿蓝海与创新迭代
- 2 2026年银行自营投资手册(三):流动性监管指标对银行投资行为的影响(上)
- 3 2026年香港房地产行业跟踪报告:如何看待本轮香港楼市复苏的本质?
- 4 2026年投资银行业与经纪业行业:复盘投融资平衡周期,如何看待本轮“慢牛”的持续性?
- 5 2026年电子设备、仪器和元件行业“智存新纪元”系列之一:CXL,互联筑池化,破局内存墙
- 6 2026年银行业上市银行Q1及全年业绩展望:业绩弹性释放,关注负债成本优化和中收潜力
- 7 2026年区域经济系列专题研究报告:“都”与“城”相融、疏解与协同并举——现代化首都都市圈空间协同规划详解
- 8 2026年历史6轮油价上行周期对当下交易的启示
- 9 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 10 2026年创新引领,AI赋能:把握科技产业升级下的投资机会
