2026年快手_W公司研究报告:AI赋能全链路提效,可灵能力持续推进

  • 来源:东北证券
  • 发布时间:2026/02/10
  • 浏览次数:92
  • 举报
相关深度报告REPORTS

快手_W公司研究报告:AI赋能全链路提效,可灵能力持续推进.pdf

快手_W公司研究报告:AI赋能全链路提效,可灵能力持续推进。可灵稳居全球视频生成第一梯队,技术及商业化同步领先。我们认为可灵竞争优势体现在过硬的大模型领先技术能力、快手大量的短视频数据资源支撑,以及持续打磨专业工具应用能力,并选择了适合的商业化道路。技术层面,快手十余年的视频数据积累为模型训练提供素材,在大模型爆发之前,快手Y-tech团队已在图像、视频生成领域深耕多年,因此可灵可以在早期紧跟布局Sora等技术突破,并自研了3DVAE和3D时空联合注意力机制。可灵生成内容优势在于电影级的画面视频质感、高频运动的控制能力、视频的一致性以及多模态编辑能力,2.5turbo模型在文生视频与图生视频的...

短视频生态巨头,私域流量优势显著

1.1. 奋楫笃行,普惠流量,拥有下沉市场绝对渗透率

快手从 GIF 工具成长为短视频、直播、电商全域经营的综合生态平台。快手 2011 年以 GIF 工具起步,2013 年转型短视频并引入算法推荐,2016 年 4 月正式上线 直播业务并快速成为核心变现板块,2017 年日活破亿且跻身全球最大单一直播 平台,同期完成多轮头部资本融资。2018 年起开启商业化多元布局,上线电商、 推出极速版,2019 年完善电商供应链体系,2021 年登陆港交所成为短视频第一 股。上市后公司持续优化组织架构、拓展海外市场,2023 年实现上市后首次全 年盈利且电商 GMV 破万亿,2024 年落地自研大模型及可灵等 AI 商业化产品, 2025 年用户规模与盈利水平创历史新高,目前已构建起以短视频、直播为核心, AI 全链路赋能,融合电商、本地生活的超级短视频数字生态。

业务布局方面,公司覆盖线上营销、直播、电商以及以可灵为主的 AI 相关业务。 产品矩阵覆盖主站 APP、快手极速版、快手直播伴侣、一甜相机、快影、可灵 AI 等垂直应用,满足用户创作、娱乐、消费全链路需求。

2025 年,快手持续推进公私域流量协同机制,通过算法权重调整实现流量资源的动态再分配:一方面,向私 域粘性指标优异的创作者倾斜公域曝光资源;另一方面,重构关注页分发逻辑,优化粉丝触达效率与内容承 接能力,助力创作者在涨粉周期内完成私域资产的快速沉淀。根据快手 CEO 程一笑在 2025 快手光合创作者 大会发言,截至 2025 年 Q2,高私域价值创作者在公域场景的曝光量环比提升 10.2%,新增关注数环比增长 7.2%,公私域联动效应持续强化,创作者生态的变现效率与粘性指标同步改善。 用户规模高速增长期已过,持续缓增创历史新高。2025 年第三季度,快手 DAU 同比增长 2.1%至 4.16 亿, 创历史新高,用户粘性指标同步改善,单 DAU 日均使用时长达 134 分钟;MAU 达 7.31 亿,同比增长 2.4%, 流量基本盘持续夯实。增长策略上,平台通过精细化用户增长模型优化获客成本结构,实现投放 ROI 显著提 升;同时重构流量分发机制,强化社区互动场景运营,有效推动用户满意度与留存率双升,形成"低成本获客 -高粘性留存"的良性循环。

1.2. 财务回顾:业绩稳健,盈利能力提升

收入端整体维持增速 10%以上,线上销售服务占比超 50%。2025 年 Q1-Q3 公司实现营收 1032 亿元,同比 增长 12.8%,2025 年 Q3 实现 356 亿元,同比增长 14.2%。分业务来看,线上销售服务、直播服务、其他服 务 Q1-Q3 分别实现收入 578、294、159 亿元,同比增长 11.7%、8.2%、27.5%;Q3 实现 201、96、59 亿元, 同比增长 14.0%、2.5%、41.3%。

利润端,2025 年 Q3 毛利率实现 54.7%,同比增长 0.4pct;经营利润率实现 14.9%,同比增长 4.9pct,经调整 净利率实现 14.0%,同比增长 1.3pct;经营利润实现 53 亿元,同比增长 69.9%,经调整利润净额实现 50 亿 元,同比增长 26.3%。费用端,2025 年 Q3 营运效率持续优化,销售及营销开支占比为 29.3%,同比下降 4pct; 行政开支同比下降 0.7pct 至 1.9%;研发开支占收比同比增长 0.3pct 至 10.3%。

可灵:全球视频生成第一梯队,技术及商业化同步领先

2.1. AI 视频行业:多点突破,星辰大海

AI 视频行业具备重构整个视觉内容产业的革命性潜力,现阶段技术发展及商业 化仍处于早期阶段,远期市场空间天花板十分广阔。技术层面,传统视频生产是 物理世界通过拍摄、建模、渲染的逐帧构建,而 AI 视频通过深度学习的物理规 律模拟,直接从指令生成像素流。生产关系方面,AI 视频大模型使得创作权从 资本密集型机构下沉至个体创意者,因此呈现 2B 工业化落地与 2C 创意破圈并 进趋势。AI 视频能力将随技术瓶颈突破深入渗透影视文娱、市场营销、教育、 游戏、社交、工业制造等应用领域。根据 technavio,2029 年全球 AI 视频行业市 场规模有望达 166.37 亿美元。

1) 早期视频生成模型通常基于生成对抗网络(GANs)或变分自编码器(VAEs), 通过生成器和判别器进行对抗训练来提升模型的图像生成能力和图像鉴别 能力。相较于其他模型架构,GAN 的模型参数量小,更擅长对逐个对象类 进行建模。但由于其训练过程的不稳定性以及较难处理复杂数据集,因此稳 定性较差、生成图像缺乏多样性,且难以捕捉视频中复杂的时空依赖关系, 导致生成的视频片段在连贯性、真实感和细节丰富度上表现不佳,例如会出 现物体突然消失或出现,或者运动轨迹不自然等问题,这些挑战使得早期模 型难以满足高质量、长时程视频生成的需求。 2) 自回归模型及扩散模型架构应用:为解决复杂时空序列、可控性等多个维度 问题,2020 起 AI 视频生成核心主要围绕自回归模型和扩散模型两大范式展 开。自回归模型借鉴了自然语言处理中的序列生成思想,通过逐帧预测的方式构 建视频,确保了时序连贯性,而扩散模型则通过模拟从噪声到清晰图像的逐 步去噪过程。自回归模型的优势在于保证时间因果性,每一帧的生成都严格 依赖于其历史帧,避免了帧间闪烁或内容突变,但也存在计算效率低下和误 差累积等问题。 Video Diffusion Model 的提出开启扩散模型在视频生成领域的应用。扩散模 型通过前向扩散过程逐步向数据中添加噪声,使数据逐渐变为噪声,然后通 过逆向扩散过程从噪声中逐步恢复出原始数据。具体视频生成中,将视频数 据逐步加噪,再学习逆向过程从噪声中生成视频。扩散模型能够提高生成高 质量、高分辨率的视频,对数据的细节和复杂结构有较好的捕捉能力,生成 的视频在视觉上具有较高的真实感和多样性。但整体计算成本较高,生成视 频需要进行多步的去噪过程,使得生成速度较慢且实时性、分辨率较差。此 外模型的训练需要大量的数据和计算资源。

2024 年 OpenAI 推出 Sora 标志着 DiT 成为视频生成主流架构。DiT 结合了扩 散模型和 Transformer 架构的模型,用 Transformer 作为扩散模型的骨干网络,替 代了传统的卷积神经网络(如 U-Net)。Transformer 的自注意力机制能够更好地 捕捉视频数据中的长距离依赖关系和时空信息,从而生成更高质量的视频。DiT 相较于 U-Net 具有更强的扩展性,可以通过增加 Transformer 的层数、宽度或输 入标记的数量来提高模型的计算量,因此可以灵活处理不同分辨率、不同长宽比 的视频,对视频数据的适应性更强,同时也为后续统一处理多模态能力提供架构 基础。目前基于 DiT 架构训练的模型包括 Sora、可灵、海螺、Pixverse 等。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至