全栈布局AI打造第二增长曲线,“AI+”时代具备竞争优势。
1、AI布局全面,长期技术积累+全栈自研能力有望取得先发优势
公司的百度 AI 大底座是国内首个全栈自研的 AI 基础设施,在“芯片-框架-大模型-垂直 行业解决方案”拥有全栈布局。一方面 AI 布局底层架构的构建需要资金和时间积累,公 司自 2010 年开始就布局,拥有长时间积累下的技术和底层资源;另一方面自研架构下底 层和上层设施的耦合度相对较好,公司从芯片到行业解决方案的智能化闭环路径能够上 承应用下接底座,使公司基础云业务与 AI 应用更为契合,实现端到端的优化。
我们认为无论是 AI 还是云服务市场都具备“飞轮效应”,公司在技术层面的提前布局一 方面让公司 AI 模型发布层面具备先发优势,另一方面 B 端行业用户也会更倾向于技术架 构更为完整的科技公司,领先构建垂直行业生态的同时,也可通过行业数据反哺模型训 练,形成良性循环。 公司的 AI 布局主要包括基础层、技术层和应用层 3 个层面: 基础层:以昆仑芯片为 AI 计算的核心,百度百舸 AI 异构计算平台提供包含计算(百 度太行)、存储(百度沧海)、加速、容器四大 IAAS 层核心套件赋能 AI 底层架构。
中台技术层:以百度 PaddlePaddle 深度学习框架+文心大模型为核心,能够实现从数据 准备、AI 模型训练、生产、部署、测试的全链路、批量化生产。 应用层:依靠公司十余年积累的行业数据,面向金融、能源、互联网、教育、运营商、 制造、政府等行业提供垂直行业解决方案。

公司坚持 “云智一体”战略,有助于后续云与 AI 商业化落地。组织架构上的统一有助 于推动云与 AI 商业化落地:对标海外公司,微软 2017 年成立 Cloud AI 平台部,2018 年旗下资深副总裁级科学家及相关团队调任微软云体系,推动 AI 和云加速融合,同时微 软云改名为微软云与人工智能事业部,在此之后微软云收入、AI 影响力逐年上升。2020 年 5 月公司将 ACG(百度云)、AIG、TG(基础技术体系),整合为“百度人工智能体系” (AIG),由王海峰统一负责,自 2020 年至 2022 年,实现了“云智一体 1.0”至“云智 一体 3.0”的进化。
2、AI大底座之飞浆PaddlePaddle:国内首个自研开源深度学习框架,迭代速度位居国内前列
PaddlePaddle 为国内首个自研开源深度学习平台,助力公司构建 AI 生态。深度学习框 架作为 PASS 层中台,上承行业应用,下接底层芯片架构,是智能时代的操作系统,降低 了 AI 开发难度,开发者可通过其各种接口调取相应能力从而提升开发效率。
PaddlePaddle 于 2016 年发布,最初用于促进公司内部机器学习和深度学习的应用和研 究。自 2017 年开始,PaddlePaddle 开源,并成为国内首个产业级深度学习平台,平台 集工具组件、端到端开发套件、基础模型生态系统、核心框架于一体:核心框架涵盖开 发、训练推理部署等细分领域,具备大规模分布式训练技术及产业级数据处理等训练, 以及端边云深度优化的高性能推理能力。基础模型库包含经典的自然语言 PaddleNLP、 计算机视觉 PaddleCV、语音技术 PaddleSpeech 和推荐技术 PaddleRec 及文心大模型。
端到端开发套件则包括语义理解、图像分类、目标检测等开发套件。工具与组件包括强 化学习、联邦学习、图神经网络,科学计算、量子机器学习、生物计算的工具组件及预 训练模型应用工具、全流程开发工具、可视化分析工具以及安全隐私工具、资源管理与 调度等等,能够让科技工作者和开发者简洁快速地进行技术创新和应用实践。公司的 PaddlePaddle 自发布以来经过多次版本迭代,目前底层搭建完备,具备良好的开 发者和企业应用生态。截至 2022Q4,平台上模型创造数量超过 67 万,开发者累计数量 超过 535 万,使用企业数量超过 20 万。
PaddlePaddle 在 Github 使用人数、贡献者人数和技术迭代速度上国内大幅领先,仅次 于海外一线平台 Pytorch 和 TensorFlow。根据《2022 深度学习平台发展报告》,近年来 飞浆平台发展增速加快,2022 年贡献人数增速达 60.80%,关注度增速 37.60%,超过国 内外其他平台,有望进一步缩短与国外头部深度学习框架差距。目前生态完善,使用率 位居国内第一,根据信通院数据,截至 2022 年 12 月,百度飞桨已经成为中国深度学习 市场应用规模第一的深度学习框架和赋能平台,汇聚 535 万开发者,服务 20 万家企事业 单位,基于飞桨构建了 67 万个模型。
3、AI大底座之文心大模型:涵盖四大行业基础模型及垂直细分领域,降低AI应用开发者门槛
文心平台利用公司自研的深度学习平台飞桨打造,提供 AI 大模型与行业大模型,开发平 台与开发工具,产品与社区等一站式 AI 开发服务。旗下 “文心一言”作为国内首款正 式发布的生成式语言大模型,拥有文学创作、商业文案创作、数理逻辑推算、中文理解、 多模态生成等功能。
百度文心 ERNIE 最早源于 2013 年公司推出的神经网络语义匹配技术,其最初被用于改进 搜索结果相关性,经过内部锤炼后对外开放。最早以公司核心技术的 NLP 模型为主, 2019 年先后发布 1.0 及 2.0 版本,2.0 版本基于持续学习的语义理解预训练框架,使用 多任务学习增量式构建预训练任务,在模型的效果上超越 Bert。随后不断向外延展至各 大 AI 基础领域和垂直行业(例如 2021 年 5 月开源的多粒度语言知识增强模型 ERNIEGram、长文本理解模型 ERNIE-Doc、融合场景图知识的跨模态理解模型 ERNIE-ViL、语 言与视觉一体的模型 ERNIE-UNIMO 等)并最终形成了目前 AI PAAS 文心平台架构。
文心大模型体系提供包括 NLP、CV、跨模态、生物计算等四大 AI 核心应用领域的基础大 模型及各细分垂直行业模型:文心 NLP 模型:是公司的核心 AI 技术领域,应用于语言理解、语言生成等 NLP 场景,具 备超强语言理解能力以及对话生成、文学创作等能力,在不同垂类功能场景上布局不同 侧重功能点语言大模型: 1) PLATO:主要侧重人机对话领域,具备全球领先的开放域对话大模型,具备多轮流畅 的聊天能力。2021 年 9 月,公司发布了 PLATO-XL,为全球首个百亿参数的中/英对 话大模型。 2) ERINE-Search:侧重开放域搜索领域,基于预训练语言模型(PLM)的神经检索模型, 并创新性地引入自动态蒸馏方法和结合级联蒸馏过程,提高了双编码器作为检索器 的有效性。
3) ERNIE-M:侧重跨语言领域场景,通过对 96 门语言的学习,使得一个模型能同时理 解 96 种语言,该项技术在 5 类典型跨语言理解任务上刷新世界最好效果。 4) ERINE-Code:侧重于自然语言代码生成,具备跨多种自然语言和编程语言的语义理 解和生成能力。在代码生成任务、代码搜索任务,多语言代码摘要和代码文档翻译 等多个公开的评估基准上取得领先效果。
5) ERINE 3.0 Zeus:综合开放问答、信息抽取、情感分析、语义匹配等各类 NLP 任务 能力,是百度文心旗下最先进的千亿参数自然语言大模型,提出了层次化提示 (Prompt)学习技术,将百余种不同的场景任务统一为自然语言形式,进一步提升 下游任务建模能力。模型在文本分类、匹配、推理、识别、分析、生成等多个领域 的领小样本/零样本学习能力领先行业其他大模型。 6) ERINE3.0 Tiny:ERINE3.0的轻量级版本,通过模型裁剪、量化感知训练、 Embedding 量化等压缩方案,在保持模型精度不降的情况下,完成模型的推理加速、 内占用降低、体积缩小,将大模型由原先的GPU场景下放至CPU 场景,拓宽应用面。
文心 CV 大模型:主要基于领先的视觉技术,利用海量的图像、视频等数据,为企业和开 发者提供强大的视觉基础模型,以及一站式应用服务。文心 VIMER-UFO 2.0 是文心旗下 目前最先进的统一任务大模型,主要应用场景为智慧城市。整体具备包含 170 亿参数, 多个任务的数据训练一个功能强大的通用模型,可被直接应用于处理人脸、人体、车辆、 商品、食物细粒度分类等 20+ CV 基础任务。模型首创针对视觉多任务的超网络与训练 方案,支持各类任务、各类硬件的灵活部署,在解决子任务过程中无需调用全体神经网 络,而只需抽取部分节点,而抽取的单任务模型只包含 6 亿参数,基于单任务模型抽取 的芯片级模型参数量可进一步降低到 1 亿规模模型,大大减少计算量,加速比近 30 倍。
其余 VIMER-CAE、VIMER-StrucTexT 2.0、VIMER-UMS 分别覆盖图像分类、图像监测、分 割;OCR 文字识别;商品识别零售快消等其他行业常用场景,整体布局完善。
文心跨模态大模型:基于知识增强的跨模态语义理解,实现跨模态检索、图文生成、图 片文档的信息抽取等应用的快速搭建,帮助产业智能化转型。旗下最先进的模型 ERNIEViLG 2.0:应用场景为图像生成、艺术创作、虚拟现实、AI 辅助设计。采用基于知识增 强算法的混合降噪专家建模,是全球首个知识增强的 AI 作画大模型,在文本生成图像 上超越了 Stable Diffusion、DALL-E 2 等模型,取得了当前该领域的世界最好效果, 并在语义可控性、图像清晰度、中国文化理解等方面展现出了显著优势。旗下剩余的 ERINE-VIL、ERINE-LAYOUT、ERINE-Layout、ERINE-SAT、ERINE 则分别覆盖视觉、文档、 语音、地理等多个跨模态垂直领域。
文心生物计算大模型:融合自监督和多任务学习,并将生物领域研究对象的特性融入模 型,构建面向化合物分子、蛋白分子的生物计算领域预训练模型。HelixGEM-2、
HelixFold-Single-HelixFold 分别应用于小分子药物研发、蛋白质结构预测等细分领域, 赋能医药场景。 文心行业大模型:文心官方与各行业企业联手,在通用大模型的基础上学习行业特色数 据与知识,建设的行业 AI 基础设施。目前文心官方共发布 11 款行业大模型,涵盖能源、 金融、航天、传媒、城市、社科、电影 8 个行业垂直领域。

目前国内大模型市场中,文心一言在产品能力、生态能力、应用能力上表现突出,属于 第一梯队,下游应用厂商相继接入后续有助于其完善 AI 应用生态。2023 年 3 月,公司 Chat AI 机器人“文心一言”发布,截至目前已有超过 650 位生态合作伙伴宣布接入, 涵盖传媒、互联网、金融、消费、教育、求职、营销、生物、文物、能源、光电等多个 行业垂直场景,有望丰富公司 AI 生态合作伙伴,拓宽 AI 赋能的行业场景。
4、AI大底座之昆仑芯:生成式AI催生算力需求,昆仑芯适合多种AI场景
生成式 AI 催生较大的算力需求。芯片在AI中主要用于处理人工智能应用中的大量计算 任务的模块(其他非计算任务仍由CPU负责)。部署在云端的 AI 芯片,注重算力、扩展 能力,以及它对现有基础设施的兼容性,移动端的AI芯片则更为注重低功耗、低延时、 低成本。
公司较早布局 AI 芯片研发,目前已推出相对成熟的二代产品。2011 年公司开始布局 FPGA AI 加速芯片,2017 年发布昆仑芯 XPU 架构。目前芯片产品历经成熟迭代,首款昆 仑芯一代 2018 年 7 月发布,并于 2020 年量产,目前在用的昆仑芯二代,采用 7nm 架构, 配备 GDDR6 高速显存,内存带宽可达 512GB/s,采用新一代昆仑芯 XPU-R 架构,通用 性和性能显著提升,可提供 256TOPS@INT8 以及 128 TFLOPS@FP16 ,功能上支持虚拟化、 芯片间互联、视频编解码等完备功能,性能上相较昆仑芯一代上提升 2-3 倍。目前昆仑 芯与产业链上下游已经逐步构建起软硬一体化的 AI 芯片生态,产品已经与百度飞桨、 PyTorch、TensorFlow 等主流框架和服务器完成适配。
昆仑芯在提升 AI 经典负载性能和算法性能加速能力较好。根据百度昆仑官网数据,以推 理场景中的吞吐率为例:在应对当前常见深度学习算法 GENM 和 ResNet-50、Bert、 Yolov5 上表现不俗,对典型 AI 的负载性能提升在 1.6 倍左右。昆仑芯在公司搜索业务上已有较多部署,适用于大多数 AI 落地场景,并与飞桨 PaddlePaddle 共建生态。过往 3 年昆仑芯在公司搜索业务持续上量,在推理领域部署的 比例远超 50%。公司在 Encoder 和 Decoding 的优化技术已经沉淀为重要基建,并把 Transformer 相关的优化技术沉淀出来跟飞桨 PaddlePaddle 做全面整合,融入飞桨 PaddlePaddle 生态。公司的商业、飞桨和昆仑芯通力合作,能更早深入理解新的 AI 场 景,并设计出有竞争力的软硬件产品,持续保持竞争力。

5、大模型在公司生态内具备落地场景,有望加速云智一体化变现进程
公司传统业务搜索引擎以及新兴业务智能驾驶、智能云、智能硬件等均为大模型实际应用落地场景,一方面大模型的开发可以最先应用于公司内部产品应用,另一方面公司产品的应用将对大模型后续开发和应用思路形成指导作用,在此基础上不断迭代优化,吸引更多生态伙伴。
随着文心一言通过百度智能云对外提供服务,云智一体的行业新格局有望重塑:通过云 计算与人工智能(AI)的融合创新,打造智能基础设施和通用 AI 产品,降低企业获取 和使用 AI 的门槛。过去云厂商格局上 AI 与云普遍处于两个不同体系,售卖计算、存储 等资源型产品是主要商业模式,而当前背景下:云计算与 AI 模型深度融合,AI 模型与底层架构整体配置耦合度更强,更受企业的青睐。我们认为云智一体化的有望推进将算 力、框架、模型,场景应用融合打造为标准产品,云业务格局有望从 IAAS 层、PAAS 层 转向 MASS 层(模型及服务)。
行业布局上:公司通过实践中积累起来的解决方案,覆盖工业、金融、能源、智慧城市、 数字人等各成熟垂类行业。22 年 9 月智能经济高峰论坛上,行业垂直应用再度升级:首 次发布汽车云,从车企集团云、网联云、供应链协同云,解决汽车行业生产、自动驾驶 测试、供应链管理三大数字化应用难题。中国销量前 15 的车厂,百度智能云客户占比 10 家,头部新能源车企服务 5 家。在产业金融方面,公司智能云推出产业数字金融方案, 涵盖普惠金融、绿色金融、农业金融,支持全行业跨越“数字鸿沟”。未来云业务的核心 竞争力将由模型能力、框架架构、底层芯片及顶层垂直应用的协同能力共同决定,公司 依托其自研全栈 AI 架构有望占得生态布局先机。