2023年高通公司研究:全球SoC芯片龙头,AI赋能智能终端应用有望多点开花

  • 来源:国金证券
  • 发布时间:2023/09/12
  • 浏览次数:1299
  • 举报
相关深度报告REPORTS

高通公司研究:全球SoC芯片龙头,AI赋能智能终端应用有望多点开花.pdf

高通公司研究:全球SoC芯片龙头,AI赋能智能终端应用有望多点开花。混合式AI较纯云端部署更具优势,将带动端侧、边缘侧AI部署。公司积极布局软件生态与硬件开发,凭借市场地位与技术优势有望充分受益。全球手机市场下滑,导致公司手机及QTL业务下降明显。根据IDC,23年一、二季度全球手机出货量分别减少14.6%、7.8%,预计全年-4.6%,24年有望+4.5%。根据Counterpoint,公司23Q1智能手机SoC出货量占整体市场的28%,在旗舰机型和中高端机型市占率第一。未来手机业务有望受益于手机端AI部署以及手机市场复苏。PC端公司与微软在WindowsonArm深度合作,有望受益Arm处...

一、AI 终端、边缘端部署大势所趋,手机、PC 有望充分受益

1.1 混合式 AI 大有可为,公司软件生态布局充分

人工智能 AI 顾名思义就是通过高性能计算机来模拟人脑的认知及推理过程,尤其是在收 集大量原始数据后,再通过高性能计算机加上各类特殊的 AI 算法来训练和提高 AI 的认 知能力,其中包括视觉(图像,视频),听觉(语言,声音)等各类能力。当 AI 的认知能 力训练完成后,推理算法能够使用高性能计算机举一反三完成数据收集、推理和决策,形 成对人类部分工作的代替。 2017 年谷歌提出 Transformer 模型使得深度学习进入了大模型时代,2022 年 11 月,OpenAI 推出了 ChatGPT 人工智能聊天机器人,引发了大模型 AI 的热潮。大模型所需算力的增长 幅度远超过摩尔定律提供的性能成长速度,大模型由于参数数量大幅增加,所需要的算力 也相较常规模型大幅增长。目前 ChatGPT 的总算力消耗约为 3640PF-days(即假如每秒计 算一千万亿次,需要计算 3640 天),需要 7~8 个投资规模 30 亿、算力 500P 的数据中心才 能支撑运行。 大模型算力增加呈指数级变化,每 9 至 10 个月翻一番。2015 年推出的 Alpha Go Lee 大 模型所需要的训练量算力超过 10^21 FLOPs,而 2021 年推出的大模型 Megatron-Turing NLG 530B 的训练算力需求已经超过了 10^24 FLOPs,算力提升了 1000 倍左右。

当前大模型仍然主要在云端部署,用户发出请求后,会上传到云端,由数据中心当中的 AI 服务器进行推理,随后将结果再通过网络返回给客户。随着大模型用户数量提升,提交的 请求数量不断增多,叠加未来除了纯文字内容外,也将增加图片、音频甚至视频内容的请 求,对云端部署带来了成本、功耗、延时以及隐私方面的挑战。混合 AI 方式适用于几乎 所有生成式 AI 应用和终端领域,包括手机、笔记本电脑、XR 头显、汽车和物联网。这 一方式对推动生成式 AI 规模化扩展,满足全球企业与消费者需求至关重要。

与仅在云端进行处理不同,混合 AI 架构在云端和边缘终端之间分配并协调 AI 工作负 载。云端和边缘终端如智能手机、汽车、个人电脑和物联网终端协同工作,能够实现更强 大、更高效且高度优化的 AI。 根据公司发布的《The future of AI is hybrid》白皮书,生成式 AI 搜索可以提供更加 出色的用户体验和搜索结果,但每一次搜索查询(query)其成本是传统搜索方法的 10 倍。目前每天有超过 100 亿次的搜索查询产生,即便基于大语言模型的搜索仅占其中一 小部分,每年增量成本也可能达到数十亿美元。将一些处理从云端转移到边缘终端,可以 减轻云基础设施的压力并减少开支。这使混合 AI 对生成式 AI 的持续规模化扩展变得 至关重要。混合 AI 能够利用现已部署的、具备 AI 能力的数十亿边缘终端,以及未来还 将具备更高处理能力的数十亿终端。另外在延时、能耗、隐私安全和个性化方面,混合 AI 相比单纯云端部署也更具优势。

AI 模型并非简单的参数越大效果越好,较小参数模型依靠微调(fine tuning)在部分应 用中甚至具备更好效果,有望加强边缘侧和终端的 AI 部署效果。根据上海人工智能实验 室、香港中文大学与加州大学洛杉矶分校联合发表的论文《LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention》,研究人员基于 70 亿参 数的模型 LLaMA-Adapter 在微调 180 万个参数后,在回答 ScienceQA 问题集时,LLaMAAdapter 正确率达到 85.19%,高于 ChatGPT 的 78.31%和 GPT-4 的 83.99%。

混合 AI 架构增加了边缘端与终端的 AI 部署,SoC 公司在边缘端与终端 AI 当中的地位, 类似云端 AI 市场当中算力的提供者。如果厂商具备一定的市场地位,同时产品性能可以 支持相关 AI 的应用,在混合式 AI 的发展当中有望抢占边缘端与终端的领先位置,因此具 备市场与技术领先地位的公司最有望受益。 公司在端侧 AI 构建自己生态,加深护城河。公司通过异构算法进行优化,可以支持全栈 终端侧 AI 研发。异构计算方法利用硬件(比如 CPU、GPU 和 AI 加速器)和软件(比如高 通 AI 软件栈)来加速终端侧 AI,并且通过最新神经网络架构,针对硬件、软件和算法持 续改进公司的 AI 软件栈。

公司 AI 软件栈旨在帮助开发者实现一次开发,即可跨公司所有硬件运行 AI。公司软件站 全面支持包括 TensorFlow、PyTorch 等在内的主流 AI 框架,并且集成推理软件开发包, 面向安卓、Linux、Windows 不同版本。在更底层,公司的系统软件集成了基础的实时操作 系统、系统接口和驱动程序,支持安卓、Windows、Linux、QNX 等操作系统。

1.2 手机:用户基数大、使用时间长,凸显 AI 部署潜力,公司技术先发优势明显

智能手机市场具备庞大的用户体量,同时终端用户每天使用智能手机的时长较高,智能手 机已经成为当下生活当中必不可少的产品之一。因此,我们认为未来 AI 应用在手机部署 具备极大的市场潜力,同时有望带动终端消费者换机需求。我们认为公司作为时全球手机 SoC 的龙头企业,在市占率、技术储备上当前就有较明显的优势,有望获得先发优势,受 益 AI 在手机侧的部署。 根据 Statista 数据,2022 年全球智能手机用户已经达到 47.42 亿人,并且有望继续增长。 Statista 测算,2028 年全球智能手机用户将达到 51.36 亿人。同时手机也已经成为日常 生活中必不可少一部分,根据 Exploding Topics,普通人每天花在手机上的时间为 3 小 时 15 分钟。五分之一的智能手机用户平均每天在手机上花费超过 4.5 小时,手机用户 平均每天查看手机 58 次。

同时手机功能除了硬件的功能迭代以外,在软件层面也不断增加变强,在智能手机发展过 程当中,手机拍照功能不断强化,人像、物品识别能力与成像优化不断增强;手机从语音 控制逐渐转向语音交互,让手机听用户所言,知用户所想。手机功能的增强可以由手机 ASP 的提升侧面反映,根据 Counterpoint,2022 年国内智能手机平均售价已经达到 385 美元, 较 2012 年的 196 美元几乎翻倍。而 2022 年美国、英国、德国的超 500 美元的手机市场占 比已经超过 50%。在混合式 AI 赋能之下,除了在成像、语音交互等方面能够更加智能化以外,也有望在手机端增加新的应用。 目前全球互联网搜索量每日超过 100 亿次,移动端搜索占比超过 60%,生成式 AI 的应用 将推动所需算力的实质性增长。基于生成式 AI 的查询有望提供更令人满意的答案,使得 用户的搜索方式开始发生转变。对话式搜索的普及也将增加总体查询量。随着对话功能不 断改进,变得更加强大,智能手机将成为真正的数字助手。精准的终端侧用户画像与能够 理解文字、语音、图像、视频和任何其他输入模态的大语言模型相结合,让用户可以自然 地沟通,获取准确、贴切的回答。进行自然语言处理、图像理解、视频理解、文本生成文 本等任务的模型将面临高需求。

公司在安卓手机 SoC 高端市场当中具有较大优势。从整体出货数量看,根据 Counterpoint, 公司 23Q1 智能手机 SoC 出货量占整体市场的 28%,第一则为联发科,占整体市场出货量 的 32%。但公司手机 SoC 主要面向中高端安卓手机供货,ASP 较联发科有更大优势,因此 即使出货量较联发科少,从销售来看较联发科更大。例如从历史数据看,22Q2 时联发科手 机 SoC 出货量占比达到 39%,销售额占比则为 22%;而 22Q2 时高通出货量占比为 29%,销 售额占比则达到 44%。根据 Counterpoint,在 2021 年安卓手机 SoC 市场当中,公司在 300~499 美元价格段的手机的 SoC 的出货量占比超过 60%,而在 500 美元及以上的旗舰机 型当中,公司的出货占比也基本最大。

我们认为端侧的 AI 模型需要提高能效和性能,如果小型 AI 模型智能提供低质量或者不 准确结果,将失去实际用处。而公司采用包括连挂、压缩、条件计算、神经网络架构搜索 和编译的方式,在不牺牲太多精度的前提下缩减 AI 模型,使其高效运行。 量化方面,基于 transformer 的大语言模型(比如 GPT、Bloom 和 LLaMA)受到内存的限 制,在量化到 8 位或 4 位权重后往往能够获得大幅提升的效率优势,将 FP32 模型量化压 缩到 INT4 模型,可以带来高达 64 倍的内存和计算能效的提升。公司手机 SoC 同样可以使 用 INT8、INT16、FP16 进行运算,并且支持多种不同精度的混合运算。在通过 INT4 快速 获得初步结果以后,可以进行更高精度的计算来弥补 INT4 的精度损失,尽可能让终端 AI 的结果更加精确。 公司针对编译器方面同样具备技术专长,并且实现了较多的先进技术成果,公司 AI 引擎 Direct 框架基于公司 Hexagon 处理器的硬件架构和内存层级进行运算排序,以提高性能 并最大程度减少内存溢出,有助于减少 DRAM 存取量,并显著降低时延和功耗。

硬件端看,公司最新一代骁龙 8Gen2 手机 SoC 采用 4nm 工艺,在 AI 相关的运算上也具备 较明显优势。骁龙 8Gen2 当中采用最新一代 Hexagon 处理器,相比前代产品具备更大的张 量加速器,公司认为可以带来高达 4.35 倍的 AI 性能提升。同时在 SoC 的传感器中枢,公 司也集成了两个 AI 处理器,与前一代产品相比,AI 性能提升了两倍,内存提升了 50%。 Hexagon 当中的 micro tile 推理部分,在加速复杂的 AI 模型运算时,可以将模型分解为 较小的部分进行处理,使得张量、矢量、标量的运算加速器可以同时加速,减少内存访问, 加速推理的过程,并且降低功耗。

根据公司内部测试结果,骁龙 8Gen2 与其他移动领域竞品相比,在超级分辨率、人脸识别、 背景虚化、自然语言处理等方面都具备领先的 AI 能效,其中在人脸识别与背景虚化部分 优势更加明显。

AI Benchmark 通过系统性对比不同手机 SoC 在 INT8、FP16 精度下 NLP、NNAPI 1.1、NNAPI 1.3 模型的运算效果,以及 INT8、FP16 的并行计算能力,对各主流手机 SoC 的 AI 性能进 行评分。根据 AI Benchmark,在 AI 运行效果排名前五的手机 SoC 中,除联发科天玑 9200 占据第四名以外,其他都为公司骁龙系列产品。

目前骁龙 8Gen2 已经可以在手机运行十亿参数级别模型。Stable Diffusion 是类似于 ChatGPT 的生成式 AI 模型,参数超过 10 亿个,主要在云端运行。而针对 Stable Diffusion,公司利用 AI 软件栈执行全栈 AI 优化。公司 2 月份演示了 Stable Diffusion 在智能手机上的运行,可在 15 秒内执行 20 步推理,生成一张 512x512 像素的图像。公 司针对大模型的优化也可用于其他模型在手机侧的应用,以及在手机之外的其他终端上的 应用,推动更多终端 AI 的应用。在今年 7 月,公司也宣布与 Meta 合作,将实现在搭载 骁龙芯片的设备不联网情况下,运行基于 Llama 2 模型的应用和服务。 公司产品保持迭代,有望保持技术领先。公司骁龙 8Gen3 有望在今年年底发布,性能有望 相较于 8Gen2 进一步提升,支持更加丰富的 AI 应用,帮助开发者加速 AI 应用手机侧部 署。同时,考虑到公司 SoC 产品一般一年发布一代,而产品定义到发布需要 2 年左右时 间,我们认为在 2022 年年底 ChatGPT 推出以后,公司针对 transformer 专门设计的手机 SoC 有望在 24 年年底发布,通过对 transformer 算法进行部分固化处理,将进一步提升 AI 在端侧的运算效率,优化基于 transformer 的大模型在手机侧应用,进一步打开手机 侧 AI 应用的空间。

公司手机业务目前受到整体手机市场需求萎靡影响,短期增长动能有限。公司 QTL(技术 许可)业务主要通过授权许可方式提供公司知识产权的使用权利,包括 CDMA2000、WCDMA、 TDD、LTE 和基于 OFDMA 的 5G 标准及其衍生产品。因此公司 QTL 业务也受到手机市场需求 萎靡影响,短期处于下滑阶段。同时华为自研芯片取得突破,公司在华为的份额也将大幅 降低。根据公司 23 财年(2022.10~2023.9)第三季度公开业绩说明电话会,公司 23 财年四季度的指引已经没有考虑在华为的收入。我们认为公司在华为的份额丧失,将使得公司 短期内手机业务下滑较整体手机市场更加剧烈,同时在行业复苏过程中,公司手机业务的 营收增长也将低于行业增速。中期看,公司手机业务以及 QTL 业务有望随消费电子市场筑 底止跌,长期看 AI 在手机部署有望增加手机端 AI 应用,拉动下游需求开启增长周期。

1.3 PC:与微软深度合作,有望随 Windows on Arm 快速成长

公司在 PC 端主要提供基于 Arm 核的处理器,16 年开始与微软合作,目前支持 Arm 核处理 器的 Windows on Arm 电脑的最主要处理器供应商,目前 Windows on Arm 电脑处理器全 部采用公司提供的产品。除了在微软 Surface 的 Arm 版本应用以外,公司也有向惠普、三 星、联想等 OEM 供货。经过与微软多年合作,目前 Windows 10、Windows 11 操作系统, 以及 Windows 端主要的基于 x86 的主流软件都可以在 Windows on Arm 上使用。相较于传 统 x86 服务器,Windows on Arm 可以提供更长的电池续航能力,电池续航可以超过一整 天;可以通过手机网络进行数据连接;可以类似移动电话随时关闭打开屏幕。 目前采用 Arm 处理器的个人电脑除苹果以外在市场当中还是较为小众市场,未来有较大的 份额提升空间。根据 Strategy Analytics,2021 年个人电脑 Arm 处理器销售额为 9.49 亿 美元,其中苹果通过自身 MacBook 出货占 79%;联发科由于绑定谷歌 Chromebook 也具有 较大的销售量因此占比 18%;高通通过 Windows on Arm 的电脑出货,占比 3%。

相较于 x86 处理器,Arm 可以大量使用寄存器,指令执行速度更快,另外寻址方式较灵活 简单,具备更高的执行效率。根据公司数据,在执行 UL Procyon AI 推理测试时,公司骁 龙 8cx Gen3 处理器得分为 812 分,而传统 x86 处理器如英特尔的 i5-1235U 的 GPU 得分 为 303 分,CPU 得分为 160 分。 公司与微软长期合作,过去在部分场景当中已经针对 AI 功能进行优化。例如 Windows Studio Effects 可以通过各种 AI 功能提升线上会议的视频、语音质量与清晰度,优化了 摄像头对角、噪音抑制,并且增强了背景模糊等效果。基于公司骁龙平台开发的 AI 照片处理软件 Luminar Neo 可以提高 14 倍的运行速度。针对生成式 AI,公司与微软合作开发 了基于公司 AI 引擎的终端运行的 Stable Diffusion 等应用。相较于手机平台,我们认为 PC 对于功耗、尺寸的敏感度较低,未来有望实现更大参数的模型部署。服务消费者日常办 公、娱乐等。 而对于微软等软件厂商,如果完全依赖云端 AI 部署进行推理,考虑到基础设施建设的投 入以及产生的大量能耗、折旧,以及基础设施需要不断更新迭代,Copilot 等 PC 端 AI 应 用大规模推广可能反而造成自身资本开支大幅增加,带来的能耗和折旧可能会影响公司的 盈利水平。因此我们认为微软等厂商会鼓励并支持 PC 端的 AI 部署,通过加强 PC 端硬件 的 AI 处理能力,使得大部分的简单 AI 工作在 PC 端可以完成处理,只有少部分的较为复 杂的任务才会提交云端处理。这也将加速 AI PC 的面世与渗透。

PC 端 Arm 核受益替代 x86 处理器份额提升,以及未来 PC 市场回暖,未来市场增长迅速。 2020 年苹果推出的 MI 芯片即为 Arm 内核的处理器,M1 芯片的成功也开始加速 PC 端 Arm 处理器的渗透。根据 Counterpoint,2022 年全球使用 Arm 处理器的笔记本电脑占比仅 12.8%,2023 年预计达到 15%,而到 2027 年有望达到 25.3%,较 2022 年的占比几乎翻倍。 疫情期由于间居家办公需求所购买的电脑,考虑到电脑一般 4 年左右的换机周期,在 2024 年将逐渐迎来换机需求。根据 Statista,2023 年全球笔记本电脑出货预计 2.06 亿台,同 比减少 4.86%,2024 年有望达到 2.21 亿台,同比增长 7.36%。

公司目前产品出货都是搭载 Windows 操作系统的电脑,考虑到 Arm 在 PC 端的出货占比不 断提高,对 x86 处理器造成一定冲击,我们认为微软为了保持 Windows 在 PC 市场的优势 地位,也将继续加大在 Windows on Arm 的投入,随着生态的完善,未来 Windows on Arm 的笔记本占比将不断提升,因此我们假设 2022~2026 年 Windows on Arm 笔记本出货占比 每年略微提升。价格方面,我们选取公司骁龙 SQ3 发布会所对比的 x86 处理器英特尔 i5- 1135G7 价格作为参考,根据英特尔网站,i5-1135G7 目前价格 340 美元。我们预计 PC 端AI 的发展,将加快 PC 端产品的迭代速度,并且在硬件上不断优化迭代,因此我们预计 24~26 年单机处理器价格每年增长 2%。根据以上数据,我们测算 2023 年 Windows on Arm 笔记本处理器市场规模 3.57 亿美元,2026 年 Windows on Arm 笔记本处理器市场规模将 达到 7.92 亿美元,23~26 年 CAGR 达到 30.45%。 作为当前 Windows on Arm 电脑处理器的唯一供应商,我们认为公司有望充分受益于 Windows on Arm 的快速发展。即使考虑微软可能停止 Windows on Arm 的处理器由公司独 占的潜在可能,我们认为为了进一步丰富软硬件生态,并且为下游消费者提供多样化选择, 谷歌 Chromebook 也可能采取类似措施,允许其他厂商进入供应链,导致公司与联发科在 非苹果的 Arm 电脑处理器市场展开竞争。我们由于公司的产品技术先进,软件生态丰富, 竞争结果将与手机 SoC 市场类似。公司有望在高端非苹果 Arm PC 市场获得领先,进一步 扩大在消费电子端侧的竞争优势。

二、混合式 AI 赋能网联化向智能化发展,IoT 业务未来可期

2.1 物联网覆盖各行各业,混合式 AI 有望加速智能化趋势

物联网早在 20 年前就已经衍生出了初级概念,而智能物联网(AIoT)是 2018 年才兴起的新 兴概念。从技术层面看,AIoT 相当于给 IoT 系统加装了 AI,让设备的简单连接上升为智 能交互。而 IoT 相对于 AI 而言,则是一大超级感知系统,依托丰富的物联网传感设备, 可进行视觉、听觉、温度、环境等各类传感数据的采集,并将这些数据发送给 AI 进行分 析和处理。与此同时,这些数据也是 AI 进行深度学习的重要数据集,训练出越来越智能 的 AI 模型。简而言之,在技术层面,人工智能使物联网获取感知与识别能力,物联网为 人工智能提供训练算法的丰富数据资源。 从应用层面来看,作为一种新的 IoT 应用形态,AIoT 与传统 IoT 的区别在于,传统的物 联网是通过有线和无线网络,实现物―物、人―物之间的互联,而 AIoT 不仅是实现设备 和场景间的互联互通,还要实现物―物、人―物、物―人、人―物―场景之间的连接和数 据的交互。物联网与人工智能相融合,最终追求的是形成一个智能化生态体系,在该体系 内,实现不同智能终端设备之间、不同系统平台之间、不同应用场景之间的互联互通。

AIoT 市场可以大致分为三个阶段:1)单品短闭环阶段:核心 AI 硬件涌现,实现算法与硬 件解耦,打造标准化硬件单品,行业涌现大量 AI 智能单品例如 AI IPC、AI 模组、边缘计 算盒子等;2)产品大闭环阶段:“云边端”产品体系重构:形成一整套覆盖“云-边-端” 的 AIoT 软硬一体化产品组合,促进实现算法的自动化下发与升级;3)生态繁荣阶段: AIoT 产业链全面开放:实现“硬件标准化”和“算法充分供给”,全面激发 AIoT 产业生态 创新。我们认为目前行业仍然处于第一阶段,硬件已经可以基本满足初阶的 AIoT 需求,同时下游应用呈现点状爆发,尚未形成成体系的爆发与繁荣。但随着混合式 AI 逐渐在端 侧、边缘侧部署,以及行业软件生态的繁荣,行业有望加速进入第二阶段,形成“云-边端”的产品组合。

大模型目前已经具备多模态能力,除了单独的语言、图像、视频交互以外,可以对混合的 信息进行处理。多模态大模型有望加强 AIoT 的认知、推理、决策能力,实现从目前的感 知 AI 向认知 AI 的进步,更好理解人类的行动和指令。另外随着产业垂类大模型的部署, 也将为 AIoT 进一步打开下游应用空间。例如在零售业当中,AI 可以帮助客户基于每周特 价商品、家庭偏好、预算限制定制菜谱,并帮助商店进行库存管理、店面规划、货架排列。 而例如在安防领域,360 认为多模态模型的部署,有望加强摄像头的认知能力,过去摄像 头无法理解画面的语义,而在多模态模型部署之后,摄像头在看到老人摔倒的场景时,它 自然会联想到这个老人可能在危险中,从而能够提前预警发布警告。

AI 赋能有望加速物联网智能化趋势,拓展下游应用,为行业未来增长提供充足动力。根据 IoT Analytics,全球企业级物联网市场规模 2023 年达到 2380 亿美元,预计 2024 年能达 到 2870 亿美元,2027 年有望达到 4830 亿美元,24~27 年 CAGR 为 19%。而从市场构成来 看,物联网的硬件产品占比最大,2022 年物联网硬件市场占整体市场规模 44%。考虑到物 联网市场当中硬件市场占据最大份额,而未来 AI 赋能趋势下也势必带来硬件性能的提升 与更新换代,将带来较大的新增需求以及存量替换需求。物联网 SoC 最为终端的大脑,将 提供算力并且作为软件的运行平台,是硬件当中的核心部分。因此我们认为目前在物联网 SoC 具备较为领先市场地位以及技术优势的公司,未来有望充分受益 AIoT 的智能化趋势。

2.2 物联网 SoC 市占率优势明显,布局 AI 有望巩固龙头地位

经过 22、21 财年的高速发展以后,受到海外高通胀以及行业去库存影响,叠加物联网市 场网联化已过高速期,公司物联网业务短期内业绩承压。截至 FY2023 第三季度,公司物 联网业务营收达 45.57 亿美元,同比减少 14.73%。但从环比来看已经有一定改善,公司 FY2023 第三季度物联网业务实现营收 14.85 亿美元,同比增长 6.83%。

公司在物联网模组芯片市场占据明显优势,提供覆盖高中低端应用的解决方案。根据公司 网站,截至 2021 年 6 月,公司物联网产品已经进入包括霍尼韦尔、广和通、圆展、鸿沛 电子、美格智能、移远通信、日海智能在内超过 1.3 万个客户。公司芯片产品通过下游模 组厂,以物联网模组形式出货,使得开发者可以利开发板快速进行开发。另外物联网模组 销售时已经完成预打包与调试,开发者能够有更快上手速度。因此我们认为物联网当前应 用市场较为碎片化,公司以模组形式出货,可以面向广大中小开发者与下游应用场景,有 利公司产品应用与渗透进一步拓展。 公司解决方案覆盖从入门级至顶级平台,以扩展众多工业和商业物联网应用,专为助力满 足关键细分市场不断扩展的物联网生态需求打造,包括交通运输与物流、仓储、视频协作、 智能摄像头、零售和医疗等。根据 Counterpoint,2022 年公司在物联网芯片市场出货量 占比达到 40%,是第二名紫光展锐的两倍,具有较高市场地位。

目前物联网芯片纯网联化市场玩家逐渐增多,除公司外,展锐、翱捷科技、联发科、移芯 等厂商都具备 Cat-1、NB-IoT 等方案的芯片,导致行业可能未来面临加剧的竞争环境。而 展锐、翱捷等厂商也开始拓展 Cat4 与 5G RedCap 等较高端连接方案的通信芯片。公司积 极布局高端物联网芯片,推进 AIoT 业务,加速物联网行业智能化发展,面向行业垂类应 用。我们认为公司在 AIoT 芯片的拓展有望加深公司在高端市场护城河,在混合式 AI 的物 联网的应用当中取得先发优势。 2023 年 4 月,公司发布全新物联网解决方案以支持下一代物联网终端发展,发布了 8550 以及 4490 处理器,提供了丰富功能、先进特性和广泛用途,可以满足行业和商业物联网 应用的严苛需求。其所赋能的全新用例支持在视频协作、云游戏、零售等关键领域进一步 扩展物联网生态系统。公司解决方案汇集业界领先的技术,包括边缘 AI 处理、创新能效、 超清晰视频和 5G 连接等,驱动下一代具有韧性的高性能物联网应用。8550 处理器具备强 大的算力和边缘侧 AI 处理、WiFi 7 连接以及高性能图形和视频功能,为高性能需求的物 联网应用提供支持并助力其快速部署,比如自主移动机器人和工业无人机。

8550 处理器支持 FP16、INT8、IN4 计算,具备 12TOPS 的 FP16 算力,而在在进行推理常 用的 INT8 计算时,算力可以达到 48TOPS,可以满足端侧和边缘侧 AI 算力需求。8550 处 理器集成 8 核 Kryo CPU,含一个主频 3.2GHz 超大核,4 个主频 2.8 GHz 的性能内核及 3 个主频 2.0 GHz 的效率内核,并内置 Adreno 740 GPU 以及 Spectra 680 ISP。SNM970 具 备 SoC 异构计算特性,可精准实现算力资源优化,支持产品的高性能和低功耗。 目前已有下游客户采用公司 8550 处理器生产物联网模组。美格智能今年 5 月份发布的高算力 AI 模组 SNM970 搭载公司 8550 处理器,面向自主移动机器人、AI 边缘盒子以及智慧 工业领域,适配安卓与 Linux 操作系统。

在面对大部分 AIoT 场景时,公司 8550 处理器具备明显的算力优势,同时网络连接上也支 持 WiFi7,具备更快传输速度。英伟达 Jetson 系列产品具有更高算力和更大的功耗,针 对复杂场景,主要面向大型商业客户使用,与公司 8550 处理器所覆盖应用与客户不同。

我们认为公司通过模组形式出货方便中小开发者进行应用开发,适合当前物联网行业碎片 化特点,有望扩大用户基数,在物联网智能化抢占先机。同时公司依靠自身软件栈的软件 生态布局,可以有效培养用户习惯,用户基于公司软件生态开发的应用后续升级迭代也很 难切换到其他生态当中。而不断扩大的用户基数与丰富的生态将为公司未来在 AIoT 市场 长期发展提供较深的护城河和发展动力。公司在物联网芯片市场的龙头地位将进一步巩固。

三、汽车智能化大势所趋,公司自动驾驶、智能座舱全面布局

3.1 智能驾驶与自动驾驶是汽车智能化直接体现,车端 AI 有望推动增长

电动汽车、自动驾驶,以及持续增长的个性化车内体验需求,是汽车行业变化的三大趋势。 而互联性,即将汽车与网络、云端、其他车辆、行人、基础设施和移动服务相连接的能力, 将真正定义现代汽车。电动化为汽车电子提供载体,根据乘联会数据,2023 年 7 月国内 新能源汽车零售渗透率已达到 36.1%,汽车电动化的快速发展也将为智能化打开空间。 2012 年特斯拉推出全球首款座舱中没有实体按键、采用中控屏控制车辆功能、且可以 OTA 升级的 Model S 后,智能座舱产业开始快速发展起来,并呈现出丰富的产业图景。根据 IHS Markit 数据,2021 年中国智能座舱在新车的渗透率已达到 53.3%,全球智能座舱在 新车的渗透率则为 49.4%,预计到 2025 年,中国市场渗透率将达到 75.9%,全球市场则为 59.4%。市场规模来看,IHS Markit 测算 2021 年全球智能座舱市场已超过 400 亿美元, 2030 年有望达到 681 亿美元。

在汽车产业拥抱 AI 技术、数字化水平空前提升的同时,芯片作为计算的载体,应用也快 速增加,逐渐成为智能汽车时代的核心。过去,车上的设备全部是机械式的;而随着电子 工业的发展,汽车的部分控制系统开始了从机械化到电子化的转换。在“软件定义汽车” 趋势下,芯片、操作系统、算法、数据共同组成了智能驾驶汽车的计算生态闭环,其中芯 片是智能驾驶汽车发展及其生态建设的核心 。目前,汽车芯片已经广泛应用在动力系统、 车身、座舱、底盘和安全等诸多领域。随着智能驾驶级别的提升以及智能座舱功能应用的 丰富,汽车对芯片算力的需求也越来越大。根据 ICV,2022 年全球智能座舱 SoC 芯片市场 规模达到 34.92 亿美元,其中 L2 级别的乘用车占到 46.8%,预计 2025 年智能座舱 SoC 全 球市场突破 50 亿美元,2027 年达到 77.03 亿美元,22~27 年 CAGR 为 14.1%。

作为汽车智能化的另外一个重要体现,自动驾驶渗透率以及自驾级别的提升,也有望带动 智能座舱市场发展。根据 ICV,入门级 L2/L2+级别的汽车单车需要 1 颗智能座舱 SoC 芯 片,而入门级 L3 级别的汽车单车需要 2 颗智能座舱 SoC 芯片。

全球智能驾驶渗透率不断提升,根据 ICV 数据,2023 年全球 L2 级别自动驾驶渗透率有望 达到 41%,2026 年有望超 57%,同时 L3 级以上等级自动驾驶车型有望逐步开始出货,2026 年 L3 及以上自动驾驶车型有望渗透率达到 2.2%。根据《中国智能网联乘用车市场分析报 告》,2022 年国内乘用车市场当中,L2 级别占比已达到 34.9%,2023 年 1~5 月 L2 级别占 比继续提升,已经达到 42.2%。中国智能网联汽车市场规模发展迅速。

随着以 ChatGPT 为代表的自动生成技术(AIGC)来袭,AIGC 将与智能座舱深度融合,使情 感化、拟人”的座舱交互逐步走进现实。作为百度的战略合作伙伴,岚图将首批搭载百度 “文心一言”,通过 Apollo-智能驾驶融合文心一言的全面能力,联合开发基于智能汽车 场景的大模型人工智能交互。同时,通用汽车与微软也在合作开发基于 ChatGPT 的车载服 务等。 大模型也有望赋能智能驾驶,成为下一代智能化主要架构。随着 AI 大模型技术的发展, 特斯拉率先采用了基于 transformer 大模型的 BEV+占用网络感知算法,提升了环境建模 的效率,成为目前主流车企下一代智能化的主要架构。通过这套感知架构能够减少对于激 光雷达等高成本传感器的依赖,有效降低系统成本,减轻车企及消费者的负担。

3.2 立足智能座舱,切入自动驾驶,汽车智能化有望开启公司第二增长曲线

公司是座舱和车载信息娱乐解决方案的领导者,同时积极布局自动驾驶,智能座舱芯片下 游客户资源优秀。其中许多汽车制造商已经启动量产项目,或目前正在设计采用公司解决方案的平台。这些汽车制造商包括本田、梅赛德斯、雷诺、沃尔沃、捷豹路虎、Stellantis、 宝马、通用汽车/凯迪拉克、长城汽车、Mahindra、Togg、丰田、小鹏汽车、广汽集团、 捷途汽车、蔚来和威马汽车等。

公司在智能座舱 SoC 市占率全球第一,且凭借公司的产品技术先进性,以及软件生态的不 断丰富,预计份额将继续扩大。根据 ICV,2022 年公司智能座舱 SoC 销售额占全球市场 29.47%,预计 2023 年将提高至 31.47%。

公司上一代智能座舱产品 8155 技术相较传统车厂更加领先,为公司奠定智能座舱的优势 地位。同时我们认为与传统的汽车芯片厂商如瑞萨、恩智浦等相比,公司在消费电子技术 与生态积累深厚,在包含汽车娱乐系统、人机交互的智能座舱领域更加具备优势。

8155的成功使得公司汽车业务进入快速增长期,公司20~22财年汽车业务营收分别为6.44、 9.75、13.72 亿美元,22 财年汽车收入较 20 财年已经翻倍。

公司最新一代智能座舱芯片 8295 已于 5 月份发布,有望四季度实现交付。8295 采用 5nm 工艺,集成第 6 代 Kryo 中央处理器 CPU,Hexagon 处理器,多核高通 AI 引擎,第 6 代 Adreno 图形处理单元 GPU 和 Spectra 图像信号处理器 ISP 等,CPU 算力超过 200K DMIPS, GPU 算力超过 3000 GFLOPS、支持 WiFi 6 和蓝牙 5.2,其中 NPU 的 AI 算力达到了 30TOPS。 8195 与 8295 未来有望形成产品矩阵覆盖高中低端不同方案,助力公司汽车业务继续增长。 根据零跑汽车最新发布的四叶草架构,架构可以支持可兼容高通 8155 和高通 8295 两种不 同的方案,其中 8295 方案支持座舱域智驾的深度融合,实现 ACC、LCC、AEB 等 L2 智能驾 驶,以及环视、疲劳监测等功能。其中标配方案采用公司 8155 芯片,中配与高配则搭载 公司 8255 芯片。

公司今年 1 月份推出 Snapdragon Ride Flex SoC 旨在跨异构计算资源支持混合关键级工 作负载,以单颗 SoC 同时支持数字座舱、ADAS 和 AD 功能。为了实现最高等级的汽车安全, Snapdragon Ride Flex SoC 在硬件架构层面向特定 ADAS 功能实现隔离、免干扰和服务质 量管控(QoS)功能,并内建汽车安全完整性等级 D 级(ASIL-D)专用安全岛。此外, Snapdragon Ride Flex SoC 预集成的软件平台支持多个操作系统同时运行,通过隔离的 虚拟机和支持汽车开放系统架构(AUTOSAR)的实时操作系统(OS)支持管理程序,满足 面向驾驶辅助安全系统、支持配置的数字仪表盘、信息娱乐系统、驾驶员监测系统和停车 辅助系统的混合关键级工作负载需求。根据公司网站,首款 Snapdragon Ride Flex SoC 已出样,预计 2024 年开始量产。

公司 2022 年汽车投资者日公布了未来汽车产的路线图,从路线图看,Snapdragon Ride Flex SoC 的算力在 600TOPS 左右,较英伟达 22 年推出的 DRIVE Orin 的 250TOPS 有所提 升,但低于英伟达预计 2024 年推出的 DRIVE Thor 的 2000TOPS 算力。从公司公布的产品 路线图来看,未来公司也将布局 2000 TOPS 高算力的自驾芯片。

我们认为虽然短期内英伟达的产品技术上处于领先优势,考虑到目前高阶自动驾驶仍然处 于非常初期的探索阶段,英伟达尚未形成客户壁垒并通过自身软件生态完成绑定。我们认 为公司凭借在智能座舱的领先地位,以及与车厂形成的合作关系,未来在高阶自驾市场, 仍然有与英伟达竞争的能力。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至