2024年计算机行业投资策略:AI三要素共振,AIGC云到端加速推进

  • 来源:中国银河证券
  • 发布时间:2024/04/18
  • 浏览次数:360
  • 举报

主线一:算力侧——智能算力渗透率快速提升

(一)算力侧:技术革新及政策双轮驱动,AI 算力景气度高企

1、从供给侧看算力不断升级,未来将呈现“云-边-端”一体格局

从算力供给而言,可以分为通用算力、智能算力和超算算力。算力实现的核心是 CPU、GPU、FPGA、ASIC 等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算,算力数值越大代表综合计算能力越强,常用的计量单位是 FLOPS(每秒执行的浮点数运算次数)。

算力是设备根据内部状态的改变,每秒可处理的信息数据量。算力的载体发展经历了以算盘和机械计算器为代表的时代到基于架设互联网基础平台的服务器的历程。在过去 20 年,随着算力载体的丰富程度得到了极大提升,呈现多样化发展趋势。

算力架构可以拆解为芯片、设备、软件,呈现“云-边-端”一体格局。未来将形成云端侧负责大体量复杂计算、边缘侧负责简单计算执行、终端侧负责感知交互的泛在算力部署形式。

2、大模型驱动智能算力需求指数级增长

大模型需要强大算力来支持训练过程和推理过程。根据 OpenAI 数据,训练 GPT-3175B 的模型,需要的算力高达 3640PF-days(假如每秒做一千万亿次浮点运算,需要计算 3640 天)。2018 年以来,大模型的参数量级已达到数千亿参数的量级规模。而 CPU 的物理工艺、核心数已接近极限。在AI 时代下,仅靠 CPU 已经不能满足需求,通过 GPU、FPGA、ASIC 等加速芯片异构而成的智能算力的演化成为趋势,并最终成为生成式人工智能时代下算力的主角。

AI 时代的摩尔定律,算力平均每 3.43 个月翻一倍。自 2012 年后,驱动 AI 的底层机器学习技术计算量呈指数级增长,根据 OpenAI 论文,深度学习前期,算力翻倍时间为 21.3 个月,深度学习时期,算力翻倍时间为 5.7 个月,大模型时期,AI 训练任务所用的算力每 3.43 个月就会翻倍,远超摩尔定律(晶体管每 18 个月翻一倍)带来的算力提升速度。

大模型对算力的需求主要体现在以下三个场景: (1)预训练算力需求:模型预训练过程是消耗算力的最主要场景。ChatGPT 采用预训练语言模型,GPT-3 具有大约 1750 亿参数,GPT-4 的规模是 GPT-3 的 10 倍以上,它具有大约 1.8 兆参数,分布在 120 个层,13 万亿 token,OpenAI 训练 GPT-4 的 FLOPS 约为 2.15*10^25,单张英伟达 A100 的算力为 19.5TFlops(浮点运算每秒 19.5 万亿次),如果不考虑利用率用 25000 张 A100 训练需要52 天,实际情况在大约 25000 个 A100 上训练了 90 到 100 天,MFU(平均功能利用率)在 32%到36%之间。如果按照 OpenAI 云计算的成本是差不多 1 美元/每验、失败的训练和其他成本,比如数据收集、RLHF(以强化学习方式依据人类反馈优化语言模型)、人力成本等,这次训练的成本大约是 6300 万美元。

(2)日常运营算力需求:预计 ChatGPT 单月运营需要算力约 4874.4PFlops-days,对应成本约1800 万美元。在完成模型预训练之后,ChatGPT 对于底层算力的需求并未结束,日常运营过程中,用户交互带来数据处理需求。根据 OpenAI 官网 9 月数据,ChatGPT 目前拥有超过 1 亿用户,每月产生 18 亿次访问量。据 Fortune 杂志,每次用户与 ChatGPT 互动,产生的算力云服务成本约 0.01 美元。基于此,我们估算 OpenAI 为 ChatGPT 每月支付的运营算力成本为 1800 万美元。

(3)模型调优算力需求:从模型迭代的角度来看,ChatGPT 模型并不是静态的,而是需要不断进行 Finetune 模型调优,以确保模型处于最佳应用状态。调优过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和 PPO(近端策略优化),对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为 OpenAI 带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。

3、海外:全球算力规模进入加速期,科技巨头不断加大 AI 资本开支

伴随全球人工智能浪潮,全球算力规模爆发式增长。2022 年全球算力总规模达到 906EFlops,增速达到 47%,其中基础算力规模(FP32)为 440EFlops,智能算力规模(换算为 FP32)为 451EFlops,超算算力规模(换算为 FP32)为 16EFlops。根据中国移动预测,未来五年全球算力规模将以超过50%的速度增长,到 2025 年全球计算设备算力总规模将超过 3ZFlops,至 2030 年将超过 20ZFlops。

以 AIGC 为首的应用表现强劲,推动了智能计算的快速和持续增长。IDC 预测,全球人工智能计算市场规模将从 2022 年的 195 亿美元增长到 2026 年的 346.6 亿美元。其中,生成式人工智能计算市场规模将从 2022 年的 8.2 亿美元增长到 2026 年的 109.9 亿美元,占整体人工智能计算市场的比重将从 4.2%增长到 31.7%。生成式人工智能将推动互联网、制造、金融、教育、医疗等行业创新发展。

从海外云巨头三季报看,人工智能投资推动收入和资本支出。年初至今,生成式 AI 技术浪潮的快速崛起带来对 AI 算力需求的大幅提升,海外云厂商巨头谷歌、微软、Meta(这里暂时不考虑亚马逊,亚马逊由于三季度收缩用于仓储物流的资本开支,影响权重较大)3Q 资本开支 212.05 亿美元,合计资本开支环比增长 9.43%,主要系 AI 基础设施投入加大,各家在业绩会上均表示 2024 将继续加码 AI 领域。

另一方面,各大厂商资本开支与营收呈现显著正相关。谷歌云 2023 年第三季度收入为 84.1 亿美元,同比增长 22.59%,微软智能云部门(包括 Azure)的收入为 243 亿美元,同比增长 19%。我们认为,预计北美云厂商巨头微软、谷歌、Meta 的资本开支在 2024 年进入上行周期,整体增速预计超过双位数。

4、国内:智能算力需求持续增长,芯片禁令导致高端算力供需错配

算力是集计算力、网络运载力、数据存储力力于一体的新型生产力。一国算力指数与 GDP、数字经济发展呈现显著正相关。IDC、浪潮信息、清华产业研究院联合发布的《2022-2023 全球计算力指数评估报告》中表明,计算力评估指标涵盖计算能力、计算效率、应用水平、基础设施支持四个维度。回归分析显示,计算力指数与 GDP、数字经济的走势呈现出显著正相关。

算力对于促进 GDP 与数字经济增长效果显著。相关数据显示,十五个样本国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 3.6‰和 1.7‰,预计该趋势在 2023 至 2026 年将继续保持。

中国计算力指数排名第二,处于领跑者地位。根据《2022-2023 全球计算力指数评估报告》中,第一梯队包括中国和美国;第二梯队国家包括日本、德国、英国、法国、加拿大、韩国和澳大利亚;第三梯队国家包括印度、意大利、巴西、俄罗斯、南非和马来西亚。2022 年中国计算力指数同比增长 1.4%,达到了 71 分,2022 年受到疫情反复冲击,全年 GDP 增长低于预期,在这样的大环境下,中国算力指数仍保持增长。

中国算力核心产业规模高增,成为国内 GDP 增长重要抓手。据工业和信息化部数据,截至 2022 年年底,我国算力核心产业规模达到 1.8 万亿元,算力总规模达到 180EFLOPS,年增长率近 30%;存力总规模超过 1000EB;国家枢纽节点间的网络单向时延降低到 20 毫秒以内。预计 2023 中国算力核心产业规模。算力每投入 1 元,将带动 3~4 元的 GDP 经济增长。

2023 是企业数字化转型拐点,2024 资本开支有望继续高增。从 2022 年开始,全球企业在数字化转型的浪潮下开始加速数字化进程,2023 年是企业数字化转型的拐点,企业从数字化转型时代进入到数字化业务时代,开始逐渐步入数字化新阶段。根据 IDC 的研究,到 2023 年底,全球数字化转型支出在总体企业 ICT 支出中的占比将达到 52%,全球 52%的软件应用支出也将是 SaaS 模式。预计 2023 年全球数字化转型技术的支出增长率为 16.9%。数字化转型在降本增效、提高创新能力、商业模式转型升级等方面已初显成效,已成为企业核心发展战略。

国内算力产业总体规模未来三年有望维持 30%左右 CAGR,智能算力渗透率及占比快速提升。近几年,我国不断加大对计算、网络和存储等基础设施的投入,高度重视数据中心、智算中心、超算中心以及边缘数据中心等算力基础设施的高质量发展,近 5 年,我国算力产业规模年平均增速超过 30%。

智能算力渗透率逐渐提升。智能算力增长迅速,新增算力中智能算力成为增长新引擎,截至2022 年底,我国算力总规模达到 180EFLOPS,其中智能算力规模与去年相比增加 41.4%,超过全球整体智能算力增速(25.7%),其中通用算力规模 137EFLOPS,占比约 76.7%,智能算力规模 41EFLOPS,占比约 22.8%。根据《2022-2023 中国人工智能计算力发展评估报告》,未来 5 年中国智能算力规模年复合增长率将达到 52.3%,通用算力规模年复合增长率为 18.5%。预计到 2026 年中国智能算力将达到 145EFLOPS,占比将达到 36.7%。随着 AI 大模型的快速发展,智能算力需求正呈现爆发性增长态势,渗透率将显著提升。

高 端算 力芯 片进 口受 限 , 多 轮禁 令加 剧高 端 算 力供 应 的短 缺, 导 致供 需错 配 。一方 面,从ChatGPT 面世以来,国内各企业和研究院在短短半年多的时间内先后推出了超过 130 款大模型,其中领跑玩家已经开始着手于将大模型应用于特定场景,打造爆款应用。此外,为了构筑算力底座,各地政府纷纷上马智算中心建设,铺设大数据时代的信息高速,推动产业创新升级。根据华为昇腾计算业务总裁张迪煊在 2023 世界人工智能大会上的揭示,大模型所需的算力相对于 2020 年预计将增长 500 倍。而另一方面,2023 年 10 月 17 日,美国商务部工业和安全局(BIS)发布了针对芯片的出口禁令新规,更加严格的限制了中国购买重要的高端芯片,导致国内算力缺口正在不断扩大。

5、政策密集发布,推动算力基础设施高质量发展

工信部等六部门联合印发《算力基础设施高质量发展行动计划》,提出到 2025 年,计算力方面,算力规模超过 300EFLOPS,智能算力占比达到 35%,东西部算力平衡协调发展。2023 年 10 月9 日,工业和信息化部等六部门近日联合印发《算力基础设施高质量发展行动计划》,从计算力、运载力、存储力以及应用赋能四个方面定下发展目标,引导算力基础设施高质量发展。此次《行动计划》详细定下了量化目标。1)计算力方面,到 2025 年算力规模超过 300EFLOPS(每秒 30000 京次浮点运算次数),智能算力占比达到 35%,东西部算力平衡协调发展;2)运载力方面,国家枢纽节点数据中心集群间基本实现不高于理论时延 1.5 倍的直连网络传输,重点应用场所光传送网(OTN)覆盖率达到 80%,骨干网、城域网全面支持 IPv6 等创新技术使用占比达到 40%;3)存储力方面,存储总量超过 1800EB,先进存储容量占比达到 30%以上,重点行业核心数据、重要数据灾备覆盖率达到 100%;4)应用赋能方面,打造一批算力新业务、新模式、新业态,工业、金融等领域算力渗透率显著提升,医疗、交通等领域应用实现规模化复制推广,能源、教育等领域应用范围进一步扩大。每个重点领域打造 30个以上应用标杆。

目前,我国加速推进算力布局,与算力有关的多项国家政策发布,与此同时,各地政府也在推进相关规划落地,包括基础电信企业等在内的各方也在积极推进算力网络建设,算力产业发展进入“快车道”。

(二)算力侧投资主线:国产化、高带宽存储、AI 服务器、液冷、算力租赁

1、出口禁令倒逼国产化加速,华为昇腾 VS 英伟达参数对比

出口禁令影响海外供应,倒逼国产替代不断加速。2023 年 10 月 17 日,美国商务部工业和安全局(BIS)发布了针对芯片的出口禁令新规,更加严格的限制了中国购买重要的高端芯片。一方面,从 ChatGPT 面世以来,国内各企业和研究院在短短半年多的时间内先后推出了超过 130 款大模型,其中领跑玩家已经开始着手于将大模型应用于特定场景,打造爆款应用。另一方面,为了构筑算力底座,各地政府纷纷上马智算中心建设,铺设大数据时代的信息高速,推动产业创新升级,降低企业调用以大模型为代表的科技成果的成本。根据华为昇腾计算业务总裁张迪煊在 2023 世界人工智能大会上的揭示,大模型所需的算力相对于 2020 年预计将增长 500 倍,这个算力缺口正在不断扩大。 A800、H800 被禁后,英伟达继续推出新款芯片,单卡性能 H20 弱于昇腾 910b。2023 年 11 月9 日,相关报道称英伟达已开发出针对中国市场的最新改良版系列芯片——HGXH20、L20PCle 和L2PCle。最新三款芯片是由 H100 改良而来,就单卡性能而言 H20 弱于昇腾 910b。

华为昇腾芯片为 AI 体系提供强大算力,昇腾 910b 单卡性能接近英伟达 A100。华为昇腾芯片是华为发布的两款人工智能处理器,包含昇腾 310 用于推理和 910 用于训练,均采用自家的达芬奇架构。昇腾 910 是一款高性能 AI 芯片,采用了 7nm 工艺制程,集成了数千个达芬奇核心,能够提供高达 256TOPS 的算力,在业界其算力处于领先水平。昇腾 310 是一款入门级 AI 芯片,采用了 12nm 工艺制程,集成了数百个达芬奇核心,能够提供高达 8TOPS 的算力,适合用于边缘计算和物联网等应用场景。2023 年科大讯飞与华为昇腾启动专项攻关,合力打造我国通用人工智能新底座,让国产大模型架构在自主创新的软硬件基础之上,当前华为昇腾 910B 能力已经基本做到可对标英伟达 A100。

华为昇腾生态打开市场空间,国产算力产业链有望持续受益。我们认为,国内第一批大模型厂商使用的基本都是英伟达 A100、A800 的芯片,因为英伟达构建了完善的 CUDA 生态,贸然换生态,意味着学习成本、试错成本、调试成本都会增加。目前华为基于“鲲鹏+昇腾”双引擎正式全面启航计算战略,打造算力底座,未来国产替代趋势下,华为昇腾市场份额将不断提升,产业链细分赛道上市公司有望持续受益。15%到全国产化是大概率事件,国产化空间巨大。根据 IDC 数据,2022 年中国 AI 芯片出货量约 109 万张,其中英伟达市占率约为 85%,华为在内的国产 AI 芯片市占率约为 15%,国产化仍有很大空间。

昇腾计算产业链是基于昇腾系列处理器和基础软件构建的全栈 Al 计算基础设施、行业应用及服务,包括异腾系列处理器、系列硬件、CANN、Al 计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。

百度等率先开始采购昇腾 910B,释放多重积极信号。据相关报道,百度为 200 台服务器向华为订购了 1600 颗昇腾 910BAI 芯片,作为英伟达 A100 的替代品,订单总价值约 4.5 亿人民币,预计今年年底前完成交付,截至 10 月已交付约 60%,同时 360 集团创始人周鸿祎表示,360 也采购了华为 1000 片左右的 AI 芯片。我们认为,此次采购意义重大,虽然此订单规模相较过去从英伟达采购的数千颗芯片较小,但是此次采购证明国产昇腾 910B 可以满足大模型训练需求,伴随百度、360 等互联网大厂竞相采购,有望掀起互联网行业乃至千行百业采购浪潮。 华为昇腾服务器,国产算力之王。搭载华为昇腾系列 AI 芯片和业界主流异构计算部件的算力集群,具有超强计算性能,可以广泛用于中心侧 AI 推理、深度学习模型开发和场景训练,根据训练需求不同可以分为 AI 训练服务器和 AI 推理服务器。 AI 训练服务器:1)Atlas800 训练服务器(型号:9000)是基于华为鲲鹏 920+昇腾 910 处理器的 AI 训练服务器,具有超强算力密度、超高能效与高速网络等特点。2)Atlas800 训练服务器(型号:9010)是基于 Intel 处理器+华为昇腾 910 芯片的 AI 训练服务器,具有超强算力密度、高速网络带宽等特点。这两款服务器广泛应用于深度学习模型开发和训练,适用于智慧城市、智慧医疗、天文探索、石油勘探等需要大算力的行业领域。 AI 推理服务器:1)Atlas800 推理服务器(型号:3000)是基于昇腾 310 芯片的推理服务器,最大可支持 8 个 Atlas300I 推理卡,提供强大的实时推理能力,广泛应用于中心侧 AI 推理场景。2)Atlas800 推理服务器(型号:3010)是基于 Intel 处理器的推理服务器,最多可支持 7 个 Atlas300I 推理加速卡,支持 560 路高清视频实时分析,广泛应用于中心侧 AI 推理场景。

软件端:昇腾全栈 AI 软硬件平台,面向“端、边、云”的全场景 AI 基础设施。AI 处理器和基础软件构建 Atlas 人工智能计算解决方案,包括 Atlas 系列模块、板卡、小站、服务器、集群等丰富的产品形态,打造面向“端、边、云”的全场景 AI 基础设施方案,覆盖深度学习领域推理和训练全流程,充分释放硬件性能。

昇思 MindSpore 崛起,打造国产 AI 开发新生态。昇腾 910 配套的 AI 开源计算框架 MindSpore 更方便 AI 科学家和工程师使用,该框架可满足终端、边缘计算、云全场景需求,能够更好地保护数据隐私。昇腾在硬件上为合作伙伴提供 Altas 昇腾计算模组和计算卡,发展 20+硬件合作伙伴(整机、工控机等),15 家一体机伙伴;在软件上开源昇思 MindSporeAI 框架,社区开源模型 400+,下载量超 390 万+;生态发展上,昇腾采用行业+教育的方式,行业打通 1000+合作伙伴,认证解决方案2000+,超过 110 所高校开设昇腾 AI 课程,有着 120 万+开发者。

五大类华为昇腾生态合作伙伴,产业链上市公司迎来重大机遇。昇腾生态伙伴包含整机硬件伙伴、IHV 硬件伙伴、应用软件伙伴、一体机解决方案伙伴以及生态运营伙伴五大类其中,整机硬件伙伴有 13 家、IHV 硬件伙伴有 6 家、软件伙伴大约 1200 家。

2、“内存墙”制约算力释放,HBM 高带宽存储量价齐升

高端算力持续提升,摩尔定律注定失效,内存带宽成为重要制约因素。根据英伟达新卡 HGXH20 核心参数可以看出,其计算性能大幅下降,但是 900GB/s 的 NVLink 速度和 96GB 的 HBM3 都将使得集群计算效果较佳。算力并不是 AI 芯片唯一的性能指标,内存同样对 AI 芯片的整体效能起到决定性作用。 在大模型的训练过程中,“内存墙”成为瓶颈。通常在训练过程中计算和存储是同步进行的,在计算数据量增加的同时,如果存储的带宽不能匹配其数据量,就会造成延迟,势必会影响性能。伴随大模型处理数据吞吐量的指数级增长,庞大的数据处理和传输,对内存就提出了更高的带宽需求。然而,存储器和处理器并没有同步发展,处理器的性能按照摩尔定律规划的路线不断飙升,而内存所使用的 DRAM 从工艺演进中的获益却很少,性能提升速度远慢于处理器速度。根据行业预计,处理器的峰值算力每两年增长 3.1 倍,而 DRAM 的带宽每两年只增长 1.4 倍。这种情况下,当存储器的性能跟不上处理器,对指令和数据搬运时间将是处理器运算所消耗时间的几十倍乃至几百倍,这就是所谓的“内存墙”问题。 HBM 突破能有效打破了“内存墙”对算力提升的桎梏,是未来 DRAM 重要发展路径。HBM 这种新型的内存方案具备高带宽、低功耗的特点,面对 AI 大模型千亿、万亿级别参数时,服务器中负责计算的 GPU 几乎必须搭载 HBM。 目前 AI 芯片中 GPU 在训练和推理中占绝对优势。AI 芯片又称 AI 加速器或计算卡,是专门用于处理人工智能应用中大量计算任务的模块,AI 芯片是 AI 服务器的核心部件,在 AI 服务器中价值量占比接近 70%。目前主流的 AI 算力芯片主要包括 CPU、GPU、FPGA、ASIC 等。其中,GPU 是较为成熟的通用型人工智能芯片,FPGA 和 ASIC 则是针对人工智能需求特征的半定制和全定制芯片,GPU、FPGA、ASIC 作为加速芯片协助 CPU 进行大规模计算。

全球 AI 芯片市场规模持续提升,将维持 20%以上的增速。中商产业研究院发布的《2023-2029 全球与中国光子 AI 芯片市场现状及未来发展趋势》显示,2022 年全球 AI 芯片市场规模约为 441.7 亿美元。根据相关数据预测,2023 年 AI 芯片市场规模将达到 534 亿美元,比 2022 年增长 20.9%。欧美地区是全球 AI 芯片的重要市场,未来亚太市场份额进一步提升。欧美地区在 AI 芯片领域长期维持着行业领先地位,2021 年占全球市场份额为 42.6%。亚太地区和东南亚市场占比分别为 16.2% 和 11.6%,随着亚太地区半导体产业的快速发展,未来其市场优势地位将进一步凸显。

英伟达 GPU 芯片处于全球行业领先地位。2022 年 Intel 正式杀入了显卡市场,目前独立 GPU 市场则主要由 NVIDIA、AMD 和英特尔三家公司占据,2022 年全球独立 GPU 市场占有率分别为 88%、8%和 4%,其中,NVIDIA 在 PC 端独立 GPU 领域市场占有率优势明显。

英伟达 A100 提供 40GB 和 80GB 显存两种版本,性能比上一代提升 20 倍。A100 采用 Ampere 架构,是 NVIDIA 数据中心平台的引擎。并可划分为七个 GPU 实例,以根据变化的需求进行动态调整。A100 提供 40GB 和 80GB 显存两种版本,A100 采用 80GBHBM2 位宽达到 5120bit 使其显存带宽达到了 1935GB/s,超快速的显存带宽,可处理超大型模型和数据集。

当今的 AI 模型面临着对话式 AI 等更高层次的挑战,这促使其复杂度呈爆炸式增长。训练这些模型需要大规模的计算能力和可扩展性。A100 借助 Tensor 浮点运算(TF32)精度,对于具有庞大数据表的超大型模型,A10080GB 可为每个节点提供高达 1.3TB 的统一显存,而且吞吐量比 A10040GB 多高达 3 倍。

英伟达将 SK 海力士 HBM3 应用于 H100,价格上涨 5 倍之多。新一代 HBM3 的带宽最高可达819GB/s,在辅助 GPU 进行运算时有明显优势。英伟达已经将 SK 海力士的 HBM3 应用于 H100,这也使 HBM3 在 DRAM 整体表现不佳的情况下实现逆势增长,HBM3 的原价为 30 美元/GB,如今上涨5 倍之多,而对于训练来说 HBM 无疑是最优的选择。

AI 推理的带宽需求,GDDR6 是更加经济的选择。AI 推理带宽需求往往低于 500Gb/s,在此类场景中,带宽高于 LPDDR5,低于 HBM2E 的 GDDR6,是更加经济的选择。如果将 HBM3 作为AI 推理的存储设备,基本上会把带宽需求翻倍,超过了 AI 推理本身的带宽需求,还会使成本增加 3-4 倍。相比之下,GDDR6 是更加经济高效的选择。 AI 带动 HBM3 需求激增,SK 海力士和三星 2025 年前订单排满。SK 海力士在第一季度财报中指出,大型语言模型和 AIGC 的开发和商用化,将带动 HBM 在 2023 年的需求上扬。三星也在第一季度财报指出,将为 AI 带动的 DDR5 和高密度内存模块需求做好产能准备。

3、AI 服务器渗透率不断提升,推理服务器占比持续提高

服务器是计算机的一种,它比普通计算机运行更快、负载更高、价格更贵。服务器在网络中为其它客户机如 PC 机、智能手机、ATM 等终端等大型设备提供计算或者应用服务。服务器具有高速的 CPU 运算能力、长时间的可靠运行、强大的 I/O 外部数据吞吐能力以及更好的扩展性。其中 X86 和 ARM 是两种主流的架构。

通用服务器硬件设备中 CPU 及芯片组占服务器成本大约 50%左右。主要硬件包括处理器、内存、芯片组、I/O(RAID 卡、网卡、HBA 卡)、硬盘、机箱(电源、风扇)。以一台普通的服务器生产成本为例,CPU 及芯片组大致占比 50%左右,内存大致占比 15%左右,外部存储大致占比 10%左右,其他硬件占比 25%左右。AI 服务器中用于运算和存储的芯片占服务器成本结构约 70%,其中在机器学习型服务器中 GPU 成本占比达 72.8%。

全球服务器市场高增长,中国市场占比提升。根据 Statista 数据,2021 年全球服务器市场规模达到 831.7 亿美元,同比增长 6.97%,中国服务器市场占比 30.16%,预计 2023 年全球服务器市场规模来到 907.8 亿美元,同比增长 6.96%,中国服务器市场占比 33.93%,变化+3.77pct。我们认为,随着人工智力所需算力扩大,未来中国服务器市场有望进一步扩大。 人工智能时代 AI 服务器优势凸显。随着 AI 技术的广泛使用,CPU 的串行处理架构已经不能满足 AI 时代的算力需求,企业需要为人工智能、机器学习和深度学习建设全新的 IT 基础架构,正在由 CPU 密集型转向搭载 GPU、FPGA、ASIC 芯片的加速计算密集型,且越来越多地使用搭载 GPU、FPGA、ASIC 等加速卡的服务器,AI 服务器应运而生。

AI 服务器主要是异构形式的服务器,根据芯片的种类不同可以为 CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC 或 CPU+多种加速卡 5 种,目前广泛采用的是 CPU+GPU 架构。AI 服务器在组成部件上与普通服务器差异不大,主要提升在以下几个方面:1)更大容量内存,满足大数据实时负载增加的需求;2)提供更多外置硬盘插槽,并广泛支持 NVME/PCIE 等 SSD,满足大数据或模型参数的快速存储需求;3)需要带宽更高的网络模块,满足 AI 服务器之间、与终端用户的数据高速传输需求。随着 AI 在各行各业得到广泛使用,算力需求将会呈指数级增长,AI 服务器的需求将会高速增长。

全球 AI 服务器市场规模 CAGR 为 22.7%,有望进一步提升。据 IDC 预测,2023 年全球 AI 服务器市场规模为 211 亿美元,预计 2025 年达 317.9 亿美元。据 TrendForce 预测,2026 年全球AI 服务器出货量将进一步提升,2022-2026 年 CAGR 达到 10.8%。

从搭载芯片种类上来看,目前全球以 GPU 服务器为主流。据 IDC 统计,2022 年全球 GPU 服务器出货量占比 87.3%,GPU 服务器销售额占比 89.5%。

中国 AI 服务器市场存量替换需求叠加增量需求,预计 2026 年达到 123.4 亿美元,年复合增长率 13.02%。中国 AI 服务器受益于人工智能等相关新兴领域的应用以及“东数西算”政策下,云计算、超算中心的蓬勃发展,数据计算、存储需求呈几何级增长,算力需求持续释放,AI 服务器作为算力基础设备保持较快增速。存量来看,服务器平均寿命 3-5 年更换一次每年根据算力需求使用需求变化产生比较明显的更新需求。增量来看,伴随人工智能浪潮以及数字中国建设,未来对智能算力需求将持续爆发增长,且智能算力增长速度远超算力总体增速,中国 AI 服务器市场将迎来爆发增长,占比将逐步提升。2018-2021 年我国 AI 服务器市场规模由 14.76 亿美元增长至 59.2 亿美元,预计 2026 年达到 123.4 亿美元,2021-2026 年 CAGR 达 13.02%。

终端算力需求爆发,推理服务器占比将持续提升。根据 IDC 预测,2023 年 AI 服务器训练需求占比达 41.5%,随着大模型的应用,该比例在 2025 年将降低至 39.2%;将 GPT-4 的推算结果作为训练需求,进一步推算 2023、2025 年推理需求最高达 44081、48502PFlop/s-day。

单个 AI 应用如 ChatGPT 可以带动推理算力 66 亿美元需求。假设平均针对 20 字的提问生成 200 字的响应,对应 267token,根据 OneFlow 的数据和《Scaling Laws for Neural Language Models》,在推理过程中每个 token 的计算成本约为 2*N Flops,其中 N 为模型参数数量,则在 ChatGPT4 一万亿参数中每个 token 需算力 2 万亿 Flops。假定 GPT-4 训练期间 FLOPS 利用率为 32%,则每人每次提问需要算力:2 万亿*267token/32%=17PFlops。据官网 9 月数据,ChatGPT 目前拥有超过 1 亿用户,每月产生 18 亿次访问量,假定每日访问量为 6000 万人次,每人提问 10 次,且假设一天平均分布,则每秒算力需求为 118EFlops,目前 AI 推理使用的主流 GPU 是 T4,提供混合精度算力 65TFlops,则需要 182 万个 T4GPU 可满足单日访问量,对应 22.75 万台 8*T4 服务器,一台 8*T4 服务器的价格约为 29000 美元,则目前来看推理服务器的需求在 66 亿美元。

我们认为,伴随 AI 场景化加速落地,推理服务器市场占比有望进一步提升。AI 推理服务器能为用户提供强大的实时推理能力,广泛应用于中心侧 AI 推理场景。据恒州诚思调研统计,2022 年全球 AI 推理服务器市场规模约 740 亿元,预计未来将持续保持平稳增长的态势,到 2029 年市场规模将接近 2676 亿元。 大量推理算力服务边缘侧部署,与云端算力相辅相成。目前推理服务放置在云端,数据中心中很多服务器都会配置推理用的 PCIE 插卡,还有大量的推理算力服务用在边缘侧(各种数据中心外的设备),如自动驾驶汽车、机器人、智能手机、无人机或物联网设备,它们都是用训练好的模型进行推理。边缘算力与云端算力相互补充、相互关联,而非替代关系。

人工智能快速发展,智能终端渗透率提升,边缘算力四大优逐渐凸显。 (1)低延迟。边缘计算的一个主要优势在于其能够实现端到端的数据分析。在传统的云计算架构中,数据需要从设备传输到云端,进行分析处理后再返回设备。这种做法增加了数据传输的时间和延迟,对于实时性要求较高的应用而言,可能无法满足需求。而边缘计算通过在设备端进行数据处理,可以减少数据传输时间,提高响应速度和实时性。例如,在智能制造领域,边缘计算可以实现实时监测和预警,有效提高生产效率和产品质量。 (2)高可靠性。边缘计算还具有高效可靠的通信优势。由于数据在设备或终端进行处理,因此可以减少网络带宽的需求,从而提高通信效率。同时,边缘计算还可以通过本地化通信,降低数据传输的延迟,实现更快的响应速度。在物联网应用中,边缘计算可以实现对大量设备的快速、高效的数据收集和处理,从而提升整个系统的性能。 (3)安全性、隐私性更好。边缘计算在提高数据隐私和安全方面也具有优势。由于数据在本地进行处理,因此可以减少数据传输过程中的泄露风险。同时,边缘计算还可以使用加密技术,进一步提高数据的安全性。在医疗健康、金融服务等领域,边缘计算可以更好地保护用户的隐私和数据安全。 (4)低能耗、成本更低。边缘计算的另一个显著优势是更小的能耗。由于数据在设备端进行处理,因此可以减少设备需要传输的数据量,从而降低能耗。此外,边缘计算还可以通过节能算法,进一步降低设备的能耗。在物联网和智能家居领域,边缘计算可以帮助设备实现更长的续航时间,减少充电次数,提高用户体验。 (5)易扩展性。通常扩展 IT 基础架构的成本非常昂贵,需要为基础架构购买新的设备及为设备到额外的空间。但边缘计算轻松扩展基础架构,可以购买具有足够计算能力的设备来扩展边缘网络。无需为其数据需求建立私有或集中式数据中心。

算力下一站 AIOT 时代,边缘算力市场空间广阔。根据国际电信咨询公司 STLPartners 发布的边缘计算关键数据统计,预测到 2030 年,边缘计算潜在市场将从 2020 年的 90 亿美元,增长到 4450 亿美元,行业复合年增长率高达 48%。到 2026 年,全球 26%的网络边缘站点将位于中国,届时国内将占据主导地位。同时根据亿欧智库数据,2021 年我国边缘计算市场规模达 427.9 亿元,其中边缘硬件市场规模为 281.7 亿元,边缘软件与服务市场规模为 146.2 亿元。预计到 2025 年,我国边缘计算产业市场规模将达 1987.68 亿元,2021-2025 年 CAGR 为 46.81%,发展潜力巨大。

4、国内液冷服务器市场未来 5 年 CAGR 预计达 54.7%

数据中心 PUE 要求愈发严苛。随着云计算、大数据、人工智能、元宇宙等信息技术的快速发展和传统产业数字化的转型,数据呈现几何级增长,算力和硬件部分能耗也在持续增加,而在“双碳”政策的持续推进下,国家、地方政府、企业层面均在积极推动绿色低碳转型和可持续发展,通讯领域对数据中心节能降耗要求越来越严格。 液冷未来有望逐渐替代风冷,成为 AI 服务器、数据中心标配。A1 训练及推理应用、超算等高算力业务需求持续推升,由此带来的芯片性能需求、服务器功率需求不断提高,场景侧,以英伟达DGXA100640GB 服务器为例,系统最大功率为 6.5KW,传统风冷无法做到及时散热,相比之下,液体比热容为空气的 1000-3500 倍,导热性能是空气的 15-25 倍,利用自然冷却显著降低耗电量,使得液冷成为风冷的不二选择。 我们认为,人工智能浪潮下,对算力需求进一步提升,液冷预计将成为最优冷却方案,未来中国液冷服务器市场有望进一步打开竞争格局,产业相关上市公司将受益。目前,中国液冷服务器普及率不足 5%,径普及率并不高。受制于:1)数据中心国家 PUE 标准收紧;2)受制于面积等因素,机柜密度逐渐提升;3)温度过高,芯片故障率升高等客观因素,未来液冷服务器将成为调和快速的算力需求与有限数据中心承载力的共识方案。

液冷服务器是大势所趋,数据中心 PUE 可降至 1.25 以下。算力的持续增加,意味着硬件部分的能耗也在持续提升;在保证算力运转的前提下,只有通过降低数据中心辅助能源的消耗,才能达成节能目标下的 PUE 要求。

冷板式液冷服务器与浸没式相变服务器为两大主流液冷服务器。冷板式液冷服务器技术利用工作流体作为中间热量传输的媒介,将热量由热区传递到远处再进行冷却。在该技术中,工作液体与被冷却对象分离,工作液体不与电子器件直接接触,而是通过液冷板等高效热传导部件将被冷却对象的热量传递到冷媒中。

该技术将冷却剂直接导向热源,同时由于液体比空气的比热大,散热速度远远大于空气,因此制冷效率远高于风冷散热,每单位体积所传输的热量即散热效率高达 1000 倍。该技术可有效解决高密度服务器的散热问题,降低冷却系统能耗而且降低噪声。

浸没式液冷服务器又可以分为单相浸没式液冷服务器和两相浸没式液冷服务器。浸没式相变换热液冷系统采用进口环保专用冷媒,具有不导电、无闪点、无腐蚀性、无毒性的特性,利用环保冷媒良好的热物理特性,通过控制系统物理参数,利用冷媒工质的气化潜热转移服务器内部热量,极大提高了系统的换热效率,同时保留了高端热源的能量品位。此冷媒较传统冷媒,在系统压力较低的情况下即可实现 50℃~60℃的蒸发温度,无须利用压缩机进行机械制冷,从而使室外机组的全年自然冷却工作方式成为可能。

作为中国液冷服务器第一的曙光数创,目前浸没式液冷服务器技术领先。1)整机功耗:全浸没方案,无风扇设计,风扇功耗降低为 0。2)终极的噪音指标:区别于传统风冷机房,全浸没机房噪音控制在 35dB 以下。3)终极的功率密度:高密度配置,轻松实现整机柜功率 200kW。4)终极的 PUE 指标:直接利用高品位完成热量转移,可实现 PUE 低至 1.01-1.02。

2023H1 中国液冷服务器市场同比增长近 3 倍。根据 IDC 发布的《中国半年度液冷服务器市场(2023 上半年)跟踪》报告数据显示,2023 上半年中国液冷服务器市场规模达到 6.6 亿美元,同比增长 283.3%,预计 2023 年全年将达到 15.1 亿美元。IDC 预计,2022-2027 年,中国液冷服务器市场年复合增长率将达到 54.7%,2027 年市场规模将达到 89 亿美元。

5、高端算力供不应求,算力租赁空间广阔,但需注意供应链风险

算力租赁是一种利用云计算技术对算力进行出租的一种计算服务,通过云计算平台给企业用户提供高性能、高效率、高可靠性的计算资源,且有着灵活、成本低廉、高效的特点。算力租赁对中小企业、初创企业、科研机构这种偏向轻资产的模式,转租赁的方式会是一个好选择。 算力租赁需求主要来源于创业公司、科研院所、政府智慧城市三方面。创业公司和科研院所等对算力租赁需求持续增长,政府智慧城市大模型化,包括城市智能交通、智慧城市等。

AI 算力租赁需求增长确定,市场空间广阔。1)数字基础设施:新型数据中心是支撑人工智能、5G、云计算等新一代信息技术发展的算力载体,是推动经济社会数字转型、智能升级、融合创新的关键基础设施。2)低成本、灵活高效:人工智能技术不断提升,带动算力需求的蓬勃上升,给算力租赁带来广泛的市场空间,因为自建数据中心不仅成本高且算力产生大量冗余,因此租赁算力成了当前方案的最优解。3)政策扶持:算力租赁也受到了政策的大力扶持,工信部等六部门日前印发的《算力基础设施高质量发展行动计划》提出打造集成多方算力资源和开发平台的算力服务,鼓励各地为中小企业、科研机构提供普惠算力资源。4)应用端催化:算力租赁需求旺盛,教育、法律和办公需求较大,未来偏创作、剪辑、游戏需求将放量。 算力租赁单价年内大幅上涨,H800 算力租赁租金 15 万元/P/年。由于 H20、L20 暂未上市,暂以H800 和 A80 进行测算。目前 A800 单卡算力在 0.6P,根据相关数据 H800 训练速度是 A800 的 1.6-2.1 倍,推算 H800 单卡算力在 2P。根据 GPUShare 报价数据 A800/80G 单卡租赁价格 9 元/小时,换算单卡0.6P 算力=15 元/P/小时=13.5 万元/P/年。H800/80G 单卡租赁价格 4.5 美金/小时,换算单卡 2P 算力=17 元/P/小时=15 万元/P/年,对比一个月前报价(14 元每小时,或 13.3 万元/P/年)涨价 15%。

成本回收周期短,算力租赁毛利率超过 50%。一台 8 卡 A 系列服务器卡成本占比在 80%左右,每张 A800 价格为 10 万元,每张 H800 的价格是 20 万元。结合当前市场,一台 8 卡 A 系列服务器成本大概在 100 万左右,8 卡 H 系列服务器成本在 200 万左右。假定一台服务器的平均使用寿命在 3-5 年左右,不考虑残值,按照 3 年使用寿命 8 卡 A 系列服务器每年折旧费用每年 33 万元左右,8 卡 H 系列服务器每年折旧费用在 67 万元左右。以 8 卡 H 系列服务器为例,H 系列服务器提供 16P 算力,按照80%的价格来计算,产生收入 192 万元,每年折旧费用在 67 万元左右,假定运维成本、电费、机柜等成本A800 为 8 万元,H800 为 20 万元,粗略估算毛利率在 40%-60%左右,预计 1.5 年可以收回成本。

我们认为,算力租赁短期供需错配,仍有较大市场空间。2023 年在 AI 大模型发展持续加速背景下,对高端智算资源的需求呈指数级增长,算力租赁行业进入蓬勃发展期。算力租赁上市公司需要重点关注五大维度(优先级依次降低)。1)购卡能力及服务器渠道:是否有购卡渠道及绑定服务器厂商。2)在手订单量:在手订单是否充足。3)资金实力:算力租赁前期购买芯片及服务器投入较大,公司是否有充足现金流。4)能耗指标:各地政府对数据中心有能耗指标限制,公司能否拿到能耗指标影响业务扩张。5)业务协同性:传统业务能否与算力租赁业务形成协同效应。投资者应注意算力租赁行业受地缘政治、政策、法律等引发供应链及衍生风险。

主线二:数据侧,数据要素三次价值释放,入表推动价值“显性化”

(一)数据入表:2024 年初实行,数据资产化时代正式开启

财政部于 2023 年 8 月正式发布《企业数据资源相关会计处理暂行规定》(以下简称《暂行规定》),并规定自 2024 年 1 月 1 日起施行,数据资产化时代正式开启。 数据入表的具体操作: 主要入表项目为无形资产、存货与开发支出,无形资产适用于绝大部分情况。主要变化体现在由原来的损益类可转换为资产类。 在具体操作层面,根据《暂行规定》,企业在编制资产负债表时,应当根据重要性原则并结合本企业的实际情况,在“无形资产”、“存货”与“开发支出”项目下增设“其中:数据资源”项目。其中,无形资产反映资产负债表日确认为无形资产的数据资源的期末账面价值;存货反映资产负债表日确认为存货的数据资源的期末账面价值;开发支出反映资产负债表日正在进行数据资源研究开发项目满足资本化条件的支出金额。 数据入表项目应符合原有会计准则并进行相应处理,一般来说,企业自有以产生经济价值的数据确认为无形资产、目的用于交易出售的数据确认为存货。依据《企业会计准则》,“无形资产”不具有实物形态但需要可辨认,需满足预期经济收入可能流入企业、成本可计量的条件。对应到数据资源同样需要满足以上条件,数据资源需要具备可辨认的形态、相关成本可以清晰计量、未来具备预期的收益。“存货”同样需要满足预期收益流入、成本可清晰计量的会计确认条件,不同于无形资产的是,企业持有存货的目的是为了出售。会计处理方式应符合对应项目的会计准则,对于无形资产,报告期需对账面原值、累计摊销、减值准备、账面价值等拆分披露。对于存货,报告期需对账面原值、存货跌价准备、账面价值等拆分披露。

数据入表的主要场景: 我们认为,未来数据入表主要有以下四种场景:

1.企业内部自行开发形成的数据资产(不用做单纯交易出售目的)

根据《企业会计准则》中无形资产的资本化条件的相关规定,内部研究阶段产生的支出应计入损益项,开发阶段的支出,应满足一定条件后确认为无形资产。(一)从技术上来讲,完成该无形资产以使其能够使用或出售具有可行性;(二)具有完成该无形资产并使用或出售的意图;(三)无形资产产生未来经济利益的方式,包括能够证明运用该无形资产生产的产品存在市场或无形资产自身存在市场;无形资产将在内部使用的,应当证明其有用性;(四)有足够的技术、财务资源和其他资源支持,以完成该无形资产的开发,并有能力使用或出售该无形资产;(五)归属于该无形资产开发阶段的支出能够可靠计量。

2.企业外购取得的数据资产

外购取得的数据符合无形资产确认条件的可入无形资产,不符合确认条件的服务支出根据具体用途计入当期损益。对于外购过程中产生的数据资源成本包括购买价款、相关税费、以及直接归属于使该项无形资产达到预定用途的数据标注、整合、分析、可视化等加工过程所发生的有关支出等,需根据具体情况界定是否可进行资本化处理。

3.企业通过合并方式取得的数据资产

根据准则,企业合并时,购买方在对企业合并中取得的被购买方资产进行初始确认时,应当对被购买方拥有的但在其财务报表中未确认的无形资产进行充分辨认和合理判断,满足以下条件之一的,应确认为无形资产:(一)源于合同性权利或其他法定权利;(二)能够从被购买方中分离或者划分出来,并能单独或与相关合同、资产和负债一起,用于出售、转移、授予许可、租赁或交换。

4.目的用于交易出售的数据资源

根据准则,企业日常活动中持有、最终目的用于出售的数据资源,符合存货准则规定的定义和确认条件的,应当确认为存货。 需要注意的是,根据本次暂行规定的界定,作为无形资产的数据不排他,作为存货的数据具备排他性。在绝大部分场景与企业中,企业对数据资源进行反复使用,使用的场景包括不限于自用数据产生产品销售以产生经济价值、通过数据共享给客户以产生经济价值等,数据资源为多方所使用,不具备使用权的排他性,应为无形资产。存货的场景主要有数据采集与加工厂商,产生数据资源的目的单纯是为了销售,进行数据所有权的转让,出售之后数据不再属于原有企业,具备排他性。

数据入表的具体影响: 财务报表改善,利润释放,降低资产负债率,提升企业价值。过去,一些数据相关支出往往被确认为期间费用项目,对企业当期业绩造成影响。现在,无论是将数据确认为无形资产还是确认为存货,均属资产项,有助于企业改善利润率与资产负债率。在企业的经营层面,数据入表后,企业投入压力减小,有助于增长企业的经营与研发的动力,深入挖掘数据多重价值。暂行规定并未改变资产确认条件和计量基础,且数据的估值与确权存在具体执行层面的难度,数据入表的相关探索与执行是一个循序渐进的过程。

(二)数据要素政策仍有细化空间,政策催化效应预期凸显

国家数据局成立:顶层设计的解构与整合

涉及到数据要素与数据经济的顶层机构主要有三个:(1)中共中央网络安全和信息化委员会下属办事机构中央网信办;(2)国家发改委下属创新和高技术司;(3)工信部。中央网信办组织研究起草网络安全和信息化发展战略、宏观规划和重大政策,根据职责权限负责相关法规、规章等的起草、实施和监督检查。国家发改委负责统筹推进战略性新兴产业和数字经济发展,衔接平衡信息化发展规划与国家发展规划,组织拟订推进创新创业和高技术产业发展的规划和政策。工信部负责统筹推进工业领域信息化发展,研究拟订信息化和工业化融合发展战略、规划、政策和标准;互联网行业管理(含移动互联网),拟定电信网、互联网及工业控制系统网络与信息安全规划、政策、标准并组织实施,拟订电信网、互联网数据安全管理政策、规范、标准并组织实施等。 2023 年 3 月 10 日,十四届全国人大通过《国务院机构改革方案》,组建国家数据局,隶属于国家发改委。根据改革方案,国家数据局整合了中央网信办承担的研究拟订数字中国建设方案、协调推动公共服务和社会治理信息化、协调促进智慧城市建设、协调国家重要信息资源开发利用与共享、推动信息资源跨行业跨部门互联互通等 5 项宏观管理职责,国家发改委承担的统筹推进数字经济发展1项宏观管理职责,组织实施国家大数据战略、推进数据要素基础制度建设、推进数字基础设施布局建设等 3 项具体管理职责。目前,新任局长与副局长均已完成任命,内部招聘进行中。10 月 25 日,国家数据局正式揭牌。全新的职能部门有助于更好地制定纲领性文件与统筹全国数据经济与数据要素市场发展。

数据二十条:数据要素发展顶层指导文件

数据二十条中的制度制定贯穿数据产业链的全生命周期,提出核心的四项数据基础制度,包括数据产权制度、数据要素流通和交易制度、数据要素收益分配制度、数据要素治理制度。在这四项制度中,数据产权制度是基础,流通和交易制度是核心,收益分配制度是动力,治理制度是保障。这四项基础制度是我国数据经济可持续发展的“四梁八柱”,是数据要素发展的基石。

2023 年 11 月,由浙江省财政厅归口,浙江省标准化研究院牵头制定的《数据资产确认工作指南》省地方标准正式发布。该标准是国内首个针对数据资产确认制定的省级地方性标准,将于 2023 年12 月 5 日起正式实施。工作指南明确规定初始确认(资产识别、确认条件判断、确认流程);变更确认(变更识别、变更判断、变更确认流程)、终止确认(终止识别、终止判断、终止确认流程)相关细节,在数据资源开发、数据要素市场化和产业化进程中强化标准实施应用,推进以标准为依据开展宏观调控、产业推进、行业管理、市场准入和质量监管。提出具体指导指南,为数据资产化落地提供支撑与助力。该标准的研制实施将填补数据资产确认标准空白,指引组织对其拥有或控制的数据资源进行确认为资产,将数据资源转化为数据资产,引导数据资产化进程,有利于破解数据资产确认难题,助推数据资产公共服务,促进数据资产交易流通,为加快数据资源开发提供标准化手段,为健全数据资产管理机制建设提供标准技术支持,为数据要素市场化配置改革提供标准技术支撑,有利于激活数据要素潜能。 2023 年 11 月 23 日,第二届全球数字贸易博览会召开,在数据要素治理与市场化论坛上,国家数据局党组书记、局长刘烈宏表示,目前国家数据局围绕数据要素市场化配置改革正在推进一系列重点工作,包括丰富完善数据基础数据体系、促进数据流通交易和开发利用推动数据基础设施建设、推进数据领域核心技术攻关、强化数据安全治理工作等,体现了顶层设计层面对数据要素的重视及发展数据要素的决心。

2023 年 11 月 25 日,2023 全球数商大会在上海开幕,数据交易链正式启用,十省市实现“一地挂牌、全网互认”。数据交易链由上海数据交易所、浙江大数据交易中心、山东数据交易有限公司、广州数据交易所、广西北部湾大数据交易中心、西部数据交易中心、北方大数据交易中心等七家省级数据交易机构发起并建设联盟链共识节点。郑州数据交易中心、湖南大数据交易所、青岛大数据交易中心、苏州大数据交易所等省、市级交易机构作为第二批意向机构也积极申请加入,共同启动数据要素市场“可信通”计划,合作开展制度共创、标准共制、数链共推、服务共享、生态互联等工作。数据交易链的建立有助于打通数据流通环节,发挥数据要素价值最大化。

我们认为,2024 年在政策层面主要有三个方面的可能变化: 第一,各个地方将围绕顶层设计进行一些具体实施层面政策的设计与执行。各省市已先后发布针对数据要素相关的政策规定,但大多数是建立在原本数字经济上的一些大方向政策,往往体现在数据价值的前两次释放,对于涉及数据价值第三次价值释放的流通交易具体措施上布局较少。随着国家层面对数据要素动作不断,今年以来,各地方逐步开始发布一些具体执行层面的细则,例如公共数据的共享、数据交易以及数据产权登记等。但这些依然集中在北上广深等经济较为发达地区的一些暂行办法与草案,数据要素执行层面的政策将逐步下沉。 第二,政策将围绕具体行业领域进行细化,例如金融、交通、医疗、教育等,加速行业层面应用落地。 第三,目前仍然处于不明晰或者探索阶段的领域,例如数据的确权、评估计价、交易、数据资产融资的细则将伴随具体实施不断细化。

(三)数据要素迎三次价值释放,数据资本空间预计可达 30 万亿

数据资源的价值可量化将使得 2024 年成为数据要素三次价值释放的元年。伴随着数据交易的活跃,数据由机构内部向外部流转,更好地流入需求方,促进数据价值最大化。此外,数据的流通将促进全新的应用场景与技术出现与活跃,盘活数据要素市场生态。 根据信通院定义,数据技术发展有三大阶段: (1)第一阶段:数据技术支撑业务贯通。在此阶段,数据主要来自于业务运转,在不同的业务系统中进行共享及流通,在此阶段数据技术主要支撑数据的事务处理,以文件系统、数据库等技术为代表。此阶段减少了信息的传递成本,提升了运营效率。 (2)第二阶段:数据技术推动数智决策。数据经过挖掘、清洗、筛选并嵌套入相应场景,实现业务的智慧化、智能化决策。在此阶段数据技术以数据仓库、数据湖以及湖仓一体等技术为代表,以支撑数据的分析、治理等工作。 (3)第三阶段:数据技术进入可信流通对外赋能阶段。在这一时期,数据不仅在企业内部流转,也将会通过流通发挥更大价值,实现多方共赢。数据技术将推动各行业从“有数可用”到“数尽其用”,全场景智能、跨领域协同、数据流通跨域安全管控成为新阶段的发展目标,推动数据要素价值不断向更多应用场景拓展。技术方面以相对匿名化、隐私计算、区块链、全密态数据库以及防篡改数据库等技术为代表,以支撑数据要素可信流通。 三次价值释放循序渐进,后一次以前一次为基础。目前,我国前两次数据价值释放环境已渐趋成熟。我们认为,第三次价值释放不同以往,侧重于数据从企业内部向外部的流通,使得数据从供应方更好地流转到需求方,使得数据作为生产要素的生产效率与价值最大化。此外,三次价值释放将衍生出全新数据相关技术,产业链进一步丰富与完善。

数字要素市场空间测算: 根据清华大学社科院刘雄涛教授等人根据增值法对数据资本的测算所得,2020 年,我国数据资本存量约为 17.4 万亿。本报告基于该测算做如下假设,并测算十四五期间数据资本预测值:(1)假设2023-2025 年 GDP 增速为 5.2%、5.2%、4.7%;(2)假设 2021-2025 年数据资本存量占 GDP 比重的增速为 5%、5%、6%、10%、10%。 基于以上假设的测算结果为:预计 2023-2025 年,我国数据资本空间约为 26.6 万亿、30.8 万亿、35.5 万亿元,增速为 12%、16%、15%。

(四)细分投资机会解析:贯穿全产业链的价值“显性化”

数据要素方向建议重点关注:1)数据资产化的确权、定价等政策落地时点;2)国资云厂商;3)拥有各类数据资产(例如时空数据要素、政府或数据运营权的企业;4)数据治理、数据安全、数据复制与灾备等服务提供商。 数据要素市场从产业链角度来看,主要包括底层的基础设施、数据要素的治理与服务、上层的应用,以及贯穿全产业链的数据服务,主要包括数据的安全服务、数据的流通交易、数据的流通服务。数据要素基础设施主要涵盖提供计算、存储与网络的物理数据中心,和用于数据采集的物理设备等;数据要素的治理主要包括数据的采集、标注、治理、加工、分析、可视化、商业智能等;数据要素的应用主要体现在个人、政府与千行百业。数据安全服务主要包括数据的容灾与备份、数据防泄漏、隐私计算、文档安全、数据库安全、数据脱敏、数据分类分级、大数据保护、数据安全合规检测等。数据流通交易主要涵盖数据交易(数据产品的交易、数据中间态交易、原始数据交易、共性服务交易)、数据开放(政府数据开放、公共数据开放、行业开放共享平台)、数据共享(政府间与政府内数据共享、企业内部数据共享)。数据流通服务涵盖数商服务(数据产品开发利用、数据资产开发利用)、专业服务(数据集成、合规认证、数据托管、资产评估、风险评估、人才培训、数据公证等)、运营服务(公共/企业/个人数据运营)。

我们认为,2024 年有望有边际变化的主要有以下几个领域: 数据的备份与灾备市场在信创、数据要素与云计算推进下,国产化替代加速。我国灾备行业起步较晚,主要以国外厂商为主。根据 IDC 统计,2021 年国内数据复制与保护的纯软件市场中,前五大供应商分别为 Veritas、DELL、英方软件、Commvault 和华为,市场占有率分别为 16.0%、13.1%、10.2%、8.5%和 8.3%,海外厂商占比接近 40%。2022H1,国内数据复制保护总体市场中除华为凭借硬件销售占据第一外,戴尔科技和 Veritas 依然分列二、三位。此外,随着云服务器渗透率的提升,灾备即服务(DRaaS) 的新模式高速增长。根据 MarketsandMarkets 发布的市场研究报告显示,全球 DRaaS 市场规模预计将从2020 年的 51 亿美元增长到 2025 年的 146 亿美元,年复合增长 23.4%。

数据的治理与加工将同时受益于 AI 与数据要素产业而蓬勃发展。要实现数据的流通,数据治理不可或缺,此外,高质量与大规模的数据集同样是 AI 大模型的突破的关键点。目前国内数据资源丰富,从总量来说具备优势,但由于数据挖掘不足,数据无法自由在市场上流通,数据的清洗与标注产业链不够完善等现状,优质数据集仍然稀缺。 高质量数据集离不开数据的治理,数据治理市场空间广阔。根据艾瑞数据显示,2021 年,中国面向人工智能的数据治理规模约为 40 亿元,2026 年规模突破百亿达 105 亿元,五年 CAGR 达到 21.3%;中国的数据治理市场规模约为 121 亿元,预计 2026 年市场规模达到 294 亿元,五年 CAGR 为 19.5%。

数据治理离不开高质量的数据采集与标注。从 AI 的数据治理产业链图谱来看,上游主要为数据的提供方,下游主要为数据的最终应用方。应用于 AI 模型的训练与推理的数据主要由中游基础数据服务商进行采集与标注,数据治理平台进行数据的优化治理。

数据确权是数据要素流通交易与发展的基础,产业落地有望加速发展。根据“数据二十条”,首先推动数据处理者开发利用原始数据,其次支持其行使数据应用权利,从而充分利用数据价值、促进数据流通。在数据的权益保护与分置上,主要涉及两大参与方,即数据来源者和数据处理者。针对数据来源者,享有获取或复制转移由其促成产生数据的权益。针对数据处理者,其权益对应“三权”,即:保护其对持有的数据进行自主管控的权益(数据资源持有权);承认和保护其获取的数据加工使用权,保障其使用数据和获得收益的权利(数据加工使用权);保护经加工、分析等形成数据或数据衍生产品的经营权,许可他人使用数据或数据衍生产品的权利,流转数据相关财产性权益等(数据产品经营权)。 目前,在产业端已经有相应的探索与落地。人民网旗下人民数据按照“数据二十条”中提到的三权分置发放数据要素“三证”—“数据资源持有权证书”“数据加工使用权证书”“数据产品经营权证书”。“三证”基于人民链 Baas 服务平台(2.0 版本),进行确权、上链、存证、交易服务工作。“三证”主要旨在统一和连接各级党政机关和大数据交易所之间相对分散的数据,形成全国性的数据交易服务平台,同时解决数据权利不明晰的问题。

主线三:算法侧,大模型从云到端,2024 年手机有望搭载生成式AI

(一)云端大模型持续升级,云人工智能市场五年 CAGR 有望达32.37%

1、海外大厂积极布局云端,明年预计发布多个大模型

OpenAI 明年上半年预计发布 GPT-5,Meta 预计已在开发比 GPT4 更强大的开源大模型 Llama3。大模型从云到端持续推进,云端继续升级,终端大模型呼之欲出。 算力方面,OpenAI 表示已收到 H100,预计后续订单将顺利执行;数据方面,据 OpenAI 透露,GPT-5 参数量是 GPT-4 的 10 倍,GPT-5 训练数据来源于互联网数据集和公司专有数据,包括开源和私有数据,涵盖各种数据类型,如文本、图像、音频和视频,将支持更多种类的输入和输出。OpenAI 表示,GPT-5 的终极目标是实现类似人脑的超级 AI,最终实现 AGI(Artificial General Intelligence)。2023 年 11 月,Meta 称正在研发 Llama3,预计将于 2024 年上半年亮相。Llama3 被猜测可与 GPT-4 相匹敌,能够支持生成精密文本、分析和其他输出性服务,并计划保持开源免费。

2、云服务产品市场持续扩容,云人工智能市场未来五年 CAGR 有望达 32.37%

据 MordorIntelligence 预计,云人工智能市场规模将从 2023 年的 510.4 亿美元增长到 2028 年的2074 亿美元,预测期内(2023-2028 年)复合年增长率为 32.37%。随着企业数量的不断增加以及企业之间的竞争,企业正在积极尝试将人工智能技术与其应用、分析、业务和服务相集成。此外,将公司致力于降低运营成本以提高利润率,推动云端人工智能快速发展,进一步推动预测期内的市场规模增长。

3、MaaS 加速发展,云端 AI 渗透率预期稳增

随着 ChatGPT 引爆大模型市场,MaaS(Model as a Service,模型即服务),成为继 SaaS(Software as a Service)、IaaS(Infrastructure as a Service)、PaaS(Platform as a service)之后的新型云服务方式。MaaS 将人工智能大模型变成可服务化的产品,用户无需自建底层基础设施,只需通过 API 接口调用即可使用大模型服务,MaaS 通常有推理、微调、深入开发三种服务方式,降低使用门槛的同时也可以大幅提高大模型的使用效率。科技厂商 MaaS 商业模式主要分为三种: 1、订阅制模式:将模型产品化并通过提供增值服务获取收入,例如 ChatGPTPlus; 2、嵌入其他产品获得引流式收入:例如微软 Microsoft365 服务全面接入 AI 驱动工具 Copilot,其由 OpenAI 的 GPT-4 技术驱动,出现在 Microsoft365 的侧边栏,可作为聊天机器人随时召唤,带来更智能、更高效的办公体验的同时,获得引流式收入; 3、API 服务调用或定制开发:如文心千帆大模型平台,是面向企业开发者的一站式大模型开发及服务运行平台,提供基于文心一言底层模型(Ernie Bot)的数据管理、自动化模型定制微调以及预测服务云端部署一站式大模型定制服务。

海 内 外 巨 头 纷 纷 持 续 开 发 大 模 型 云 端 应 用 , 微 软 从 11 月 1 日 开 始 向 核 心 大 公 司出售Microsoft365Copilot。微软公开表示,随着 B 端新产品不断推出,未来有望持续提升 AI 产品付费转化率及 ARPU 值。微软的 AI 业务营收将以整个行业史上最快的速度达到 100 亿美元规模。此前,微软宣布其 MaaS+SaaS 结合产品 365Copilot30 美元/月的定价,目前用户对此价格反馈符合预期;Microsoft365 拥有 1.6 亿用户群,B 端用户是微软 AI 业务增长的主要驱动力。除此之外,BingChat 企业版基于 Copilot 构建 Microsoft 并添加商业数据保护,因此可以确信业务数据受到保护,并不会被泄漏到外部。使用BingChat 企业版,不会保存聊天数据,Microsoft 没有监视访问权限,并数据不会用于训练大型语言模型。

2023 年 6 月 19 日,腾讯云首次正式公布行业大模型,并发布面向 B 端客户的腾讯云 MaaS 服务解决方案。腾讯云 MaaS 是基于 TI 平台打造的行业大模型商店,覆盖金融、文旅、政务、传媒、教育等10 个行业,提供超 50 个解决方案。在模型基础上,用户只需加入现有的场景数据,即可快速生成专属模型。通过 TI 平台以及模型私有化部署、权限管控和数据加密等方式,腾讯云可帮助开发者和企业客户解决数据安全和隐私方面的问题。另外,与微软类似,腾讯云 MaaS 将加持 SaaS 产品发展,对现有 SaaS 产品进行智能化升级,包括腾讯会议、腾讯企点智能客服、AI 代码助手等;腾讯会议 AI 小助手可实现在会前、会中、会后的全流程服务。

(二)边云算法协同发展,推动大模型终端侧落地

1、边缘智能向五大方向全面优化,算法支持边缘计算效率提升

大模型时代,从云到端(边缘侧)算法不断优化升级,其中边缘智能优化方向包括五大方面,包括边云协同、模型分割、模型压缩、减少冗余数据传输以及轻量级加速体系结构。其中,边云协同、模型分割、模型压缩能够减少边缘智能对于计算、存储和设备的需求;减少冗余数据传输以改善传输效率,降低网络资源浪费;轻量级加速体系结构将在硬件和应用方面支持边缘计算效率提升。 边云协同云计算和边缘计算相结合,将数据和计算资源分布在云端和边缘设备,实现数据的高效处理和传输。云边协同优势明显,1)充分利用云端强大的计算资源;2)在需要实时响应或者断网情况下可借助本地设备完成任务;3)保证数据安全性。 2023 年 8 月,KubeEdgeSIGAI 发布 KubeEdgeSednav0.6 及 Ianvsv0.2,全面提升边云协同终身学习的能力和性能;升级三大功能,包括支持图片视频等非结构化数据场景、提供全面基准测试套件和具备未知任务识别与处理能力。

模型分割将大量的计算任务分解成不同的部分,把部分或全部计算任务推到边缘,利用不同设备协同解决问题,能够获得更好的端到端延迟性能和能源效率。常见的分割方法包括水平分割和垂直分割,水平分割即沿端-边-云进行分割,垂直分割是将层进行融合,以网格的方式进行垂直分区。这种终端与边缘设备协同的方法能有效降低深度学习模型的推断时延,但不同的模型切分点将导致不同的计算时间,因此如何选择最佳的模型切分点是模型分割的关键。

模型裁剪可在不影响准确度的条件下对模型“剪枝”,从而减少对计算、存储等方面的需求。深度学习网络模型在训练过程中形成大量冗余参数,影响模型运行效率。通过模型裁剪去除冗余参数,并不会影响模型的表达能力。在工业视觉识别系统领域,模型裁剪技术已实现应用:利用权重剪裁和迭代裁剪技巧,将提高生产自动化水平和装备运行效率和稳定性等,有利于推动 AI 与边缘计算在工业视觉识别系统的深度融合。 减少冗余数据传输通过边云协同、模型压缩、模型共享和边缘缓存方面实现。边云协同:只将在边缘设备推断有误的数据传输到云端再次训练,以减少数据传输;模型压缩:在不影响准确度的情况下移除冗余数据,以减少数据的传输;模型共享:例如 AI 模型共享,即同一区域内的 AI 模型训练可以受益其他相关 AI 模型,从而减少计算量;边缘缓存:可进一步减少冗余数据传输、缓解云数据中心压力的解决方案,利用地理位置上相近边缘节点缓存相关内容,当缓存内容能够满足请求时,可以直接从缓存中调用,从而实现快速响应,并且能够减少网络中相同内容的重复传输。 轻量级加速体系结构在大模型部署终端侧应用方面至关重要。应用方面,英伟达在 Computex2023 大会上发布最新一代模组 JetsonAGXORIN,算力高达每秒 275 万亿次 TOPS,性能是上一代产品的8 倍,同时发布的工业级模组可以帮助客户在农业、建筑、能源、航空航天、卫星等领域部署边缘 AI 的需求。芯片方面,Fortinet、ARM 分别推出适用于边缘计算的芯片 FortiSP5 和 Hercules、Apollo,FortiSP5 安全芯片防火墙性能大幅提升 17 倍,功耗相比业内高性能通用 CPU 降低 88%,为边缘计算提供安全、高效、低成本的数据处理服务;Hercules 和 Apollo 性能最高提升 480 倍,同时具有低功耗、小体积、高安全性等优点,使终端设备能够更好地集成 AI 能力,实现更广泛的边缘计算应用。

2、混合人工智能处理预将构建“云+端”新生态

云端处理人工智能的成本高昂,致使发展高效“云端处理+边缘设备”混合人工智能处理以落地终端的重要性凸显。混合架构具有不同的卸载选项,以便根据模型和查询复杂性等因素在云和设备之间分配处理。具有超过 10 亿个参数的 AI 模型已经在手机上运行,其性能和准确度水平与云类似,并且具有 100 亿个或更多参数的模型预计在不久的将来在设备上运行。 终端侧大模型主要用于推理,将拓展边缘设备应用。混合 AI 将提振 B 端 AI 产品及服务实力,面向行业开发多场景应用、优化 AI 交互体验感、增强工作自动化程度,从而提升工作效率;混合AI 将优化生成式 AI 的功能性及可用性,推动企业研发以全面化终端 AI 功能,拓展 C 端软件及硬件产品的多样性。混合人工智能方法几乎适用于所有生成式人工智能应用程序和设备领域,包括智能手机、笔记本电脑、汽车、机器人和智能物联网终端(AIoT)等。

(三)终端部署 AI 大模型,打开云到端新空间

1、谷歌发布大模型 PaLM2 实现轻量级移动端落地,并即将发布多模态大语言模型 Gemini

PaLM2 模型表现出色,轻量级 Gecko 版本有望率先落地游戏终端: PaLMAPI 基于 Google 的下一代模型 PaLM2,该模型在多种功能方面表现出色。PaLM2 经过优化,便于关键开发人员在用例中使用,并能够精确、细致地遵循指令;可针对文本和聊天生成以及文本嵌入进行训练。PaLM2 发布的四个版本 Gecko、Otter、Bison 和 Unicorn 可轻松部署到各种用例。 谷歌于五月宣布超过 25 款由 PaLM2 提供支持的新产品和功能,意味着 PaLM2 将 AI 功能直接落地产品及用户群,包括消费者、开发者和各种企业。PaLM2 优化的多语言功能能够扩展 Bard 助手的新语言,还将为编码更新提供动力。应用场景包括在 Gmail 和 GoogleDocs 中编写以及在 GoogleSheets 中进行整理的 Workspace 功能,从而帮助提升工作效率。

其中,轻量级 Gecko 可在移动设备上运行,可在设备上运行交互式应用程序,即使在离线状态下也是如此。多功能性意味着 PaLM2 可以进行微调,以更多方式支持整个类别的产品。 谷歌表示 PaLM2Gecko 可在手机上运行,每秒处理 20 个 tokens,大约相当于 16 至 17 个单词。谷歌暂未披露测试该模型的硬件,但尽管如此,此类语言模型的小型化意义重大。此类系统在云端运行成本高昂,本地使用将会带来更多好处,包括提升隐私性等。 细分方面,Gecko 可能向游戏终端落地,有望即时为移动设备、游戏手持设备和 PC 等游戏生成对话和游戏内路径,而无需参考各地的远程服务器。对比来看,如果游戏使用云端人工智能生成的内容,它需要连接到远程语言模型并等待响应。然而,设备上生成独特内容的无缝集成可能是自 3D 图形以来游戏领域的下一个最大发展,而 PaLM2Gecko 可能是第一个有望实现这一点的语言模型。Gecko 生成的内容质量可能受限;虽然 Android 等设备上离线生成的内容无法与通过数千张显卡解析的内容相比,但 Gecko 将为本地 AI 生成奠定坚实的基础。

Pixel 系列设备及 Android14 搭载生成式 AI,试水终端市场:

谷歌初步在终端设备搭载生成式 AI,试水终端市场:旨在为用户提供日常使用场景下更具效率、智能化及个性化的终端服务,以提升人机交互体验,并兼顾隐私保护及信息安全等问题。伴随AI+应用渗透产品端,有望大幅提振用户对设备智能化的需求,并成为产品研发的重要驱动力。 2023 年 10 月 4 日,谷歌发布新款设备包括智能手机 Pixel8 及 Pixel8Pro 并配备 AI 新功能,全部由GoogleTensorG3 提供支持。另外,谷歌最新发布的 Android14 可安装在 Pixel8 系列设备上,Android14 搭载生成式 AI,用户可以通过使用文本到图像扩散模型在 Pixel 设备上生成新壁纸。

多模态大语言模型 Gemini 将打开终端多用例应用: 谷歌此前宣布将于今年发布其多模态大语言模型 Gemini,Gemini 由 GoogleBrain 和 DeepMind 合并之后研发而成,使用的训练算力比 GPT-4 大 5 倍,多模态能力将大幅提升。谷歌称经过微调和严格的安全测试后,Gemini 可像 PaLM2 一样提供各种尺寸和功能。Gemini 因其模块化特性而脱颖而出,它不是一个单一的人工智能模型,而是各种模型的集合,每个模型都针对不同规模和类型的任务量身定制。这些范围从支持聊天机器人到总结文本、高级代码生成等。 Gemini 将有望从根本上改变生成式 AI 驱动的 Bard 助手及公司其他人工智能项目的核心运作方式。未来,用户可以 Android 和 iOS 移动设备上通过文本、语音或图像与 Bard 互动,以帮助用户采取行动,并构建更具情境化的体验感。Bard 助手可了解上下文并帮助用户解决所需问题,提供一种全新的与手机互动的方式,而 Gemini 驱动将为此新方式提供以有效支持。

另外,谷歌 Gemini 将被接入 Gmail、Google 地图,甚至 YouTube,以获得更智能、更合适的上下文响应。在分析及解释大型数据集(例如图标、表格等)方面,谷歌考虑通过语音命令与 Gemini 进行无缝交互。据 TheInformation 消息,谷歌已开始幕后测试 Gemini 的基本聊天版本,并可能部署数万个顶级 TPUAI 芯片以训练 Gemini。

2、高通发布搭载骁龙 8Gen3 芯片模型 StableDiffusion 及核心插件,可在终端运行

StableDiffusion 各性能全面适应终端部署,全栈优化适应不同模型及终端设备: StableDiffusion 是从 HuggingFace 的 FP32 版本 1-5 开源模型开始,通过量化、编译和硬件加速进行优化;可搭载高通于 2023 年 10 月 25 日最新发布的骁龙 8Gen3 芯片运行,可以在不到一秒的时间内生成一张图像,相比原先大约 15 秒内生成一张图像实现大幅提升。 最新版本骁龙 8Gen3 芯片可支持 StableDiffusion 以 20tokens 每秒速度运行,并能实现设备个性化使用,高通 SensingHub 可以安全地使用用户数据,如最喜欢的活动、健身水平和位置,通过人工智能虚拟化助手生成更个性化的回复。全栈优化可使 StableDiffusion 在智能手机上运行,15 秒内进行20 个推理步骤,生成 512x512 像素图像,实现在智能手机上最快的推理速度,与云延迟相当;用户文本输入完全不受限制。智能手机上运行 StableDiffusion 只是一个开始,全栈研究和优化都将流入高通人工智能堆栈,单一技术路线图能够扩展和利用单个人工智能堆栈,该堆栈不仅适用于不同的终端设备,而且适用于不同的模型。这意味着 StableDiffusion 在手机上高效运行的优化也可以用于其他平台,例如笔记本电脑、XR 耳机以及由高通 Technologies 提供支持的几乎任何其他设备。

StableDiffusionXL 模型已实现手机端文字到图像生成式 AI 软件驱动: StableDiffusionXL 是文本到图像扩散模型,能够在给定任意文本输入的情况下生成照片般逼真的图像。该模型可在几秒钟内创建任意内容的高质量图像,只需输入文本提示并点击“生成”即可;GPU 驱动模型快速处理输入文本并快速输出结果;并可在输入内容不受限的情况下保证隐私性。

StableDiffusion 核心插件 ControlNet 赋能 AI 图像生成: ControlNet 插件本质是神经网络结构,通过添加额外条件来控制扩散模型,改变了 AI 图像生成规则,提升 StableDiffusion 至前所未有的控制水平。ControlNet 解决了空间一致性问题;解决了先前无法有效指示 AI 模型需要保留输入图像的哪些部分的问题,通过引入 ControlNet 可使 StableDiffusion 模型能够使用额外的输入条件来获知具体任务。

3. MaaS 推进终端侧应用,边缘 AI 有望激发终端换机需求

MaaSToC 终端智能化需求待开发,AI 手机成 C 端落地第一场景,引发换机需求: C 端需求仍处起步阶段,终端侧产品研发有望拓展并覆盖更多 AI 智能设备产品品类、持续优化平台性能,并优先在 AI 手机设备落地,进而引发换机需求。终端部署 AI 将提高终端设备易用性,并加强数据隐私及安全,降低开发者开发门槛。AI 终端部署集成 AI 功能,可完成在不同智能设备上的应用,进而提升用户生活品质及工作效率,提振终端设备智能化需求。 今年 7 月,高通发布公告称将和 Meta 合作,2024 年推出“手机版 Llama2”,高通已将 AI 边缘计算定为未来发展方向。大模型需要同时在云端和边缘终端上运行,高通和 Meta 此举预计将推动 AIGC 加速推广到 C 端市场;边缘端算力需求将成为算力侧未来新的增长点。高通和 Meta 正在努力优化Meta 的 Llama2 大型语言模型的执行,而不只依赖于云服务。在智能手机、PC、VR/AR 耳机和汽车等设备上运行 Llama2 等生成人工智能模型,使开发人员能够节省云成本,并为用户提供更私密、可靠和个性化的体验。因此,高通计划提供基于 Llama2 的人工智能设备上实现,以创建新的人工智能应用程序。这将允许客户、合作伙伴和开发人员构建用例,如智能虚拟助理、生产力应用程序、内容创建工具、娱乐等。这些新的设备端人工智能体验将由骁龙 8Gen3 芯片驱动,可以在没有网络连接的区域工作,包括飞行模式。 据 Canalys 预计,2023 年 AIPC 占 PC 总出货量比率大约为 10%。2024 年起 AIPC 将加速普及,预计至 2027 年 AIPC 占 PC 总出货量将达到 60%;AI 产品研发引发换机率上升的背景下,终端 AI 渗透率有望逐年攀升。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至