2024年计算机行业中期策略报告:AI催化数字基建新周期,把握从云到端机遇

  • 来源:中国银河证券
  • 发布时间:2024/06/26
  • 浏览次数:350
  • 举报
相关深度报告REPORTS

2024年计算机行业中期策略报告:AI催化数字基建新周期,把握从云到端机遇.pdf

2024年计算机行业中期策略报告:AI催化数字基建新周期,把握从云到端机遇。

行情回顾

2024年以来,受多重因素影响,计算机行业跑输沪深300,一方面由于下游需求相对不振,另一方面本轮人工智能技术变革目前仍在高端算力供不应求从而并未真正传导到应用端,此外,市场趋向于高股息板块以及政策力度较大、筹码结构阻力较小的方向,行业整体走势承压。2月计算机指数跌幅触底。2~3月,行业指数小幅反弹;4月年报季过后至今,行业指数继续回调,持续底部区间徘徊。

计算机行业指数过去10年PE(TTM)均值为60.56倍;PS(TTM)均值为3.92倍。截至6月19日,当前计算机行业指数估值处于历史十年均值略偏低位置,指数PE(TTM)值为53.54倍,PS(TTM)值为2.59倍。

全球方面,年初至今,热门科技股及半导体跑赢美股大盘;港股及中概股5~6月上涨趋势明显6月,英伟达受其下一代 GPU新架构 Rubin出货节点超预期的影响,公司股价持续创新高。

全球大模型持续进化,第一轮价格战拉开帷幕

(一)全球主流大模型进化、对比分析

近两年全球大模型经历了高速迭代,已经从技术竞赛阶段逐渐过渡到应用普及阶段,从文本到多模态,从通用到垂直,各家AI公司的主流大模型不断进化。对于供给侧而言,抢占用户、谋求规模效应成为大模型激烈竞争的必经之路。而对于需求侧来说,大模型体验度差异不明显悄况下,性价比是重要考量因素。在这一背景下,在GPT-40的发布会前后,国内外基础大模型厂商第一轮价格战拉开帷幕。

我们以国外 OpenAI、谷歌、高通、meta为代表,国内以百度、阿里、清华、腾讯、月之暗影幻方旗下DeepSeek-V2、百川智能等为代表进行对比分析。

5月13日,OpenA发布大模型新版本--可实时进行音频、视觉和文本推理的GPT-40,Open AI将GPT-4升级为GPT-40。GPT-40仍属于GPT-4系列,是GPT-4的升级款模型,相比GPT-4Turbo,GPT-4o的速度快了两倍,成本降低了50%,API速率限制(用户可发出的请求调用额度)提高了五倍。GPT-40是OpenAI首个原生多模态大模型,是跨文本、视觉和音频端到端训练的新模型,所有输入和输出都由同一个神经网络处理,对标谷歌Gemini。GPT-4o的加速响应和多模态功能使其在实时对话系统、内容创作、处理多媒体内容等应用场景中表现出色。GPT-40的访问速度和处理速度极快,能够更快地回应用户的查询和命令,在需要即时反馈的应用场景中显著提高用户体验;GPT-40支持对音频和视频文件的理解,应用范围拓展至自动字幕生成和多媒体数据分析等领域;在输出质量方面,相较于GPT-4、GPT-40 在解释复杂逻辑、科学原理或进行创造性写作时表现更佳。

谷歌的大模型根据设计理念的不同,可以分为以“LaMDA”为代表的旨在与人类进行多轮自然对话的语言模型和以“Gemini1.5Pro”为代表的专注于任务的模型。LaMDA可广泛应用于使用AI语音助手的场景。LaMDA具有较高的自然语言处理能力,能更好地在对话中表达情感、意图和复杂的语义,产生更加逼真和流畅的对话体验,在智能家居、车载系统、智能办公平台、自然对话机器人领域提升用户体验。Gemini1.5Pro 探索多模态理解和长上下文处理的新前沿,推动AI在复杂信息场景的应用。Gemini模型最初有 Ultra,Pro和 Nano三个版本,后谷歌推出改进版 1.5Pro和 1.5 Flash。Gemini 1.5 Pro具备超长上下文理解和音频处理能力,能够对大量数据进行本机多模态推理,已在个人用户及企业用户如思爱普、TBS、Replit的多维任务数据处理中取得优秀实践成果。谷歌利用 1.5Pro对模型进行“蒸馏”训练,1.5Flash速度更快,在总结摘要、聊天应用、图像和视频字幕生成以及从长文档和表格中提取数据等方面表现出色。

图像生成模型为代表。Stable Diffusion的核心功能高通的大模型以"Stable Diffusion”在于其能够根据简短的描述,创造出内容丰富、符合用户预期的视觉作品,强大的图像生成能力使其在艺术创作领域有着广泛的应用。在艺术创作领域,Stable Diffusion能够根据具体细腻的描述生成图像,辅助追求个性化与细节化的艺术创作;广告设计注重创意与速度,StableDiffusion能够迅速根据创意团队的想法生成广告原型,并通过调整和迭代,快速找到最符合市场和客户需求的设计方案:在游戏开发领域,Stable Diffusion能够快速生成大量的游戏素材,并根据游戏的风格和背景,生成与之相匹配的视觉元素。

Meta的大模型以“LLaMA”为代表,其中Llama3为其最新推出的开源大模型。技术突破使Llama3更为开放有效。相较于2年前的Llama2,Llama3通过分词器显著扩展词汇量,在文本理解、生成和多语言理解方面表现更优,模型引入分组查询注意力技术提高模型的可扩展性,帮助其更有效地处理更长的文本序列,在理解复杂查询、生成创意内容和多语言支持等应用场景展现出强大潜力。

国内方面,5月7日,知名私募巨头幻方量化旗下的AI公司DeepSeek发布全新第二代 MoE 大模型 DeepSeek-V2。性能直逼 GPT-4 Turbo,综合能力位于大模型第一梯队,其API价格降至约GPT-4Turbo百分之一,大模型价格战即将拉开帷幕,利好A应用层快速渗透。DeepSeek-V2是一个参数为2360亿的 MoE 模型,每个 token 仅激活 210 亿参数,支持128K的上下文长度。1)纵向对比:对比去年11月发布的DeepSeek67B性能取得显著提升,训练成本节省了 42.5%,KV缓存减少了93.3%,最大生成吞吐量提高到了5.76倍。2)横向对比:上下文长度对标 GPT-4Turbo(128K);中文综合能力(AlignBench)超越 Llama3,在开源模型中表现最强,与文心4.0等闭源模型在评测中处于同一梯队,仅次于GPT4Turbo;英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过 MoE 开源模型 Mixtral8x22B。此外在知识、数学、推理、代码等方面也有出色的性能。API价格降至约GPT-4Turbo 百分之一,大模型价格战即将拉开帷幕,利好 A应用层快速渗透。目前 DeepSeek-V2API定价为每百万 token输入1元、输出2元(32K 上下文)几乎低于所有市面上主流大模型价格,约为GPT-4Turbo的1/100。

百度的大模型以文心大模型为代表,包括NLP大模型、CV大模型和跨模态大模型。NLP大模型面向NLP任务场景,具备超强语言理解能力和文学创作能力;CV 大模型提供基于视觉技术的强大基础模型和视觉任务定制能力;跨模态大模型基于知识增强的跨模态语义理解技术,支持跨模态检索和图文生成等应用。

文心一言功能全面,ERNIESpeed适合快速响应和处理文本,ERNIE Lite 适用于低算力环境。文心一言 4.0具备理解、生成、逻辑和记忆四大核心能力,在政务、营销、客服等领域具有广泛的应用前景。ERNIESpeed和ERNIELite以轻量级为特点,在资源有限和需要快速响应的应用场景优势突出,前者突出速度,适合作为基座模型进行精调以更好地处理特定场景的问题,在社交、文旅、教育、智能办公等应用场景中表现出色;后者针对低算力环境进行优化,能够在资源受限环境下的情感分析、多任务学习、自然推理等场景中提供高效且准确的推理结果。阿里的大模型以通义千问系列为代表,基于通义千问的八大行业模型带来降本增效和体验升级。自 2023年4月问世以来,通义千问1.0已经进入电力、金融、医疗、法律等众多行业。相较于 1.0,通义千问 2.0新增图片理解和文档解析功能,在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等方面表现优异。基于通义千问2.0,阿里开发了8个垂直领域模型。清华大模型以GLM系列为代表。GLM模型在中文处理方面表现优秀,GLM-4智能体能力突出。GLM-130B第一次将千亿模型量化到int4层次,使得模型的推断算力需求大大减小,且从预训练到评估都可复现且评估代码开源,为行业大语言模型提供重要的基石支撑:ChatGLM千亿模型基于 GLM-130B引入面向对话的用户反馈,ChatGLM-6B 针对中文间答和对话进行优化,能够生成符合人类偏好的回答,可应用于构建智能对话系统;ChatGLM3集成AgentTuning技术,开启全新的模型智能体能力,在工具调用、代码执行、游戏、数据库操作、知识图谱搜索与推理以及操作系统等复杂场景表现出色;GLM-4增强智能体能力,可以实现自主根据用户意图,自动理解、规划复杂指令,自由调用网页浏览器、代码解释器和多模态文生图大模型来完成复杂任务。目前,智谱 AI已经与蒙牛、火山引警、金山、中国电信等产业巨头合作,将GLM-4应用于实际场景。腾讯持续推进混元大模型的能力爬坡和在海量业务场景中的应用。腾讯于2021年发布的千亿规模NLP大模型提供16项智能文本处理能力,2022年发布的万亿中文NLP预训练模型HunYuan-NLP-1T(混元 AI 大模型)首创“层级化”表征,对输入文字、视频做分层后再进行关联性检索,大幅提升检索准确度,已落地于腾讯广告、腾讯搜索等多个核心业务场景。经过一年迭代腾讯混元大模型支持多模态视觉生成,新增的文生图能力已被广泛用于素材创作、商品合成、游戏出图等业务场景。

腾讯持续推进混元大模型的能力爬坡和在海量业务场景中的应用。腾讯于2021年发布的千亿规模NLP大模型提供16项智能文本处理能力,2022年发布的万亿中文NLP预训练模型HunYuan-NLP-1T(混元 AI 大模型)首创“层级化”表征,对输入文字、视频做分层后再进行关联性检索,大幅提升检索准确度,已落地于腾讯广告、腾讯搜索等多个核心业务场景。经过一年迭代腾讯混元大模型支持多模态视觉生成,新增的文生图能力已被广泛用于素材创作、商品合成、游戏出图等业务场景。

月之暗面的主力大模型Kimi凭借约200万汉字的无损上下文能力领跑全球,并解锁专业学术论文的翻译和理解、辅助分析法律问题、一次性整理几十张发票、快速理解API开发文档等新应用场景。2024年3月,该模型在长上下文窗口技术上再次取得突破,无损上下文长度量级达到200万字,应用场景更加广泛:在执法案件评查场景中,通过超长无损上下文能力解析司法部门制定的行政案件评查标准和从立案到结案全流程的相关材料,自动化完成行政处罚案件评查工作:在民生诉求智能报表报告应用场景中,通过导入民生诉求工单数据,对工单总体情况、问题来源、案件类型、事项类型、高发问题、总结与建议等进行智能分析,自动化生成智能报表。

百川智能的大模型可以分为以“Baichuan-NPC”为代表的角色大模型和以“Baichuan 4为代表的基座大模型。Baichuan-NPC在对话能力、角色一致性、扮演吸引力等方面领先,是目前中文领域最强角色模型。Baichuan-NPCLite版本提供高度开放的个性化角色定制能力,具有角色扮演相似度高、表述口语化强,回答高度准确的特点,Turbo版本在此基础上进一步强化对角色扮演相似度、逻辑能力、指令跟随能力的支持,结合“角色创建平台+搜索增强知识库”组成的开发套件,能够在游戏、影视等诸多领域实现零代码、低成本、高效率地构建角色,已为完美世界等游戏公司提供支持。

Baichuan4和“百小应”为市场调研、产业分析带来智能化解决方案。相较于Baichuan 3.Baichuan 4在知识百科、长文本生成、创作等中文任务上明显优于国外主流模型。基于该模型的AI应用产品“百小应”融合 Baichan4行业领先的通用能力与百川智能前沿的搜索技术,具有多步搜索和智能定向搜索等能力,不仅在市场调研、产业分析等应用场景中表现优秀,在搜索结果呈现方面也表现出色。

从综合能力来看,国内大模型平均水平超过国外大模型,但顶尖的仍有差距。SuperCLUE对全球大部分模型进行了综合测评,从24年4月的结果来看,GPT-4-Turbo以 79.13分的绝对优势领跑 SuperCLUE基准测试,位列第二的是国外大模型 Claude3-Opus,74.47分。第一梯队里其余均为国内大模型,依次是 Baichuan3、GLM-4、通义千间 2.1、腾讯 Hunyuan-pro、文心一言 4.0、MoonShot(Kimi),但仍与 GPT-4-Turbo均相差5分以上。第一、二梯队里国产大模型比例大,第二梯队里国外大模型排名依次为 Llama3、GPT3.5、Gemini-Pro,其余均为国产大模型。因此,从综合能力来看,国内大模型平均水平超过国外大模型,但顶尖的仍有差距。

分能力来看,国外领军大模型在代码、计算、逻辑推理等理科方面领先国内较多,而国内领军大模型在文科方面有优势。SuperCLUE测评题目为多轮开放式简答题,包括文科和理科,文科包括知识与百科、长文本、角色扮演、语义理解、生成与创作、传统安全类;理科包括计算、逻辑推理、代码、工具使用。通过对比国外和国内前三名模型的各项平均分,可以看到国内领军大模型在文科方面有优势,而国外领军大模型在理科方面领先国内较多。SuperCLUE认为,长文本、代码、计算、逻辑推理在通用能力中最具挑战性,也最能体现通用大模型的能力层次,越好的大模型在低成熟度的能力上表现越好,这也是国内大模型今年需进一步迭代优化,追赶国外头部大模型的重要能力。

国内大模型,得分最新排名依次是 Baichuan3、GLM-4、通义千问 2.1、腾讯 Hunyuan-pro、文心一言 4.0、MoonShot(Kimi)。通过统计过去10个月国内模型在 SuperCLUE 基准上的前三名,可以发现,每个月前三甲的竞争非常激烈,共有13个大模型取得过前三名。出现频次最高的有文心一言(9次)、GLM系列(5次)、讯飞星火(3次)。

(二)基础大模型第一轮价格战拉开帷幕、利好应用侧加速落地

OpenAI发布GPT-40,第一轮大模型价格战拉开帷幕。北京时间5月14日凌晨OpenAI发布了最新多模态大模型GPT-40,它对语音的理解能力有了质的飞跃,同时还可分析图像、视频,并识别用户情绪,此外GPT-40的API价格是GPT-4Turbo的一半,输入5美元/百万 tokens,输出15美元/百万 tokens。

5月15日,字节跳动在火山引警原动力大会上正式发布豆包大模型,其主力模型在企业市场的定价只有0.0008元/tokens;通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,随后百度、科大讯飞、腾讯纷纷加入降价行列,甚至直接宣布主力模型免费,而此前已有国内大模型公司智谱A、幻方旗下DeepSeek宣布降价。

我们认为,24年是AI应用元年,下半年现象级应用有望持续涌现。一方面,GPT-40的多模态技术将成为AI竞争的新领域,更自然的交互体验将成为A应用的关键;另一方面,大模型圈价格战进入白热化阶段,推理成本的下降将持续推动AI应用加速落地。历史上每一轮信息技术革命浪潮,始终存在一个明显的成本下降与渗透率提升的模式,从PC革命到智能手机革命,再到云计算,上游成本的不断下降为下游市场提供了更广阔的发展空间,使得新技术和产品能够更快地被市场接受,渗透率随之提升。随着技术的不断演进,我们可以预期本轮AI革命将继续遵循这一模式,推动社会进入更加高效和智能化的时代

智能算力需求爆发,AI催化数字基建新周期

(一)大模型驱动智能算力指数增长,供需缺口或将进一步扩大

算力是设备通过处理数据,实现特定结果输出的计算能力。可分为通用算力、智能算力和超算算力三部分,分别提供基础通用计算、人工智能计算和科学工程计算,其实现的核心是 CPU、GPU、FPGA、ASIC等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算,算力数值越大代表综合计算能力越强,常用的计量单位是每秒执行的浮点数运算次数Flops(1EFlopS=10^18Flops)。

大模型、多模态驱动智能算力需求指数级增长。根据OpenAI数据,训练GPT-3175B的模型需要的算力高达 3640PF-days(假如每秒做一千万亿次浮点运算,需要计算 3640天)。当前大模型的参数量级已达到数千亿参数的量级规模。

大模型的 Scaling law 逐渐得到证实。根据 OpenAl论文《Scaling Laws for NeuralLanguage Models》中表明模型的性能主要与计算量C、模型参数N和数据量D三者有关,并呈现幂指数关系,而与模型的具体结构如层数、深度、宽度等基本无关。那么通过增加计算量、模 型参数量或数据大小都可能会提升模型的性能,但是提升的效果会随着这些因素的增加而递减。

海外人工智能大模型数量快速增长。2018年谷歌、OpenAI、英伟达、Meta和微软等大型科技企业纷纷推出自研大模型技术,大模型发布量快速增长。2021年国外大模型发布数量为38个增长率为171%;截至2023年7月底,国外大模型发布数量累计达138个。

中国大模型如雨后春笋般涌现。受到OpenAI发布ChatGPT推动,大模型发展进入新阶段在人工智能浪潮下,国产大模型进入发展快车道,呈现爆发式增长态势,国产应用生态加速落地。仅2023年1-7月,就有共计64个大模型发布。截至2023年7月,中国累计已经有130个大模型问世。

新一轮人工智能技术发展热潮下,国产大模型及垂类模型呈快速增长态势。截至2024年3月,据不完全统计,目前国产大模型数量已经超过200个,其中在国家网信办成功备案的大模型已达117个,覆盖多个行业和领域,大模型应用场景逐渐下沉。

国产大模型训练算力需求测算:基于 Transformer架构模型算力需求为模型参数量xtoken 数量x3x2x训练轮数,训练 GPT-3算力需求约为3.15X10^23FLOPS;由于 GPT-4采用了混合专家(MOE)模型,实际训练调用参数量按约2770亿计算。

保守估计,2024年国产大模型将达到298个,预估通用大模型118个,行业大模型180个行业大模型乐观预期下,其中国内头部厂商如百度、阿里、腾讯、字节、商汤、讯飞、华为等能够训练GPT-4参数量级模型,其他厂商及科研机构大模型参数量级在百亿到千亿之间,平均参数量级在500亿(保守估计),假设token在1万亿水平,那么实际24年国产大模型训练一轮算力需求=298x500x10^8x10^12x6=8.94X10^25FLOPS=8.94X10^7EFLOPS

国产大模型推理算力需求测算:

1)近端:假设24年国产大模型数量维持增长,达到298个。推理侧需求在用户访问峰值情况下进行计算,近期国产大模型如Kimi等爆款访问量激增,根据数据,日访问量峰值在 34.6万那么我们以平均参数500亿模型计算,假设平均日访问量峰值在2万,每个用户占用100token.保守估计国产大模型所需推理算力=298x500x10^8x2x10^4X100x6=1.79x10^20FLOPS。2)远端:假设未来国产大模型数量收敛,预计未来三年国产大模型数量为5个,假设参数量级为万亿参数规模,日均访问量为千万级别,每个客户输入输出上下文长度为百万token(图片、语音、视频为主)。那么我们以平均参数10000亿模型计算,假设平均日访问量峰值在2000万,每个用户占用 1000000 token,保守估计国产大模型所需推理算力=5X10000X10^8x2000X10^4x1000000x6=6x10^26FLOPS。

大模型驱动智能算力雷求指数级增长,智能算力渗透率逐渐提升。智能算力增长迅速,新增算力中智能算力成为增长新引擎,截至2022年底,我国算力总规模达到180EFLOPS,其中通用算力规模137EFLOPS,占比约76.7%,智能算力规模41EFLOPS,占比约 22.8%,智能算力规模较去年同比增加41.4%,超过全球整体智能算力增速(25.7%)。根据IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》,未来5年中国智能算力规模年复合增长率将达到52.3%,通用算力规模年复合增长率为18.5%。预计到2026年中国智能算力将达到145EFLOPS,占比将达到36.7%。随着AI大模型的快速发展,智能算力需求正呈现爆发性增长态势,渗透率将显著提升。我们预测,预计 2025/2030/2035年智能算力规模分别为 107/426/1430EFIopS。

(二)AI催化数字基建新周期,上游 AI芯片核心受益

目前AI芯片中GPU在训练和推理中占绝对优势。AI芯片又称AI加速卡或计算卡,是专门用于处理人工智能应用中大量计算任务的模块,AI芯片是AI服务器的核心部件,在AI服务器中价值量占比接近 70%。目前主流的 AI算力芯片主要包括CPU、GPU、FPGA、ASIC等。其中,GPU是较为成熟的通用型人工智能芯片,FPGA和ASIC则是针对人工智能需求特征的半定制和全定制芯片,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。

英伟达主流GPU架构经历9次革新,最新Blackwel架构为生成式AI奠定基础。英伟达GPU架构经历了从Tesla架构奠定基石,到Fermi架构提升性能,再到Kepler 架构优化能效,Maxwell架构深化节能设计,Pascal架构强化深度学习,Volta架构推动高性能计算,Turing架构引领光线追踪,Ampere架构重塑游戏与创作体验,直至目前Blackwell架构以显著的性能、效率和规模为生成式AI和加速计算带来新突破。

英伟达未来将以每年一款芯片的速度推出产品,2026年将推出新架构Rubin。英伟达创始人黄仁勋表示未来将每年推出一款新产品,2025年,公司将发布BlackwellUltra,2026年将推出新架构Rubin,2027年则会发布Rubin Ultra,表明英伟达在技术上保持领先地位,未来将通过降本增效推动人工智能产业进步,

国产AI芯片仍与世界领先水平存在较大差距,产业政策扶持力度空前。目前,我国加速推进算力布局,与算力有关的多项国家政策发布,与此同时,各地政府也在推进相关规划落地,包括基础电信企业等在内的各方也在积极推进算力网络建设,算力产业发展进入“快车道”。

中国AI服务器市场存量替换需求叠加增量需求,有望迎来量价齐升。AI服务器是AI芯片载体,采用异构形式,可以为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡。根据中商产业研究院数据及我们预测,中国AI服务器市场预计2026市场规模超千亿元,未来三年复合增长率21.65%,预计2026年出货量64.5万台,未来三年复合增长率15.26%。中国AI服务器受益于人工智能等相关新兴领域的应用以及“东数西算”政策下,云计算、超算中心的蓬勃发展,数据计算、存储需求呈几何级增长,算力需求持续释放,AI服务器作为算力基础设备保持较快增速。1)存量来看:服务器平均寿命3-5年更换一次每年根据算力需求使用需求变化产生比较明显的更新需求。2)增量来看:伴随人工智能浪潮以及数字中国建设,未来对智能算力需求将持续爆发增长,且智能算力增长速度远超算力总体增速,中国A服务器市场将迎来爆发增长,占比将逐步提升。2021-2026年我国AI服务器市场规模由亿350亿元增长至1089.4亿元,2021-2026年CAGR 为 20.83%。

(三)北美云服务厂商资本开支指引向好,产业掀起新一轮军备竞赛

海外人工智能巨头资本开支超预期,AI基建需求持续强劲。北美云厂商微软、谷歌、亚马逊以及人工智能巨头Meta在 AI基建上需求依旧表现强劲,买卡需求再度上调:1)微软:202401资本开支 140亿美元,同比增长79.4%,环比增长21.7%,Q2单季度资本开支指引环比提升50%-70%,从财年角度,24财年的资本支出比23财年增加80.8%-89.6%;2)谷歌:2024Q1资本开支120亿美元,同比增长91%,环比增长9%,此后每季度资本开支指引略高于第一季度水平;3)亚马逊:2024Q1资本开支140亿美元,全年指引为每季度都要高于一季度资本开支;4)Meta:上调全年资本开支指引,2024年全年指引资本开支350-400亿美元(前指引300-370亿美元),预计资本支出明年继续增加。海外AI巨头在资本开支方面持续维持高增长,其中大部分将用于基础设施建设,尤其在生成式人工智能领域的投入,核心驱动因素在于对A基建对业务拉动及应用端商业化前瞻预期。

(四)全球 OEM 服务器厂商财务一览

据 TrendForce发布的数据显示,2024年全球服务器整机出货量预计将有大约2.05%的年增长率,同时市场将继续聚焦于AI服务器的部署,预计AI服务器的出货占比约为12.1%。

(五)液冷未来机会明确,数据中心液冷从“可选”向“必选”演变

数据中心 PUE要求愈发严苛。随着云计算、大数据、人工智能、元宇宙等信息技术的快速发展和传统产业数字化的转型,数据呈现几何级增长,算力和硬件部分能耗也在持续增加,而在“双碳”政策的持续推进下,国家、地方政府、企业层面均在积极推动绿色低碳转型和可持续发展,通讯领域对数据中心节能降耗要求越来越严格。液冷未来有望逐渐替代风冷,成为AI服务器、数据中心标配。AI训练及推理应用、超算等高算力业务需求持续推升,由此带来的芯片性能需求、服务器功率需求不断提高。场景侧,英伟达2024GTC大会上推出GB200NVL72采用液冷散热方式,并且黄仁勋表示浸没式液冷技术将是未来方向,将带动整片散热市场迎来全面革新。我们认为,人工智能浪潮下,对算力需求进一步提升,液冷预计将成为最优冷却方案,未来中国液冷服务器市场有望进一步打开竞争格局,产业相关上市公司将受益。目前,中国液冷服务器普及率不足5%,径普及率并不高。受制于:1)数据中心国家PUE标准收紧;2)受制于面积等因素,机柜密度逐渐提升;3)温度过高,芯片故障率升高等客观因素,未来液冷服务器将成为调和快速的算力需求与有限数据中心承载力的共识方案。

作为中国液冷服务器第一的曙光数创,目前浸没式液冷服务器技术领先。1)整机功耗:全浸没方案,无风扇设计,风扇功耗降低为0。2)终极的噪音指标:区别于传统风冷机房,全浸没机房噪音控制在 35dB以下。3)终极的功率密度:高密度配置,轻松实现整机柜功率200kW。4)终极的PUE指标:直接利用高品位完成热量转移,可实现PUE低至1.01-1.02。

2023H1中国液冷服务器市场同比增长近3倍。根据IDC发布的《中国半年度液冷服务器市场(2023上半年)跟踪》报告数据显示,2023上半年中国液冷服务器市场规模达到6.6亿美元,同比增长283.3%,预计2023年全年将达到15.1亿美元。IDC预计,2022-2027年,中国液冷服务器市场年复合增长率将达到54.7%,2027年市场规模将达到89亿美元。

四、数据要素产业政策深化,行业加速发展

(一)国家数据局成立后,政策有的放矢

数据要素相关政策制定的脉络与重要性:2014年,大数据的概念首次被提出,标志着国家开始关注和重视大数据的潜在价值。2015年,国务院印发了《促进大数据发展行动纲要》,这是中国大数据领域的第一个系统性政策文件,旨在推动大数据技术的发展和应用。2019年,十九届四中全会提出数据从资源向要素的转变,这一转变意味着数据被视为一种重要的生产要素,与土地、资本、劳动力等传统要素并列。2020年,数据的重要性进一步得到提升,被正式写入政府工作报告,显示了数据在国家治理和发展中的战略地位。2021年,工信部印发《“十四五”大数据产业发展规划》,这是中国大数据产业发展的五年规划,旨在推动大数据产业的系统化和规模化发展。2022年,国务院印发“数据二十条”,确立了数据要素发展的顶层设计,推动数据要素市场化配置。2023年,国家数据局正式成立,这是中国在数据管理和治理方面的一个重要里程碑。同年,国家数据局发布了《“数据要素x”三年行动计划(2024-2026年)(征求意见稿)》,这表明数据要素的深化应用和发展。2024年,国家数据局印发《数字中国建设2024年工作要点清单》。

整体而言,这些政策的演进反映了政府对数据要素的高度重视,从最初的概念提出到顶层设计再到具体的行动计划和机构设立,中国正逐步构建起一个系统化、市场化的数据管理和大数据应用体系,以促进数字经济的发展和国家治理能力的现代化。

数据要素与数字经济的顶层政策制定机构与相关职能:

涉及到数据要素与数据经济的顶层机构主要有三个:(1)中共中央网络安全和信息化委员会下属办事机构中央网信办;(2)国家发改委下属创新和高技术司;(3)工信部。中央网信办组织研究起草网络安全和信息化发展战略、宏观规划和重大政策,根据职责权限负责相关法规、规章等的起草、实施和监督检查。国家发改委负责统筹推进战略性新兴产业和数字经济发展,衔接平衡信息化发展规划与国家发展规划,组织拟订推进创新创业和高技术产业发展的规划和政策。工信部负责统筹推进工业领域信息化发展,研究拟订信息化和工业化融合发展战略、规划、政策和标准;互联网行业管理(含移动互联网),拟定电信网、互联网及工业控制系统网络与信息安全规划、政策、标准并组织实施,拟订电信网、互联网数据安全管理政策、规范、标准并组织实施等。国家数据局重构数据管理职能。根据《国务院机构改革方案》,国家数据局整合了中央网信办承担的研究拟订数字中国建设方案、协调推动公共服务和社会治理信息化、协调促进智慧城市建设、协调国家重要信息资源开发利用与共享、推动信息资源跨行业跨部门互联互通等5项宏观管理职责,国家发改委承担的统筹推进数字经济发展1项宏观管理职责,组织实施国家大数据战略、推进数据要素基础制度建设、推进数字基础设施布局建设等3项具体管理职责。全新的职能部门有助于更好地制定纲领性文件与统筹全国数据经济与数据要素市场发展。

(二)最新数据要素政策与相关投资机会解读

《“数据要素X”三年行动计划(2024-2026年)》是由国家数据局联合中央网信办、科技部、工业和信息化部等17个部门共同推出的数据要素层面的重要政策。该计划致力于通过数据要素的深度应用,推动经济社会发展,并实现数据产业的快速增长。

主要目标有:到2026年,显著拓展数据要素应用场景,创建超过300个示范性应用场景。数据产业年均增速超过20%,数据交易规模增长1倍。

重点领域涉及:

智能制造:支持企业通过数据驱动提升创新能力和价值链延伸。智慧农业:利用数据提高农业生产效率和供应链透明度。商贸流通:依托数据推进新消费模式和业态发展。交通运输:提升多式联运效能,促进物流降本增效。金融服务:融合多源数据,优化金融服务和风险管理。科技创新:推动科学数据共享,支持产业创新和大模型开发。文化旅游:培育文化创意新产品,提升旅游服务和治理能力。医疗健康:提升就医便捷度,促进医疗数据融合创新。应急管理:提高应急处置效率和安全生产管理能力。气象服务:支持新能源企业降本增效,降低极端气候事件影响。智慧城市:优化城市管理推动公共服务普惠化。绿色低碳:提升能源利用效率和废弃资源利用效率,加强碳足迹管理其主要保障措施为提升数据供给水平,完善数据资源体系。优化数据流通环境,提高交易流通效率。加强数据安全保障,落实数据安全法规制度。主要的组织实施是加强组织领导,协调推进跨部门协作。开展试点示范,探索数据流通交易模式。推动以赛促用,组织“数据要素x”大赛。加强资金支持,鼓励金融机构信贷支持。加强宣传推广,提升影响力。

该计划强调需求牵引、试点先行、市场与政府协同、安全有序开放融合的原则,旨在通过数据要素的高水平应用,促进经济社会的全面转型和高质量发展。总体而言,《“数据要素X”三年行动计划(2024-2026年)》是一个全面的政策框架,目的在于通过数据要素的放大作用,推动中国数字经济的高质量发展,并在资源配置、实体经济赋能、新质生产力发展等方面实现深刻的变革。

五、积极拥抱 AI 从“云”走向“端”的大机遇

(一)AI芯片再升级,各厂商角逐战如火如荼

AI芯片兼备CPU、GPU及NPU,三者结合可实现在端侧上处理人工智能(AI)和机器学习(ML)任务,擅长低功耗AI计算,以完成AI的本地部署。AI大趋势的推动下,全球终端市场正在经历逐步复苏。海外巨头纷纷选代其AI芯片,产业链上游竞争加剧。Meta MTIA v2采用台积电5nm制程,相对MTIA vl的7nm 制程有所升级。与 MTIA VI相比,整体性能提高了3倍,原因在于新一代MTIA 采用更大的物理尺寸设计,比其上一带芯片拥有更多的处理内核。虽然它消耗更多的功率(90W对25W),但它也拥有更多的内部存储器(128M64MB),并以更高的平均时钟速度运行(从800MHZ上升到1.35GHz)。与其上一代芯片 MTIA V1相比,新发布的芯片显著提高了性能,该芯片从架构上追求计算、内存带宽和内存容量的适当平衡目的是在 Facebook这类社交媒体上用于广告排名和推荐广告。Meta的下一代大规模基础设施正在以人工智能为中心构建,包括支持生成式人工智能的产品和服务、先进的人工智能研究。Meta 预计随着支持 AI模型的算力需求随着模型的复杂性而增加,这项投资将在未来几年增长。新一代 AI芯片对 Meta 具重要性:1)解决在 Facebook、Instagram和WhatsApp中运行 AI产品算力膨胀的问题;2)帮助Meta减少对英伟达的依赖,并降低其整体成本。

英特尔Gaudi3采用台积电N5工艺技术制造,缩小了英特尔和英伟达在半导体制造技术方面的差距。与英伟达H100芯片相比,英特尔Gaudi3在具有7B和13B参数的Llama2模型以及 GPT-3175B参数模型中的训练时间快50%。此外,在Llama7B和70B参数模型以及 Falcon180B参数模型中,英特尔 Gaudi 3加速器的推理吞吐量比H100平均高出50%,推理能效平均高出40%。英特尔 Gaudi3将于2024年第二季度提供给原始设备制造商,包括戴尔科技、惠普企业、联想和超微,此外,英特尔准备了两款经过大幅“阉割”的 Gaudi 3产品,以满足美国对中国的出口管制规则。一款是 Gaudi3 HL-328 OAM,另一款是 Gaudi3HL-388 PCIe。英特尔未公布这两款芯片的性能水平,但两者都具有450W的热设计功率(低于非中国版版本的900W和600W),这表明性能从根本上降低。面向中国的Gaudi3系列具有128GB的HBM2E内存(使用带有1024位接口的八个堆栈)和3.7TB/s的带宽。中国特定的Gaudi3的横向扩展能力与其他Gaudi3芯片相似。

苹果M4采用第二代3纳米制程工艺,集成了总计280亿只晶体管。预计至少有三个主要芯片型号:低端型号代号为Donan、中端型号代号为Brava、高端型号代号为Hidra。该芯片采用SoC架构,配备10核中央处理器,其中包含4个性能核心和6个能效核心。M4芯片内置全新NPU(神经引擎),拥有16核神经网络引警,支持每秒38万亿次AI计算处理能力。该芯片的内存带宽为120GB/S,并配备16GB内存。图形处理方面,M4芯片搭载10核图形处理器,支持硬件加速光线追踪技术。苹果尚未公布M4芯片的单独售价,配备M4芯片的最新iPadPro(2024年版)1TB或2TB存储的型号起价约为1099美元到1299美元,价格反映了整个设备的成本,包括M4芯片、显示屏、存储等组件。目前使用M4芯片的产品仅有iPad Pro(2024版),因此根据iPad Pro的出货量估算 M4芯片的出货量为450万到500万。iPad Pro相比前代iPad Pro涨价 200美元,需求量可能有所下降。公司预计于今年年底和明年初发布新款电脑,其中包括iMac,14英寸 MacBookPro,14英寸和16英寸MacBook Pro 以及Mac mini.

日前,微软宣布接入 Copilot AI助手的 Copilot Plus PC由高通 Snapdragon XElite 驱动,部分版本的 Surface Pro 10和 Laptop6配备了英特尔酷睿 Ultra芯片;新发布的 Snapdragon XPlus芯片(适用于低价设备)。高通SnapdragonXElite芯片(最高级版本:X1E-00-1DE)采用4纳米工艺节点。该芯片采用高通Oryon中央处理器,拥有12个核心,采用64位架构,处理速度最高可达3.8GHz,并在单核和双核加速模式下可达4.2GHz,其显卡为高通Adreno,支持 DirectX12,提供高达4.6 TFLOPS的计算能力。芯片的神经处理单元(NPU)高通Hexagon,每秒可执行45万亿次操作。内存类型为LPDDR5X,位宽16位,传输速率为8448MT/s,带宽达135GB/s,最大支持 64 GB容量。搭载 SnapdragonXElite芯片的小型PC,售价为899美元,高通 SnapdragonX Elite 芯片价格尚未公。搭载SnapdragonXElite 芯片的电脑将在 2024年中上市,微软、三星、联想、华硕、戴尔、惠普、宏碁等品牌已经确认会推出搭载 Snapdragon XElite芯片的设备。

(二)通用大模型趋于收敛,端侧部署预计加速

本轮AI革命仍处在产业渗透率初期阶段,头部大厂的通用大模型的训练需求旺盛,下游应用的推理算力需求尚受供应限制中。我们预计通用大模型将趋于收敛,并正逐渐转向端侧。此前,高通发布搭载骁龙8Gen3芯片模型StableDiffusion及核心插件,可在终端运行。StableDiffusion 各性能全面适应终端部署,全栈优化适应不同模型及终端设备:StableDiffusion 是从HuggingFace的 FP32版本 1-5开源模型开始,通过量化、编译和硬件加速进行优化;Stability AI宣布将于今年6月发布Stable Diffusion3。

5月13日,OpenAI正式发布其大模型新版本GPT-40(o代表omni,意为全能);并推出适用于macOS的ChatGPT桌面应用程序,预计年内发布Windows版本。1)多模态端到端实时推理,无需转换,响应延迟大幅缩短:前代GPT-3.5和GPT-4对话模式可拆解为三步:音频转录为文本、模型接收文本并输出文本、文本转换回音频,意味着GPT-4丢失了大量信息-无法直接观察音调、多个说话者或背景噪音,亦无法输出笑声、歌唱或表达情感,GPT-3.5和GPT-4的平均响应延迟分别为2800ms和5400ms。而GPT-40将所有输入和输出由同一神经网络处理,可实现跨文本、视觉和音频端到端实时推理,模型响应延迟缩短至 232ms,平均响应延迟为 320ms,接近人类日常对话的反应时间;多模态交互能力优越,能够接受文本、音频和图像的“混合”输入,快速响应完成推理。2)价格减半,模型能效翻倍提升:与GPT-4Turbo相比,GPT-40API在推理速率提升2倍、单位时间调用次数提升5倍的同时,价格减半。3)免注册免费开放使用,功能多元化:用户无需注册即可免费使用全部功能,包括:体验GPT-4级别的智能;由模型或网络抓取生成答案;分析数据并创建图表;解析所上传的照片;帮助总结、生成或分析所上传的文件;使用GPTS及GPT商店;使用模型的“Memory”(记忆)功能。但免费用户在消息数量上存在限制,超过限制后将被切换回GPT-3.5。4)情感交互及语言能力再升级:GPT-40展现出对人类交流习惯的高度理解力和适应性,可准确识别和响应人类情绪,并提供更具情感、个性化的回应。另外,GPT-4o在50多种语言(可覆盖约全球97%的人口)中的处理速度及质量提升,实时翻译功能可助力不同语言使用者交流。

(三)端侧应用孵化中,下游需求有望复苏

AI芯片迭代加速利好算力成本,大模型接入端侧设备提升AI多模态能力,AI推理将在手机、PC、汽车、XR、智能家居等新型终端上运行,提振B端AI产品及服务实力,面向行业开发多场景应用、优化AI交互体验感、增强工作自动化程度,从而提升工作效率;端侧AI将优化生成式AI的功能性及可用性,推动企业研发以全面化终端AI功能,拓展C端软件及硬件产品的多样性。目前,端侧应用处孵化阶段,下游需求有望复苏。

AI手机

终端智能化需求待开发,AI手机成C端落地第一场景,引发换机需求。C端需求仍处初级阶段,终端侧产品研发有望拓展并覆盖更多AI智能设备产品品类、持续优化平台性能,并优先在AI手机设备落地,进而引发换机需求。终端部署AI将提高终端设备易用性,并加强数据隐私及安全,降低开发者开发门槛。AI终端部署集成AI功能,可完成在不同智能设备上的应用,进而提升用户生活品质及工作效率,提振终端设备智能化需求。

三星GalaxyS24及S24+系列接入GalaxyAI,搭载高通骁龙8Gen3处理器,已落地多模态AI功能。功能可实现:1)在Google搜索中滚动或观看视频时,使用SPen或手指圈出项目并获取直接Google搜索结果;2)通话或发送短信时使用实时翻译功能;3)输入文字时获取实时语气建议使文本更专业、更具对话性:4)优化笔记格式,使清晰、更易于查看:5)拍摄照片时通过光学变焦获得2倍、3倍、5倍或10倍特写镜头,以实现稳定拍摄,减少糊。

AI PC

据IDC估算结果,在经历了两年的下滑之后,全球传统PC市场在2024年第一季度(1Q24)恢复增长,出货量为5980万台,同比增长1.5%。PC市场于2023年第一季度下滑28.7%,是PC历史上的最低点。此外,全球PC出货量已恢复至疫情前的水平,2024年第一季度的出货量与2019年第一季度的出货量持平,当时出货量为6050万台。AI有望持续助力PC市场复苏。

AI汽车

MeticulousMarket预测,到2027年,AI汽车复合年增长率将接近40%,至159亿美元。全球对联网汽车和语音和图像识别等智能技术的需求将持续增长,该行业将继续在汽车的设计、生产和使用中依赖人工智能和自动化。

汽车市场中的人工智能分为硬件、软件和服务,服务预计在2027年成为份额增长的主要部分。就市场份额而言,2019年软件主导了汽车AI,主要归因于学习分析的使用增多,车载助手的接受度增高,以及汽车行业对自动驾驶平台的需求增加;技术层面,对信号诊断、图像识别、语音识别、数据挖掘的需求以及汽车行业生成的非结构化数据的增加。然而,服务预计将在预测期内以最快的复合年增长率增长,计算机视觉在半自动驾驶汽车中的应用范围扩大,以解决分心/昏昏欲睡的驾驶问题以及激光雷达传感器和摄像头的使用激增以避免车辆碰撞,并将在2027年成为市场份额的主要部分。主要由自动驾驶汽车、无线(OTA)软件服务、交通和地图服务、共享移动服务、远程维护服务、技术支持和培训服务、维护和支持服务、集成服务、性能测量服务和咨询服务的需求激增推动。近年系AI及机器学习得发展,对道路标志检测和行人保护系统等高级驾驶辅助系统(ADAS)的需求不断增长,图像识别过程预计将在预测期内以最快的复合年增长率增长。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至