算力市场现状及需求情况如何?

算力市场现状及需求情况如何?

最佳答案 匿名用户编辑于2024/01/05 10:11

生成式 AI 狂飙突进,算力芯片供不应求。

1. 预计 2023 年全球训练/推理侧市场空间 243/110 亿元,算力市场持续 扩容

AI 已成为继移动互联网的下一代科技革命,算力是其产业三要素中的重要一环,到 2030 年 AI 算力有望增长 500 倍至 100ZFLOPS。根据 similarweb 统计数据,2023 年 4 月 OpenAI 的访问量已经达到 17.6 亿次,是谷歌的 2%,百度的 60%,并且还 是在限制用户注册的情况下。OpenAI 仅用了 4 个月的时间就将该网站的全球排名 从 1879 位提升到了第 16 位。搭载了 ChatGPT 的 NewBing 也正在侵蚀搜索霸主谷 歌的市场,根据《纽约时报》,三星电子曾在 4 月考虑将其设备上的默认搜索引擎由 谷歌改为必应。此外,各科技巨头均于 4-5 月密集推出旗下通用/专有大模型,游戏 电商等公司也在积极探索接入大模型提高生产力。种种迹象表明,继移动互联网之 后,AI 驱动的下一代科技革命已势不可挡。AI 时代,大模型想落地,必不可少的产 业三要素包括算力、网络、存储。其中,算力是大模型的关键基础设施。华为预计 到 2030 年,全球数据年新增 1YB;通用算力增长 10 倍到 3.3ZFLOPS,AI 算力增 长 500 倍超过 100ZFLOPS。

训练侧:保守估计全球有 20 个大模型情况下,2023 年训练芯片市场空间 243 亿元。 在训练单个大模型时,模型的参数量变大、训练集大小增长均会导致模型需要更多 的芯片数量进行训练,而训练时间的减小、芯片算力的提升、算力利用率的提升均 可减少芯片的用量。我们以模型参数量 1746 亿的 GPT-3 为参考,根据 OpenAI 的论 文《Language Models are Few-Shot Learners》,训练 3000 亿 tokens 的模型需要 3638PFLOPS-day 的浮点运算量。假设当前大模型需要训练 30 天,使用精度为 FP32 的 A100,单个模型训练需要 1.2 万张 A100,折合人民币 12 亿元。

当前测算偏保守,因为多个关键参数有较大提升空间,比如: 1)算力利用率:在 175B 的模型参数规模下,英伟达的 Megatron 框架利用 tensor parallel 和 pipeline parallel 并行可达到 51.4%的算力利用率,若未来主流模型参数规 模更大,则算力利用率会更高。大模型提升算力利用率的关键在于考虑如何减少对 片外 DRAM 的访问,因此 GPGPU 对片上 SRAM 的容量需求极大。显存增加可以 提升模型的训练效率。2)模型数量:目前国内外科技大厂(Meta、谷歌、微软、华为、百度、阿里、腾讯 等)、垂类厂商(360、科大讯飞、云从、商汤)、学术界(复旦、中科院自动化所、 清华等)均在推出自研大模型,模型数量可能在近几年爆发式增长。

推理侧:以类 GPT 的搜索网站测算,预计 2023 年推理芯片市场空间 110 亿元,实 际应用场景较多弹性极大。推理阶段所需算力与模型参数量、网站的日访问量、每 次访问的问题长度、问题数正相关。模型推理场景十分多样,我们仅以目前主流的 搜索场景作为测算,同样采用 GPT-3,假设网站日活 2 亿人次,每人平均问 6 个问 题,每个问题长度为 50 个单词,得到 2023 年单个网站每日需要使用 6 万张 A30, 6 个模型折合市场空间 110 亿元。弹性在于: 1)现有网站访问受限:2023 年 4 月,openai 访问量 17.6 亿次,折合日访问量 0.6 亿 次。但 openai 目前停止新用户注册,用户问题数也受限,所以实际访问量远不止该 值。根据 InternetLive Stats,谷歌在 2019 年的日搜索量就已经达到 35 亿次,而现在 谷歌在全球搜索引擎市占率 90%以上。所以我们假设的 2 亿日活为折中值。 2)应用场景还在普及期:目前海外 openai 对中国限制访问,国内大模型尚未出现 killer app,而且数据侧还存在监管难题。所以当前大模型还处于应用的 0-1 阶段, 推理芯片潜力尚未释放。但从近期 ChatGPT 上线 ios 端,已能看到边缘侧算力大规 模应用的曙光。 3)市场空间与用户量正相关。

2. 算力采购需求 80%来自科技大厂及政府端

按下游行业看,中国 AI 算力投资有 65%来自互联网,政府占 15%次之。随着数字 经济的兴起,人工智能已经深入渗透到各个行业,特别是在互联网等科技公司中更 为普及,各大互联网公司普遍发展数据中心、云计算以满足日益增长的算力需求。 根据亿欧智库数据,2021 年中国人工智能算力投资金额最大的行业为互联网,占比 65%,政府占 15%,金融、制造、服务业占比都低于 10%。

互联网需求以科技大厂为主:全球AI服务器下游需求78%来自全球8家科技大厂。 全球云计算服务商市场集中度较高。2022 年,北美四大 CSP(微软、谷歌、亚马逊 AWS、Meta)占全球 AI 服务器采购量的 66%,中国科技大厂(字节跳动、腾讯、 百度、阿里巴巴)占 11%。可见 AI 计算的主要需求来自于互联网,此外才是传统的 金融、政务、医疗等领域。

中国已发布 79 个大模型,大模型所在地域性与当地 AI 服务器采购数量强相关。根 据科技部新一代人工智能发展研究中心在 5 月 28 日发布的《中国人工智能大模型 地图研究报告》。中国已发布了 79 个大模型,中国研发的大模型数量排名全球第二, 仅次于美国。从全球已发布的大模型分布来看,中国和美国大幅领先,超过全球总 数的 80%。自然语言处理仍是目前大模型研发最为活跃的重点领域,其次是多模态领域,在计算机视觉和智能语音等领域的大模型还较少。从全国范围内的算力基础 设施分布情况发现,北京、广东、浙江、上海等地的大模型数量最多,同时这 4 个 地方也是近 3 年人工智能服务器采购数量最多的地区,表现出非常明显的强相关性, 为大模型研发应用提供了重要支撑。

政府端:目前全国超 30 城市在积极推动智算中心建设。当下智算中心主要分为企 业自建和公共基础设施,全国 30 城智算中心大多是第二种情况。根据国家工业信 息安全发展研究中心推出的《智能计算中心 2.0 时代展望报告》,目前全国有超过 30 个城市正在建设或提出建设智算中心。智能算力正在取代基础算力成为算力结构最 主要构成。根据《智能计算中心规划建设指南》,智算中心最核心的是 AI 算力。

参考报告

芯片行业专题报告:生成式AI驱动算力芯片腾飞.pdf

芯片行业专题报告:生成式AI驱动算力芯片腾飞。当前AI作为本轮科技主浪潮的产业趋势已随英伟达数据中心需求的飙涨逐步落地,我们保守估计2023年全球训练侧/推理侧算力需求为243亿/110亿元。需求主要来自全球8家互联网科技大厂,其次是政府端。按下游行业看,中国AI算力投资有65%来自互联网,政府占15%次之。互联网需求以科技大厂为主:全球AI服务器下游需求78%来自全球8家科技大厂。政府项目方面,目前全国超30城市在积极推动智算中心建设。根据科技部新一代人工智能发展研究中心在5月28日发布的《中国人工智能大模型地图研究报告》。中国已发布了79个大模型,中国研发的大模型数量排名全球第二,仅次于美...

查看详情
相关报告
我来回答