海内外算力产业进展及市场空间如何?

海内外算力产业进展及市场空间如何?

最佳答案 匿名用户编辑于2024/04/28 14:10

算力需求市场空间巨大。

1. 海外:模型、应用和算力相互推进

2 月 16 日,OpenAI 发布了首个文生视频模型 Sora。Sora 可以直接输出长达 60 秒 的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。 3 月 4 日,Anthropic 发布了新一代 AI 大模型系列——Claude 3。该系列包含三 个模型,按能力由弱到强排列分别是 Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。 其中,能力最强的 Opus 在多项基准测试中得分都超过了 GPT-4 和 Gemini 1.0 Ultra, 在数学、编程、多语言理解、视觉等多个维度树立了新的行业基准。Claude 首次带来了 对多模态能力的支持(Opus 版本的 MMMU 得分为 59.4%,超过 GPT-4V,与 Gemini 1.0 Ultra 持平)。

3 月 18 日,马斯克开源大模型 Grok-1。马斯克旗下 AI 初创公司 xAI 宣布,其研发 的大模型 Grok-1 正式对外开源开放,用户可直接通过磁链下载基本模型权重和网络架 构信息。xAI 表示,Grok-1 是一个由 xAI 2023 年 10 月使用基于 JAX 和 Rust 的自定义 训练堆栈、从头开始训练的 3140 亿参数的混合专家(MOE)模型,远超 OpenAI 的 GPT 模型。 在 CEO 奥尔特曼的带领下,OpenAI 或许有望在今年夏季推出 GPT-5。 3 月 23 日,媒体援引知情人士透露,OpenAI 计划下周在美国洛杉矶与好莱坞的影 视公司和媒体高管会面。OpenAI 希望与好莱坞合作,并鼓励电影制作人将 OpenAI 最新 AI 视频生成工具 Sora 应用到电影制作中,从而拓展 OpenAI 在娱乐行业的影响力。

3 月 19 日,英伟达 GTC 大会上,英伟达发布新的 B200 GPU,以及将两个 B200 与单个 Grace CPU 相结合的 GB200。 全新 B200 GPU 拥有 2080 亿个晶体管,采用台积电 4NP 工艺节点,提供高达 20 petaflops FP4 的算力。与 H100 相比,B200 的晶体管数量是其(800 亿)2 倍多。而单 个 H100 最多提供 4 petaflops 算力,直接实现了 5 倍性能提升。 而 GB200 是将 2 个 Blackwell GPU 和 1 个 Grace CPU 结合在一起,能够为 LLM 推理工作负载提供 30 倍性能,同时还可以大大提高效率。

计算能力不断提升。过去,训练一个 1.8 万亿参数的模型,需要 8000 个 Hopper GPU 和 15MW 的电力。如今,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4MW。 在 GPT-3(1750 亿参数)大模型基准测试中,GB200 的性能是 H100 的 7 倍,训练速度 是 H100 的 4 倍。

2. 国内模型逐步追赶,提升算力需求

Kimi 逐渐走红。月之暗面 Kimi 智能助手 2023 年 10 月初次亮相时,凭借约 20 万 汉字的无损上下文能力,帮助用户解锁了专业学术论文的翻译和理解、辅助分析法律问 题、一次性整理几十张发票、快速理解 API 开发文档等,获得了良好的用户口碑和用户 量的快速增长。 2024 年 3 月 18 日,Kimi 智能助手在长上下文窗口技术上再次取得突破,无损上 下文长度提升了一个数量级到 200 万字。 过去要 10000 小时才能成为专家的领域,现在只需要 10 分钟,Kimi 就能接近任 何一个新领域的初级专家水平。用户可以跟 Kimi 探讨这个领域的问题,让 Kimi 帮助 自己练习专业技能,或者启发新的想法。有了支持 200 万字无损上下文的 Kimi,快速 学习任何一个新领域都会变得更加轻松。

访问量提升,kimi 算力告急。3 月 21 日下午,大模型应用 Kimi 的 APP 和小程序 均显示无法正常使用,其母公司月之暗面针对网站异常情况发布说明:从 3 月 20 日 9 点 30 分开始,观测到 Kimi 的系统流量持续异常增高,流量增加的趋势远超对资源的预 期规划。这导致了从 20 日 10 点开始,有较多的 SaaS 客户持续的体验到 429:engine is overloaded 的异常问题,并对此表示深表抱歉。 2024 年 3 月 23 日,阶跃星辰发布 Step 系列通用大模型。产品包括 Step-1 千亿参 数语言大模型、Step-1V 千亿参数多模态大模型,以及 Step-2 万亿参数 MoE 语言大模 型的预览版,提供 API 接口给部分合作伙伴试用。 相比于 GPT-3.5 是一个千亿参数模型,GPT-4 是拥有万亿规模参数,国内大模型厂 商如果想追赶,需要各个维度要求都上一个台阶。 阶跃星辰发布了万亿参数大模型预览版,标志着国产 AI 大模型取得了巨大进步。 国产 AI 大模型正在不断迭代,对算力需求会不断提升。

3. 国内 AI 算力市场空间

IDC 报告预计,2023 年中国人工智能服务器市场规模将达 91 亿美元,同比增长 82.5%,2027 年将达到 134 亿美元,2022-2027 年年复合增长率达 21.8%。

算力需求市场空间巨大。在英伟达 GTC 大会上,黄仁勋讲到,如果要训练一个 1.8 万亿参数量的 GPT 模型,需要 8000 张 Hopper GPU,消耗 15 兆瓦的电力,连续跑上 90 天。如果中国有十家大模型公司,则需要 8 万张 H100 GPU。我们预计,推理算力需求 将是训练的数倍,高达几十万张 H100。随着模型继续迭代,算力需求只会越来越大。 随着国产化率逐步提升,我们预计 AI 芯片逐步成为国内芯片的主要组成。

参考报告

计算机行业分析报告:国产AI算力行业报告,浪潮汹涌,势不可挡.pdf

计算机行业分析报告:国产AI算力行业报告,浪潮汹涌,势不可挡。海外应用、算力和模型相互演进,AI浪潮滚滚而来:2024年2-3月,OpenAI发布Sora,Anthropic发布了新一代AI大模型系列——Claude3,马斯克开源大模型Grok-1,英伟达在GTC大会上推出新一代GPUGB200,全球AI产业发展速度逐步加快。国内模型、应用不断突破,算力需求逐步放大:2024年3月18日,Kimi上下文长度提升到200万字,访问量大幅提升,算力告急。3月23日,阶跃星辰发布了万亿参数大模型预览版,标志着国产AI大模型取得了巨大进步。国产AI大模型正在不断迭代,对算力需求...

查看详情
相关报告
我来回答