AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf

  • 上传者:红四方
  • 时间:2023/03/27
  • 浏览次数:1110
  • 下载次数:85
  • 0人点赞
  • 举报

AIGC行业专题报告:国产AI芯片的百倍算力需求。AI 芯片是大模型的基础。AI 芯片主要分为训练和推理两类芯片,云和端对训练和推理芯片要求不同,目前主流架构包括 GPU、FPGA 和 ASIC 三类,通用性 GPU>FPGA>ASIC,性能功耗比 GPU<FPGA<ASIC。

四大 AI 芯片技术路线,均围绕打破英伟达 CUDA 生态垄断展开。英伟达凭借 CUDA、cuDNN 和 TensorRT 等软件工具链以及和 Tensorflow 的深度绑定构筑了极高的生态壁垒,2021 年GPU 市占率超 80%,高性能 AI 芯片 A100、H100 被禁止向中国出口后,快速推出 800 系列合法出口中国;寒武纪复制英伟达成长之路。

GPT-4 参数量高达 100 万亿,是 GPT-3 的 500 倍以上!即使考虑到 AI 芯片能力的提升(从当前主流的 A100 升级至 H100),仍然需要巨量的额外增量投资。

AI 芯片+AI 服务器,受益于 AIGC+类 GPT 等应用的“鲶鱼效应”。原有英伟达等供给有限,所以国产 AI 芯片有理论上的爆发弹性,AI 服务器有成长空间。由于 AIGC、类 GPT有“鲶鱼效应”,带来约百倍算力需求 。而英伟达等供给解决需求有瓶颈(根据 IDC 咨询,预测 2025 年 AI 服务器市场空间仅仅 318 亿美元,21-25 年预计 CAGR 仅仅 19.5%),因此国产 AI 芯片在逻辑上有爆发弹性,此外 AI 服务器也有成长空间。

寒武纪思元 590 将是最早实现商业应用的接近英伟达 A100 性能的国产 AI 训练芯片。
前华为昇腾 910 性能超越英伟达 V100,但未达到 A100 水平,壁仞科 技 7nm 通 用 GPU
芯片 BR100 称其可与被禁售的英伟达 H100 一较高下,但尚未量产上市。寒武纪思源 590
芯片面积 800mm^2, 和 A100 一样。内存带宽 2.7T, 是 A100 1.8T 的 1.5 倍。 HBM2
使用海力士,功耗达 350W-550W,FP32 算力到 80TFLops,目前已经客户送样测试阶
段,在高性能国产 AI 芯片中进程最快,最有机会承接国内 AI 算法商对英伟达 A100、H100
的需求。

1页 / 共23
AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第1页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第2页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第3页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第4页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第5页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第6页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第7页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第8页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第9页 AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf第10页
  • 格式:pdf
  • 大小:1.7M
  • 页数:23
  • 价格: 2积分
下载 兑换积分
留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至