计算机行业专题研究:ChatGPT服务器,深度拆解.pdf

  • 上传者:新**
  • 时间:2023/02/27
  • 热度:1199
  • 0人点赞
  • 举报

计算机行业专题研究:ChatGPT服务器,深度拆解。ChatGPT 发布之后,引发了全球范围的关注和讨论,百度、阿里、京东等 国内各大厂商相继宣布 GPT 模型开发计划。从 AI 模型应用场景来看,主要 包括推理和训练两类。从实践场景来看,算力需求场景包括预训练、Finetune 及日常运营。以 GPT-3 模型为例,随着模型朝更大体量的方向演进,一次 训练所需的计算量最高达 3640PFlop/s-day, 单 月 运 营 算 力 7034.7 PFlop/s-day,对应成本约 889 万美元。我们认为,在 Transformer 架构加 持下,GPT 模型得以高效地完成大规模参数计算,随着模型持续迭代、参 数体量不断提升,并行计算需求有望进一步释放。

ChatGPT 需要的服务器:AI 训练型服务器+AI 推理型服务器

我们认为,计算架构的变化是推动服务器技术演进的关键变量。从计算场景 来看,随着计算架构从 PC 到云计算,到边缘计算,再到 AI 训练,服务器 需求也在发生相应变化。复盘主流服务器发展历程来看:1)通用服务器: 以单机性能提升为迭代目标;2)云计算服务器:主要为承载大规模数据处 理需求而生,以 IaaS 模式带来服务器商业模式的变革;3)边缘服务器:主 要解决实时性、带宽成本、安全性等问题;4)AI 服务器:专为人工智能训 练设计,包括训练型和推理型,多采用大规模并行计算以提升效率。

ChatGPT 需要的芯片:CPU+GPU、FPGA、ASIC

从产业需求来看,AI 大模型训练需要大算力支持,智能算力需求释放有望带 动 AI 服务器放量。目前国产 AI 服务器厂商主要包括浪潮信息、华为、新华 三等,21H1 国产 AI 服务器厂商占全球市场份额超 35%。拆解 AI 服务器来 看,主要硬件成本来自算力芯片,且以 GPU 为核心。目前海外主流 AI GPU 芯片包括英伟达 H00、A100、V100 等,受美国出口限制政策影响,目前国 内在先进算力方面主要采购英伟达 A800 或更低端版本作为替代方案。考虑 到部分国产 AI GPU 如华为昇腾在 FP16 浮点计算性能上已经实现对英伟达 A100 的加速追赶,未来随着国产生态打磨,AI GPU 国产替代有望加速。

1页 / 共23
计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第1页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第2页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第3页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第4页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第5页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第6页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第7页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第8页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第9页 计算机行业专题研究:ChatGPT服务器,深度拆解.pdf第10页
  • 格式:pdf
  • 大小:1.9M
  • 页数:23
  • 价格: 8积分
下载 获取积分

免责声明:本文 / 资料由用户个人上传,平台仅提供信息存储服务,如有侵权请联系删除。

留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至