英伟达AI芯片布局分析

英伟达AI芯片布局分析

最佳答案 匿名用户编辑于2024/09/20 14:45

英伟达旗舰新品塑造 AI 技术新趋势。

英伟达引领 AI 芯片市场。随着大数据、云计算、物联网等信息技术的迅猛发展,以及计算平台如 泛在感知数据和图形处理器的进步,以深度神经网络为核心的人工智能技术取得了显著进展。作 为全球加速计算领域的领导者,英伟达(NVIDIA)(NVDA.O,未评级)已被视为 AI 行业的风向标。 英伟达的成功与其在GPU芯片领域的专注密不可分。传统芯片公司专注于中央处理器(CPU), 而英伟达的 GPU芯片更擅长图像渲染和并行计算,使其在处理复杂计算需求时更加高效且节能。 尽管其他芯片制造商也开始生产 GPU以参与竞争,然而,英伟达凭借其先发优势,依然保持着行 业的领先地位。

Blackwell 架构使英伟达完成技术跃进。在 2024 年 GTC 大会上,英伟达发布了备受瞩目的 Blackwell 架构。基于这一架构的 GB200 和 NVL72 等新品已完成展示。GB200 超级芯片采用第 二代 Transformer 引擎,集成了 Grace CPU 和两个 Blackwell GPU,通过 NVLink 芯片到芯片 (C2C)接口连接,提供高达 900 GB/s 的双向带宽。新一代 GB200 芯片的推理能力是前代产品 H100 的 7 倍,训练速度则提升至 H100 的 4 倍。在 AI 服务器高集成度趋势下,GB200 芯片凭借 其卓越性能,有望成为未来一段时间内全球 AI 服务器的核心组件之一。

NVL72 服务器成 AI 服务器新形态。作为英伟达的旗舰液冷机架级解决方案,NVL72 服务器具备 130TB/s 的 NVLink 多节点全互联带宽。NVL72 服务器将多个 GB200 驱动的系统整合到一个机架 中,包含 18 个计算节点,每个节点配备 2 块 GB200 主板,共计 72 个 GPU 芯片。GB200 NVL72 引入了第五代 NVLink 技术,单个 NVLink 域最多可连接 576 个 GPU,总带宽超过 1 PB/s,快速 内存容量超过 240 TB。每个 NVLink 交换机托盘提供 144 个 100 GB 的 NVLink 端口,9 台交换机 能够完全连接 72 个 Blackwell GPU 的 18 个 NVLink 端口。

NVL72 服务器已成为高性能、低能耗设备的新标杆。与传统 AI 服务器相比,NVL72 服务器在芯 片密度方面有显著提升。如何实现低能耗和高效散热已成为全球服务器厂商关注的重点。除了服 务器自带的液态冷却配件外,第五代NVLink技术也备受关注,广泛认为它是英伟达实现低能耗解 决方案的关键。NVLink 是一种专为连接 NVIDIA GPU 设计的高速互联技术。由于 GPU 间通信带 宽通常超过数百 GB/s,传统 PCIe 总线的数据传输速率容易成为瓶颈。NVLink 允许 GPU 间进行 点对点通信,取代传统的 PCIe 总线,实现更高的带宽和更低的延迟。

铜连接成为 NVL72 服务器互联基石。GB200 NVL72 服务器的内部网络主要依赖电气信号背板和 铜线组成的 NVLink 网络,而在外部扩展,特别是大规模 GPU 卡片互联时,则需要 2 至 3 层的交 换机网络和光通信方案。新架构将 NVSwitch 系统集成到服务器内部,无需光电信号转换,通过 NVSwitch 机架和电缆盒实现内部连接。电缆盒内含 5000 根 NVLink 铜缆,总长度超过 3219 米 (2 英里)。服务器外部互联则沿用了前代 GH200 的组网架构,采用光模块-I/O 连接器形式,并 进行了升级。外部连接包括从 IB 交换机到计算托盘以及从 IB 交换机到 NVSwitch 交换托盘的两种 形式。由于外部线缆较长,NVL72 服务器选择采用 ACC 电缆设计而非 DAC。

英伟达 GB200 NVL72 服务器的市场需求显著增加。作为创新的 GPU 互联技术,新一代 NVLink 的速度是 PCIe 5.0 的 14 倍,为用户提供了更高效、更强大的计算能力。这一创新使 GB200 NVL72 服务器相较于同等数量的 NVIDIA H100 Tensor Core GPU,不仅能够满足极高的计算需 求,还大幅降低了整体能耗。英伟达在一季度财报会议中透露,基于 Blackwell 架构的 B 系列超 级计算芯片正处于满负荷生产状态。届时,这些基于 Blackwell架构的产品将显著提升数据中心的 运行效率。

英伟达定制芯片开拓中国市场。英伟达宣布,正在与大批企业和地区合作,推动传统数据中心向 价值万亿美元的加速计算领域转型,并使用 Blackwell 技术打造新型 AI 数据中心。由于旗舰级 AI 芯片受到美国出口管制政策的影响,英伟达在 2024 年推出了面向中国市场的 H20 GPU 和 RTX 4090D 显卡。这些新产品旨在满足中国市场日益增长的高性能计算和人工智能应用需求。通过这 一举措,英伟达希望进一步巩固其在全球 AI 和数据中心市场的领先地位。

英伟达加强中国市场布局。据 SemiAnalysis 的预测,英伟达今年将向中国市场交付超过 100 万 颗 NVIDIA H20 加速芯片,这为其在中国市场的业务开辟了新的路径。英伟达正在为中国市场开 发 Blackwell 架构的 AI 芯片 B20,预计该芯片将采用与同系列产品相同的铜连接架构设计。如果 未来客户将需求从 H20 加速卡转向 B20 加速卡,铜互联市场或将迎来显著增量需求。这一变化 将显著推动相关产业的发展。

英伟达调整策略,促进铜市场增长。据 TrendForce 报道,受 CoWoS-L 良率的影响,英伟达决定 取消 B100 系列产品,并推迟 B200 系列订单。同时,英伟达计划在 2025 年推出 B200A 和 GB200A Ultra NVL36 机柜。B200A 性能与 B20 芯片相似,主要面向能耗要求不高的小型企业。 GB200A NVL36 由 36 个 CPU 互连并配备 NVLink。由于 B200A 的成本低于 B200,铜背板在 GB200A NVL36 的总物料清单(BOM)中的比例将上升。这将导致机柜内部互联(包括 NVSwitch 机架和电缆盒)对铜的需求增加,从而为铜互联市场带来更多发展机会。

海外巨头在数据中心引入铜互联技术。铜互联技术不仅是英伟达独有的技术,谷歌、微软和亚马 逊等科技巨头也在数据中心的集成方案中积累了丰富的铜缆使用经验。谷歌的 TPU v4 超级计算 机配备 8 个 TPU v4 芯片和 2 个 CPU。这 64 个芯片通过直接连接的铜缆在 ICI 网络内部进行通 信。当超过 64 个芯片时,通信将转移到光纤领域,但光收发器的成本超过无源铜缆的 10 倍。除 谷歌外,微软和亚马逊也都在各自的数据中心中引入了 DAC 或 AEC 的互联方案。

昇腾系列产品在全球范围内引发广泛关注。尽管英伟达等外国科技公司在国内人工智能市场中占 据主要份额,中国企业在 AI 技术上的快速突破为中国在全球 AI 领域带来了更多话语权。以华为 为代表的中国科技企业已建立坚实的算力基础,并为全球 AI 市场提供了新的技术标准。近年来, 随着华为昇腾系列产品的持续迭代,该系列已成为全球 AI 芯片竞赛的重要力量。在 2024 年世界 半导体大会上,华为首席运营官王陶宣布,昇腾 AI 芯片的训练效率已超越业界标准。

华为 AI 生态加速国内铜连接市场国产替代进程。随着华为芯片、板卡、小站、服务器和集群等关 键产品需求的增长,高速背板连接器和 I/O 连接器等上游企业也受到更多关注。作为华为高速背 板连接器领域的核心合作伙伴,华丰科技表示,公司已具备 56Gbps 高速背板连接器的量产能力, 并完成了对华为 56Gbps 及以下产品的国产替代。随着半导体产业国产替代进程的推进,国内高 速背板连接器行业有望与中国自主 AI 算力芯片共同推动行业快速发展。

参考报告

铜连接行业专题报告:集群算力大势所趋,高速铜互连深度受益.pdf

铜连接行业专题报告:集群算力大势所趋,高速铜互连深度受益。人工智能推动高速铜缆行业需求高增。随着生成式人工智能(AIGC)技术的逐步成熟,基于“大数据+大计算量”模型的新兴应用不断涌现,显著推动了算力需求的持续攀升。根据中国信息通信研究院的数据,预计从2023年起的未来五年内,全球年均算力规模将以超过50%的速度增长。作为计算能力的核心载体,数据中心在算力高需求的驱动下,其相关的服务器领域及上下游产业预计将在未来几年内迅速扩展。基于这一趋势,铜连接方案因其低成本和低功耗的优势,预计将在数据中心短距离连接中的市场份额有所提升,从而推动行业发展。铜互联技术已成为提升数据中心...

查看详情
相关报告
我来回答