ASIC概念、优势与市场进展如何?

ASIC概念、优势与市场进展如何?

最佳答案 匿名用户编辑于2025/11/12 16:34

ASIC 较 GPU 等通用算力芯片具备更高的效率。

ASIC 芯片是一种为特定应用或功能定制设计的集成电路芯片。ASIC 是 Application-Specific Integrated Circuit 的缩写,中文翻译为专用集成电路。它是一种是针对用户对特定电子系统的需 求,从根本上定制化设计与制造的专有应用程序芯片。与 CPU、GPU 等通用算力芯片不同, ASIC 的设计目标是高效、低成本地实现特定任务,提供业界领先的效率和性能。其计算能力和计 算效率可根据算法需要进行定制,是固定算法最优化设计的产物。ASIC 芯片模块可广泛应用于 人工智能设备、虚拟货币挖矿设备、耗材打印设备、军事国防设备等智慧终端。

ASIC 为单一任务定制硬件架构的特点与 AI 推理需求高度契合。根据承担任务的不同,AI 芯片主 要可以分为 AI 训练芯片和 AI 推理芯片两类,其中 AI 推理指的是用已训练好的模型处理数据的过 程。例如用训练好的图像识别模型识别照片,或用语音模型转写语音等都是 AI 推理范畴。一旦模 型部署,其算法逻辑与计算流程会长期固定,几乎不需要调整。这种固定性正好匹配 ASIC 为单 一任务定制硬件架构的核心优势,可以直接将推理算法的计算逻辑、数据路径固化到芯片中。相 较于 GPU 中用于训练的动态调度模块、通用内存控制器,ASIC 去掉了所有无关的通用计算单元, 让硬件资源 100%服务于推理计算,因此 ASIC 相较 GPU 等通用算力芯片具备更高的效率和性能。

ASIC 芯片在面积、能耗、集成与价格方面相较 GPU 具备明显优势。CPU、GPU 等传统芯片通 过读取、执行外部程序代码指令而生成结果,而 ASIC 芯片读取原始输入数据信号,并经内部逻 辑电路运算后直接生成输出信号,因此 ASIC 针对特定应用设计的特性有效提高了电源性能和效 率,在面积、能耗、集成与价格方面也具备明显的竞争优势。面积方面,ASIC 芯片在设计时避免 冗余逻辑单元、处理单元、寄存器、存储单元等架构,以纯粹数字逻辑电路形式构建,有利于缩 小芯片面积。由于芯片面积较小,同等规格晶圆可被切割出更多数量芯片,有助于企业降低晶圆 成本。能耗方面,ASIC 芯片单位算力能耗相对 CPU、GPU、FPGA 较低。GPU 每算力平均约消 耗 0.4 瓦电力,ASIC 单位算力平均消耗约 0.2 瓦电力,更能满足新型数据中心对能耗的限制。集 成方面,因采用定制化设计,ASIC 芯片系统、电路、工艺高度一体化,有助于客户获得高性能集 成电路。价格方面, 量产后的 ASIC 芯片价格远低于 CPU、GPU、FPGA 芯片。

算力功耗比是海外 AI 巨头转向自研 ASIC 芯片的重要原因。ASIC 芯片凭借定制化的硬件架构, 可针对特定 AI 任务(如图像识别、自然语言处理)优化算力分配,在大规模量产的情况下能够有 效降低单位成本。例如亚马逊的 Trainium 芯片在推理任务中比英伟达的 H100 GPU 便宜约 30% 至 40%,随着产量的增加,ASIC 的成本优势会更加明显。因此对于数据中心等需要大量部署 AI 芯片的场景,使用 ASIC 芯片能够显著降低硬件采购成本。

谷歌、亚马逊等 AI 巨头正加速自研 ASIC 芯片部署。根据电子工程网报道的供应链调研显示,当 前英伟达在 AI 服务器市场价值占比超过 80%,而 ASIC AI 服务器价值占比仅为 8-11%。但从出 货量角度分析,谷歌、亚马逊等 AI 巨头正加速自研 ASIC 部署。谷歌方面,预计 2025 年 TPU 出 货量可达 150-200 万片,亚马逊 Trainium 2 ASIC 出货量约为 140-150 万片,而英伟达 AI GPU 供应量为 500-600 万片。2025 年谷歌和亚马逊的 AI TPU/ASIC 合计出货量已相当于英伟达 AI GPU 出货量的 40%-60%。向后看,随着 Meta 从 2026 年、微软从 2027 年开始大规模部署自研 ASIC 解决方案,海外 AI 巨头 ASIC 出货总量有望在 2026 年中超越英伟达 GPU 出货量。

Meta 预计于 2025 年底至 2026 年出货百万级 ASIC 芯片。根据电子工程网报道的供应链调研显 示,Meta 已与台积电签订长期产能协议,计划在 2025 年底至 2026 年间分阶段推出多款 MTIA 系 列芯片,其中首款 ASIC 芯片 MTIA T-V1 将在 2025 年第四季度推出,由博通负责设计,搭载复 杂的主板架构(36 层高规格 PCB),并采用液冷与空冷混合散热技术,负责组装的包括 Celestica 和 Quanta 等厂商,预计出货量为 30 万至 40 万片;MTIA T-V1.5 预计于 2026 年中期 推出,其芯片面积或翻倍,计算密度接近英伟达 GB200 系统,同时出货量目标也提升至 50 万至 80 万片;采用更大规模 CoWoS 封装与 170KW 高功率机架设计的 MTIA T-V2 预计于 2027 年发 布,剑指万亿参数模型训练。

B300 一体成型电感使用量或大幅增长。根据田村(中国)预测,英伟达 GB300 NVL72 服务器 预计使用 4800-5000 个一体成型电感。具体来看,英伟达 GB300 NVL72 共包含 72 个节点,每个 节点配备 2 颗 GPU(总共 144 颗 GPU)和 1 颗 CPU(总共 72 颗 CPU)。在内存与存储方面, 系统配备了 20TB 的 HBM3e 和 40TB 的 DDR5,需要配备独立的电源管理芯片。

26 年 AI GPU 与 ASIC 对金属软磁粉芯一体成型电感总需求量或超 4 亿片。我们假设 2026 年英 伟达 GPU 出货量不低于今年的 600 万,并且明年海外 AI 巨头 ASIC 出货量不低于英伟达 GPU 出 货量。根据田村(中国)对 GB300 使用一体成型电感数量的测算,GPU 方面,单卡或使用 32 片 金属软磁粉芯一体成型电感,测算得到2026年英伟达GPU电感总需求量1.92亿片。ASIC方面, 金属软磁粉芯一体成型电感的使用量取决于功能和架构。高性能 ASIC 芯片由于功能及操作复杂, 通常会使用十几到几十片电感来满足这些复杂的高频电路要求。我们假设海外 AI 巨头单个 ASIC 平均使用金属软磁粉芯一体成型电感数量为 30 片,假设 2026 年 ASIC 出货总量为 700 万,测算 得到 ASIC 对电感总需求量为 2.1 亿片。故我们预计 2026 年 GPU+ASIC 对金属软磁粉芯一体成 型电感总需求量或超 4 亿片。

参考报告

AI新材料行业深度分析:AI发展为何离不开金属软磁粉芯.pdf

AI新材料行业深度分析:AI发展为何离不开金属软磁粉芯。随着海外AI巨头转向自研ASIC芯片,省电成了终端用户的核心痛点。随着AI算力发展,以英伟达GB300为代表的AI算力芯片参数及性能达到全新高度的同时,功耗同样大幅增长。由于ASIC(Application-SpecificIntegratedCircuit,专用集成电路)为单一任务定制硬件架构的特点与AI推理需求高度契合,并且相较GPU在面积、能耗、集成与价格等多方面具备明显优势,并且在核心指标算力功耗比方面明显优于GPU,因此海外AI巨头纷纷转向自研ASIC芯片。其中Meta通过与博通合作,最早将于今年第四季度推出其首款AIASIC芯...

查看详情
相关报告
我来回答