AI服务器特点、产业链及市场规模分析

AI服务器特点、产业链及市场规模分析

最佳答案 匿名用户编辑于2024/11/01 10:20

AI 时代来临,服务器性能面临挑战。

服务器是一种高性能计算机,作为网络的节点,存储、处理网络上 80%的数据。服务器比普通计算机运行更快、负载更高、价格更贵,具有高速 CPU 运算能力、更高的可靠性、更强的I/O 外部数据吞吐能力以及更好的扩展性。服务器内部结构与普通计算机相差不大,都是由CPU、硬盘、内存、系统、系统总线等部分组成,按应用场景分类可分成存储服务器、云服务器、AI 服务器和边缘服务器。通用型服务器主要以CPU 为算力来源,优化了单线程性能和通用计算任务,而非针对并行处理,主要采用提高核心数来提升算力。随着 AI 技术的发展,数据量呈几何倍增长,需要大量并行处理能力来训练和推理,导致通用型服务器难以满足日益增长的算力需求。

AI 服务器是指专为人工智能应用设计的高性能计算机设备。相较于通用型服务器,AI 服务器有以下特点:1)硬件架构:AI 服务器采用异构计算架构,通过异构形式适应不同应用范围以及提升服务器的数据处理能力,异构方式包括CPU+GPU/TPU/ASIC/FPGA,目前广泛使用的 AI 服务器为CPU+GPU;2)GPU数量:通用型服务器一般采用一个或两个 GPU,AI 服务器需要承担大量的计算,一般配置四块 GPU 以上;3)设计不同:AI 服务器由于有多个GPU,需要针对系统结构、散热、拓扑等做专门设计。以上特点使得 AI 服务器拥有更强的并行处理能力、更快的处理速度和更大的存储空间,能够支持大规模数据处理、模型训练、推理计算等复杂任务。

AI 服务器产业链可分为上、中、下三部分:1)上游为零部件厂商,包括CPU、GPU、存储芯片、固态硬盘、PCB、被动元器件等;2)中游为AI 服务器厂商;3)下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电信运营商等。

Scaling Laws:大模型训练的重要指导法则,规模越大模型效果越优。据OpenAI发布的论文《Scaling laws for neural language models》,模型性能极大依赖训练规模,模型参数、数据集大小以及用于训练的计算量增加可以达到减少模型损失,增加大模型性能的效果。

“涌现”能力:随着训练规模不断增大,大模型将产生质变。据《EmergentAbilities of Large Language Models》,随着模型规模的扩大,语言模型表现出的新的、不可预测的能力。这些新能力在中小模型上线性放大都得不到线性的增长,但在模型规模突破一定阈值时突然出现。“涌现”能力反映了系统行为质的变化,这种变化不能简单地通过观察或分析较小规模模型的性能来预测。

以 AIGC 为代表的人工智能应用、大模型训练等需求兴起,推动全球算力需求快速增长。全球算力需求飙升主要基于以下原因:1)模型能力提升依赖更大的训练数据量和参数量,对应更高的算力需求;2)AI 模型的发展方向转向多模态,训练模型的数据从单一文字数据发展到目前的图片、视频数据,均需要更强的算力处理;3)模型种类多样化(文生图、文生视频)以及新推出的模型数量激增,均推动算力需求的增长,以 AIGC 为代表的 AI 应用用户数量爆发,推理侧算力需求快速增长。

模型参数迅速提升,算力竞争愈演愈烈。近年来新推出的大语言模型所使用的数据量和参数规模呈现指数级增长,GPT3 模型参数约为1750 亿,GPT-4 参数量达1.8 万亿,国内目前公布的大模型参数规模也普遍在百亿至千亿级别,未来的算力竞赛还将持续。

算力需求催化投资,算力厂商率先受益。根据李飞飞团队发布的《人工智能指数报告》估算,OpenAI 的 GPT-4 使用了价值约 7800 万美元的计算资源进行训练,而谷歌的 Gemini Ultra 耗费了 1.9亿美元的计算成本,2024 年3月,微软和OpenAI宣布计划投资 1000 亿美元打造星际之门 AI 超算,全球算力投资迅速提升,算力厂商或将率先受益。

以 AI 服务器为代表的全球智能算力需求激增。算力可分为通用算力、智能算力以及超算算力:1)通用算力:由基于 CPU 的服务器提供算力,主要用于基础通用计算;2)智能算力:由基于 GPU、FPGA、ASIC 等 AI 芯片的加速计算平台提供的算力,主要用于人工智能训练和推理计算;3)超算算力:由超级计算机等高性能计算集群提供算力,主要用于尖端科学领域的计算。早期通用算力占整体算力的比重达 90%以上,随着人工智能技术的发展,智能算力规模迅速增长。IDC 预期,2023年中国智能算力规模达 414.1EFLOPS,至 2027 年将达1117.4EFLOPS。据中国信息通信研究院预期,2030 年全球智能算力规模将达 52.5ZFLOPS。

受益于智能算力市场的推动,全球 AI 服务器市场规模实现快速增长。据TrendForce 数据,预计 2024 年全球 AI 服务器市场规模为1870 亿美金,同比+69%;从服务器占比来看,预计 24 年 AI 服务器占比为 12.2%(出货量维度),同比+3.4个 pct。2023 年 AI 服务器出货量 118 万台,至 2026 年AI 服务器出货量将至237万台,对应 23-26 年 CAGR 为 26.05%。假设单台 AI 服务器价值量为25 万美金,则 26 年 AI 服务器市场规模为 5922.5 亿美金。

政策+需求拉动中国 AI 服务器市场规模增长。在当前数字经济时代背景下,国家出台多个政策支持 AI 产业发展,AI 服务器行业保持快速增长。相关企业加速布局以及人工智能应用场景的逐步落地,算力需求量快速增长,AI 服务器在服务器整体市场中比重提高。中国的企业和研究机构积极进行人工智能服务器的技术研发和创新,包括高性能处理器、大容量内存、高速存储器和高效冷却系统等领域的创新,以满足计算能力和数据处理速度的需求。IDC 预测,未来市场需求量也将会实现大幅度上升,预计 2023 年,中国人工智能服务器市场规模将达91亿美元,同比增长 82.5%,2027 年将达到 134 亿美元,CAGR 为21.8%。从工作负载来看,2023 年训练服务器占比达 58.7%。随着训练模型的完善与成熟,模型和应用产品逐步进入投产模式,处理推理工作负载的人工智能服务器占比将随之攀升,至 2027 年,用于推理的工作负载将达到 72.6%。

参考报告

联想集团研究报告:深入智能化变革,AIPC迎商业化落地元年.pdf

联想集团研究报告:深入智能化变革,AIPC迎商业化落地元年。公司为全球“新IT”技术领导者,以PC业务为基,深入智能化变革。公司成立于1984年,为全球第一大PC制造商。经过多年发展,公司已经成长为全球领先的智能化全栈解决方案与服务提供商,形成了“端-边-云-网-智”的产品布局,下游涵盖制造、教育、医疗等多个领域。推荐逻辑一:PC市场触底回暖,AI新品打开增量。1)PC市场触底回暖:库存调整接近尾声,PC市场回暖。2)24年为AIPC元年:具备完备AIPC核心特征的产品逐步投放市场,显著提升用户价值。3)行业:IDC预测至27年消费市场AIPC销...

查看详情
相关报告
我来回答