亚马逊云业务及芯片进展如何?

亚马逊云业务及芯片进展如何?

最佳答案 匿名用户编辑于2024/06/14 13:38

AWS 构筑技术壁垒,竞逐 AI 新浪潮。

1.云计算行业近年竞争加剧,AWS 构建用户规模壁垒

亚马逊云业务 2023 年收入达到 907.6 亿,其云计算服务存在较高的技术壁垒。AWS 深耕 云计算领域多年,产品以提供基础设施为主,覆盖 IaaS、PaaS 和 SaaS 和 20 多个细分行 业的客户,有较高的技术门槛和规模经济壁垒,产品长期性价比突出、生态资源和应用场 景丰富。在 AI 推动行业需求和资本开支的背景下,AWS 未来 15 年计划投资 1480 亿美元, 在全球建设数据中心,以满足人工智能等领域对云服务的需求。 近年行业竞争加剧,4Q23 全球 IaaS 和 PaaS 市场份额依次排序为:AWS 31%、微软 Azure 24%、谷歌云 11%(SRG 数据)。AWS 早期通过大量资本支出建设 IaaS 数据中心,并多 元化布局 PaaS 平台与 SaaS 软件业务,从而获得先发优势和市场龙头地位。然而 18 年以 来,在云计算和 AI 大数据深度融合的产业背景下,全球云业务竞争格局加剧,微软和谷歌 近年来增速更快,但亚马逊仍具备较好的客户粘性和先发优势。

展望 24-26 年,我们预期亚马逊云业务营收增速达到 16%、19%、18%,主要驱动力来自 AI 应用和 LLM 的需求增加。根据 Gartner 预测和 SRG 数据,24 年全球云计算市场预计同 比增长 20.4%至 6788 亿美元,较 23 年 19%增速有所反弹,主系客户预算开始恢复以及 AI 市场需求增长。我们认为 AWS 有望依靠广泛模型生态、AI+消费电子等新应用形式,保 持未来稳健增长。AWS 不仅自研大语言模型 Titan,亦为 B 端用户提供 Bedrock 丰富的模 型库,C 端搭载 Alexa 语音助手的智能音响受众也较多。 未来加大基建投资,布局更多 AI 产品和自研芯片,亚马逊 24 年计划推出 3 项新实例(含 最新 Tranium 2 芯片),同时布局训练+推理产品系列,更好满足客户在大模型和 AI 应用端 的算力需求。在自研芯片方面,亚马逊未来将加大投入,应用到为公司自有实例。自研芯 片能够改善硬件供应端的限制,以及成本竞争力等关键问题。

云产品服务应用广泛,涵盖整个云服务框架

亚马逊 AWS 云产品服务涵盖了 IaaS、PaaS 和 SaaS 三大类型,其中 IaaS 和 PaaS 市场 份额较高(4Q23 为 31%)。公司目前覆盖 20 余个细分行业,产品包括存储、数据计算、 机器学习、虚拟机、边缘计算、物联网、AI 等领域。

AWS 先发优势明显,龙头地位依然稳坐

06-09 年的探索期间:AWS 首次发布云产品 EC2 与 S3,叠加金融危机影响,公司布局云 业务较为保守,并执行低价策略抢占 IaaS 市场。10-15 年为高速发展期,美国政府和三大 云供应商加速合作。在此期间,亚马逊电商服务迁移至 AWS,研发费率也随之从 10 年 5.3% 持续攀升至 15 年 12%。16 年至今的竞争加剧期:谷歌与微软凭借多年“云上追逐”有蚕 食其份额态势,但亚马逊云业务市场份额仍位居第一。由于价格战持续升温,AWS 营收及 利润增速放缓,但近 6 年营业利润率仍稳定在 25%以上,远高于亚马逊整体水平。

AI 引领云巨头开启下一轮资本开支浪潮

AI 军备竞赛带动行业需求,推动下一轮资本开支上涨。 展望 24-26 年,我们预期全球云计算的资本支出将保持“温和增长”态势,主系 1)海外经 济恢复增长,企业客户云迁移工作需求增加,2)AI 赋能云计算发展推动行业革新,3)未 来大模型训练和推理均需要更多算力供给。 23 年 3 月,GPT-4 的推出引发行业加码投资 AI,并驱动云巨头开始下一轮军备竞赛。如今 AI 应用改变云计算商业模式,头部云厂商增加对生成式 AI 的投资,资本开支从传统服务器 逐步转移至 AI 设备中。2023 年亚马逊、微软与谷歌资本开支分别为 134 亿、115 亿、110 亿美元。以 AWS 为例,公司 23 年进行 AI 算力扩容,推出部署英伟达 GH200 芯片的云基 础服务,同时投入自研 AI 芯片以解决供给短缺问题。亚马逊也推出 AI 图像生成模型 Titan 和 AI 聊天助手。

23 年宏观经济回暖,云巨头恢复资本开支节奏 。22 年至 23 年初经济增速放缓,企业数字化转型和 IT 开支趋于谨慎,亚马逊、微软、谷歌 的总资本开支连续五个季度放缓。2Q23 后三家厂商资本开支稳步上涨,主系经济走出疲软 期,在 AI 提振云计算需求的背景下,企业开始扩大合同协议,并加速云迁移项目。根据 SRG 数据,23 年全球云基础设施市场支出同比+19%,其中 4Q 总支出约 740 亿美元,同比上 涨 20%,为全年中最高增速的季度。

AWS 持续投入数据中心,构建基建规模壁垒

从资本开支看,AWS 计划 24 年扩张数据中心,未来 15 年或投资 1480 亿美元,在全球各 地建设数据中心,满足人工智能等领域对云服务的需求。为应对谷歌和微软云业务的高速 增长,AWS 未来 5-10 年计划持续投资马来西亚、印度、韩国、日本、沙特、马来等地的 云业务,以扩大云计算基础设施规模,并持续打造 IaaS 全球服务网络。在美国本土业务中, AWS 将会在弗吉尼亚州、俄勒冈州扩建数据中心设施,同时计划进军美国其他州。 布局 AI 时代,AWS 加大资本开支: 1) 在 AIGC 方面,AWS 在 23 年的 re: invent 大会上,宣布 AI 图像生成模型 Titan 和 AI 聊天助手 Amazon Q 2) 在 AI 算力扩容方面,AWS 宣布与英伟达合作,AWS 将成为第一家部署英伟达 GH200 芯片的云基础设施服务提供商,满足客户在 AI 推理训练中所需算力 3) 在自研 AI芯片方面,2023年 4月与 11月,AWS分别发布了 Inferentia 2芯片与Trainium 2,助力客户大模型训练和推理。

云产品简介

AWS 产品服务涵盖整个云服务框架,应用范围广泛。按照功能划分,AWS 提供了包括存 储、数据计算、机器学习、虚拟机、边缘计算、物联网、AI 在内的多个服务。客户方面, AWS 目前覆盖及半导体、新能源、金融、游戏、零售、医疗等 20 余个细分行业,被众多 企业与公共部门采用。 按照产品类型划分,AWS 云产品服务涵盖了 IaaS、PaaS 和 SaaS 三大层面。在 IaaS 规 模上远超微软 Azure 与谷歌云;PaaS 方面,AWS 已能为超过 70 家上市公司、覆盖 15 个 行业的客户提供全面部署服务;SaaS 方面,初创公司能将 MVP 的开发时间减少 30-50%, 将毛利率提高 70%,在新市场发布产品的速度能加快 69-77%,同时营运利润率能提高 41%。 AWS 基础设施分布于全球 245 个国家。截至 24 年 3 月,AWS 在全球范围内拥有广泛的基 础设施分布,在全球 33 个地理区域内运营 105 个可用区,拥有 600 余个入网点,服务 245 个国家和区域,并计划未来在德国、马来西亚、墨西哥、新西兰和泰国新增 15 个可用区及 5 个 AWS 区域。

核心产品 1:EC2 (Elastic Compute Cloud)

AmazonEC2 (Elastic Compute Cloud)是一种 Web 云服务,产品于 2006 年发布,能在云中 提供安全且可调整大小的计算能力,EC2 云服务器的 Web 云服务接口较为简单,获取并启 动新服务器实例所需要的时间约几分钟,在计算要求发生变化时可以快速扩展或缩减计算 容量。据 Duckbill Group 首席云计算经济学家 Corey Quinn 估计,亚马逊有超过一半的营 收来自于 EC2 计算服务。

核心产品 2:S3(Simple Storage Service)

AWS S3(Simple Storage Service)是 AWS 提供的一种云计算存储服务,允许用户以低成本、 高可用性和可扩展性的方式存储和检索任意数量的数据,用户可以为多种使用案例存储和 保护任意数量的数据,例如数据湖、云原生应用程序和移动应用程序。 根据 AWS 官网展示的工作原理,S3 将用户的数据,如文件、应用等存放在被称为存储桶 (Bucket)的容器中,并使用唯一的键进行标记以保证数据的安全性,同时给用户一个对应的 密钥,用户需要对数据进行调用时只需通过密钥访问存储空间即可。

2.AWS 自研芯片:新实例上市在即,助力客户 AI 研发

亚马逊目前拥有 3 条主要的自研芯片产品线(见下图),分别为基于 ARM 架构的 Gravition CPU 系列、安全芯片 Nitro 系列、人工智能自研芯片系列(Inferentia 推理芯片和 Trainium 训练芯片)。目前,也有部分客户在使用亚马逊自研 AI 芯片,例如 Anthropic、Airbnb、Snap 和 Hugging Face。

展望未来发展,亚马逊 24 年计划推出 3 项新实例(含最新 Tranium 2 芯片),同时布局训 练+推理产品系列,更好满足AWS客户在大模型和 AI应用端的算力需求。在自研芯片方面, 亚马逊未来将加大投入,主要取代场景为公司的自有实例。自研芯片能够改善硬件供应端 的限制,以及成本竞争力等关键问题。 AWS 产品十年持续迭代:回溯亚马逊产品发展历史,2013 年亚马逊推出首颗针对底层系 统的 Nitro 芯片;2015 年,亚马逊收购了以色列芯片初创公司 Annapurna Labs 作为专注 于亚马逊的芯片定制团队,并于 2018 年推出基于 Arm 架构的服务器 CPU 芯片 Gravition。 针对人工智能与机器学习关键环节,亚马逊分别在 2018 年与 2020 年首次推出自研 AI 推理 芯片 Inferentia 和训练芯片 Trainium。

1)24 年计划推出全新实例产品,助力客户 AI 训练推理。公司计划于 24 年推出三款全新 AWS 实例。 从计算能力高低看,三款 AWS 实例依次为 P5e、G6e、G6,均投用于亚马逊的 EC2 云服 务。从 GPU 性能看,这三款实例分别搭载 H200、L40S、L40 芯片,前两者均能对 AI 大 模型展开训练和推理,后者则服务相对中小规模的 AIGC 推理。

亚马逊云实例应用:构建数字孪生系统。 以 G6e 系列为例,AWS 用户可通过英伟达的软件开发平台 Omniverse,创建和模拟复杂 的 3D 环境场景(数字孪生体)。从应用行业看,相关领域包括物流教育、培训、产品设计、 城市规划和工业自动化。以医疗行业为例,医生可以创建患者的虚拟模型,进行实时监测 和诊断,降低风险并优化治疗效果。 物流行业:以亚马逊履约自动化为例,去年 11 月,亚马逊物流机器人公司和电商履约中心 合作,使用了 Omniverse 与 AWS IoT TwinMaker 构建的数字孪生系统,从而优化仓库设计 和流程,训练更加智能的机器人助手,最终提高履约交付质量。工业自动化:西门子可以帮 助客户调用 Omniverse API,在实际建造前即可对下一代产品、制造流程和工厂进行虚拟设 计、建造和测试。西门子 CEO 博乐仁表示工业 AI、数字孪生技术使西门子工厂产能提高 2 倍、能耗降低 20%。

2)AWS Inferentia 推理自研芯片:硬件迭代为大模型推理端提供保障。Inferentia 第二代于 23 年 4 月正式推出,在算力、内存方面较 19 年推出的第一代有显著 优化。对比一代的总内存和内存带宽分别增加了 4 倍和 10 倍。从 Inf2 实例看,其性能较 Inf1 实例有显著提升:计算性能提高 3 倍,加速器总内存扩大 4 倍,吞吐量提高了 4 倍,并能 将延迟降低到原先的 1/10。AWS Inf2 实例利用 Inferentia 2 硬件的高速连接能力,使得在 需要处理大量推理任务时,可以增加更多的实例来扩展处理能力(“横向扩展”),实现高性 能和高效率的机器学习推理。

3)Trainium 2 训练芯片发布,大模型训练能力显著提升。Trainium 芯片致力于优化大模型训练过程。 23 年 11 月,AWS 发布新一代训练芯片 Trainium 2,可训练高达万亿级别参数的大模型。 公司表示该芯片的能效比上一代提高 2倍,并将会应用于 Anthropic 的模型构建。回顾过往, AWS 于 20 年底推出 Trainium 1 芯片,专门用于训练机器学习模型,相较于 Amazon EC2 实例可以节省~50%的训练成本,并有少量客户群体开始使用。 与此同时,亚马逊计划发布 Trn2 实例,包含 16 个 Trainium 2 芯片。公司在发布会上表示, 理想情况下,该实例可横向扩展到多达 10万个芯片,从而提供 65ExaFlops超算级性能(EFA 网络互连)。如果横向拓展可达到描述的水平,客户仅用几周就能训练出有 3000 亿参数的 大模型。

参考报告

亚马逊研究报告:电商竞逐胜势,云端构筑AI新浪潮.pdf

亚马逊研究报告:电商竞逐胜势,云端构筑AI新浪潮。全球领先的线上零售与云服务提供商。亚马逊是全球领先的电商与云服务平台,主要服务北美、欧洲等成熟市场。公司凭借物流、会员体系的护城河,持续巩固优势地位,并借助三方电商实现品类突破。云服务方面,得益于AI释放新算力需求与企业的线上化趋势,我们看好全球在线计算市场的发展,亚马逊凭借其在相关领域的投入,巩固其龙头地位。美国电商渗透率逐步提高,亚马逊差异化竞争头部地位稳固我们预计23-26年期间自营电商、三方电商及广告的收入CAGR分别达到5.5%、12.6%、19.0%。美国线上零售渗透率疫情时迅速提升,21-22年停滞后23年恢复增长,我们预期将会从...

查看详情
相关报告
我来回答