2026年第2周A股投资策略周报(0110):2026开年产业趋势新变化和融资及ETF资金变化

  • 来源:招商证券
  • 发布时间:2026/01/20
  • 浏览次数:244
  • 举报
相关深度报告REPORTS

A股投资策略周报(0110):2026开年产业趋势新变化和融资及ETF资金变化.pdf

A股投资策略周报(0110):2026开年产业趋势新变化和融资及ETF资金变化。2026年初产业趋势更新主要集中在AI算力硬件、端侧AI、物理AI(自动驾驶、机器人、脑机接口)、AI大模型与应用以及商业航天;CES2026热点行业已从传统消费硬件进一步向AI基础设施与产业智能扩展。开年第一周融资资金大幅净流入,为市场贡献重要增量资金,A股继续演绎春季攻势。往后看,A股有望延续上行,1月科技+周期牛的主线不会有变化,风格选择方面更推荐大盘成长,行业配置主要围绕春季躁动和年报前瞻线索布局。【观策·论市】2026开年产业趋势新变化和融资及ETF资金变化:近期产业趋势更新主要集中在:AI...

观策·论市——2026 开年产业趋势新变化和融资及 ETF 资金变化

近期产业趋势更新主要集中在:AI 算力硬件、端侧 AI、物理 AI(自动驾驶、机器人、脑机接口)、AI 大模型与应用 以及商业航天。AI 算力硬件方面,英伟达在 CES2026 大会上发布下一代 Rubin 计算平台,其核心升级是以机架为交 付单元,对计算、互连、网络、存储与运维进行一体化协同设计;端侧 AI 方面,近期,字节跳动“豆包”AI 眼镜进 入出货阶段;自动驾驶方面,英伟达在 CES2026 发布 Alpamayo 自动驾驶开发生态,以开源 VLA 推理模型、全球驾 驶数据集与高保真仿真工具构成完整研发闭环,核心在于让车辆具备多步骤推理与应对长尾场景的能力;人形机器人 方面,自特斯拉 Optimus 供应链审厂推进,网传多家国内厂商通过审厂进入核心体系;脑机接口方面,Neuralink 宣 布 2026 年启动规模化生产,强脑科技完成大额融资;AI 大模型与应用方面,近期产业主线从“参数与榜单竞争”加 速转向“能力兑现与商业化验证”;商业航天方面,近期政策、工程验证与资本市场三条主线同步推进,行业进入制 度化与工程化共振阶段。 科技春晚 CES 芯片龙头“秀肌肉”,物理 AI 边界拓展。2026 年 1 月 6 日至 1 月 9 日,CES 2026 在美国内华 达州拉斯维加斯举行。本次展览面积超过 260 万平方英尺,汇聚超过 4,100 家参展商,规模之大被称为“科技界春 晚”。参会与发声的头部公司集中在三条产业链:算力与终端生态的核心厂商包括 NVIDIA、AMD、Intel 等,消费电 子与内容生态包括 Sony、LG、Samsung 等,汽车与工业体系则由 Hyundai、Bosch、Siemens 等企业通过发布会 展示其 AI 化路线。从官方划分的主题看,CES 2026 热点行业已从传统消费硬件进一步向 AI 基础设施与产业智能 扩展,重点覆盖人工智能、机器人、汽车科技、数字健康、能源与企业解决方案、沉浸式娱乐、无障碍科技与量子等 方向,这使得 CES 在本届更像是面向物理 AI 落地的跨产业场域,而非单一消费电子新品秀场。

2026 年开年以来,A 股延续上行趋势,继续演绎春季攻势,股价上涨进一步推高了融资融券的平均担保比例。开年 第一周,融资资金前四个交易日净流入 857.8 亿元,为市场贡献了重要的增量资金,但是股价上涨的速度快于融资余 额的增速。从 ETF 净申购来看,上周股票型 ETF 净赎回 96 亿份,对应净流出 40 亿元,结构上,宽指 ETF 以净赎 回为主;行业层面,有色金属是融资资金和 ETF 资金的最大共识。 风格选择方面,考虑到 12 月 PMI 重回扩张叠加市场对年初政策发力前置的预期较强,提振市场风险偏好,助力春季 行情继续演绎,1 月风格更推荐大盘成长,推荐指数组合包括:沪深 300、科创 50、300 质量、300 信息、港股通科 技等;行业选择层面,考虑未来一两个月的角度,综合考虑前期表现、估值、交易活跃度、景气变化、政策和事件催 化,我们建议行业配置主要围绕春季躁动和年报前瞻线索布局,重点推荐关注顺周期+科技领域,典型行业如电力设 备、机械设备、非银、电子、有色金属、基础化工等。赛道选择层面,我们认为科技+周期牛的主线不会有变化,1 月 重点关注五大具备边际改善的赛道:AI 硬件、机器人、AI 应用、有色金属、国产算力。

1、近期有更新的产业趋势梳理

近期产业趋势更新主要集中在:AI 算力硬件、端侧 AI、物理 AI(自动驾驶、机器人、脑机接口)、AI 大模型与应用 以及商业航天。

1)AI 算力硬件方面,英伟达在 CES2026 大会上发布下一代 Rubin 计算平台,其核心升级是以机架为交付单元,对 计算、互连、网络、存储与运维进行一体化协同设计。Rubin NVL72 通过强化 NVLink6 互连、系统级网络与 DPU 能 力,并引入面向长上下文与 Agentic AI 的分级存储架构,将算力衡量口径由峰值算力转向单位 token 成本与有效利用 率,反映 AI 投资逻辑从“堆算力”向“降 TCO”演进。从产业趋势看,高速互连、无缆化托盘、高温液冷及机架级 可运维性成为新增价值集中区,同时存储从被动容量升级为参与推理与上下文调度的关键资源,抬升企业级存储、DPU 与网络环节的重要性。整体上,算力硬件放量路径由单卡扩展至整机柜与系统交付,利好服务器系统组装、GPU 与 CPU、HBM 与企业级存储、高速连接器与电光互连、PCB/IC 载板、散热与电源等产业链环节。

2)端侧 AI 方面,近期,字节跳动“豆包”AI 眼镜进入出货阶段,采用无屏/带显示多版本策略,强调与手机及 App 生态协同,显示端侧 AI 眼镜正从概念验证走向产品化落地;同时,三星宣布 2026 年搭载 Gemini 的 AI 终端数量将 提升至 8 亿部,进一步验证端侧 AI 在手机等高频终端的规模化路径。CES2026 层面,端侧 AI 呈现“AI+消费电子硬 件百花齐放”的特征,AI 以更轻量、更隐蔽的方式融入终端,AI 眼镜、可穿戴与创作类硬件成为核心方向,其中 AI眼镜在轻量化与显示方案上持续迭代,光波导渗透率提升,AI 穿戴推动健康数据由“监测”向“理解”升级,创作类 硬件在 AIGC 加持下显著降低创作门槛,显示 AI 正从 PC 与手机功能升级,走向更丰富的“AI 原生终端”形态。整 体看,端侧 AI 趋势利好 AI SoC、传感器、光学显示、轻量化材料、电池及整机 ODM 等产业链环节。

3)物理 AI 方面主要是自动驾驶、人形机器人、以及脑机接口。 自动驾驶方面,英伟达在 CES2026 发布 Alpamayo 自动驾驶开发生态,以开源 VLA 推理模型、全球驾驶数据集与 高保真仿真工具构成完整研发闭环,核心在于让车辆具备多步骤推理与应对长尾场景的能力。这一范式转变有望显著 降低高阶自动驾驶的开发门槛,推动行业从封闭自研走向生态协同,同时抬升对车载算力架构、推理能效、仿真平台 与数据闭环能力的需求,自动驾驶竞争重心由感知精度转向系统推理与安全冗余。 人形机器人方面,近期产业层面最重要的信号来自特斯拉 Optimus 供应链审厂推进,网传多家国内厂商通过审厂进 入核心体系,标志着人形机器人正从技术验证走向以主机厂牵头的产业化筛选阶段。此外,CES2026 集中展示了具 身智能在运动控制、动态平衡与交互能力上的阶段性成熟,海外方面,波士顿动力 Atlas 启动企业级量产,国内厂商 中,宇树科技展示高动态双足机器人的运动控制能力,智元机器人展示人形、四足及仿真平台协同方案。 脑机接口方面,Neuralink 宣布 2026 年启动规模化生产,并推进更自动化的植入流程,侵入式路线在医疗康复场景 的可行性持续提升;国内方面,强脑科技完成大额融资,非侵入式脑机接口在运动康复与功能恢复中取得实证进展。 湖北、四川、浙江等多个省份为侵入式脑机接口医疗服务制定了收费依据。整体来看,脑机接口仍处早期,但在传感 器、信号处理、算法与医疗器械体系内已形成清晰的中长期产业化路径。

4)AI 大模型与应用方面,近期产业主线从“参数与榜单竞争”加速转向“能力兑现与商业化验证”。 模型层面,外媒报道称 DeepSeek 计划于 2 月发布新一代旗舰模型 DeepSeek V4,内部测试显示其在编程与超长上 下文处理能力上具备显著优势,反映大模型技术突破正更多集中于代码、复杂任务与稳定推理等高价值场景。产业层 面,智谱华章与稀宇科技(MiniMax)同期赴港上市,标志中国大模型行业在经历“百模大战”后进入资本市场定价与 商业模式分化阶段,分别对应“To B 基础模型+平台化服务”与“To C 应用+多模态产品矩阵”两条路径。海外层面,Meta 高价并快速收购 AI Agent 公司 Manus,释放出的信号是,行业竞争焦点正由模型本体能力转向将模型能力转化为可 持续执行的智能体系统的能力。整体看,大模型产业正迈入从技术突破向应用效率、产品形态与商业闭环加速过渡的 新阶段,Agent 化应用有望成为承接模型红利的关键载体。 工业 AI 方面,本周工信部印发《工业互联网和人工智能融合赋能行动方案》,提出到 2028 年推动不少于 5 万家工 业企业完成新型工业网络改造,在重点行业打造高质量数据集,强化工业智能算力供给,推动“云—边—端”算力协 同及端侧轻量化算力在设备侧部署;本周工信部等八部门联合发布《“人工智能+制造”专项行动实施意见》,明确 到 2027 年推动 3–5 个通用大模型在制造业深度应用,形成行业大模型体系,打造 100 个工业数据集、500 个典型应 用场景,并加快工业机器人、工业母机、智能装备与工业软件的智能化升级。整体看,工业 AI 正从示范探索迈入政 策驱动的规模化落地阶段,成为大模型应用中确定性最高的中长期方向之一。

5)商业航天方面,近期政策、工程验证与资本市场三条主线同步推进,行业进入制度化与工程化共振阶段。 政策层面,国家航天局发布《推进商业航天高质量安全发展行动计划(2025—2027 年)》,明确将商业航天纳入国 家航天发展总体布局,围绕创新动能、资源统筹、产业发展与安全监管提出系统性举措;随后,工信部印发《关于组 织开展卫星物联网业务商用试验的通知》,启动为期两年的卫星物联网商用试验,重点面向工业、交通、能源、农业、 应急等场景,支持商业航天与低空经济发展;同时,国家航天局设立商业航天司,标志商业航天进入专职化、常态化 管理阶段,行业治理与政策执行能力显著提升。 工程与产业层面,可重复使用运载火箭成为核心技术主线。蓝箭航天朱雀三号完成入轨任务并开展一子级回收验证, 尽管未实现软着陆,但在液氧甲烷动力、再入制导与栅格舵控制等关键环节积累了高价值工程数据;长征十二号甲实 现“可复用技术+轨道级发射”的实际验证,并首次采用“国家队+民企”动力体系,显示我国在可复用技术路径上形 成多元探索格局。 资本层面,上交所发布《商业火箭企业适用科创板第五套上市标准》专项指引,明确“采用可重复使用技术的中大型 火箭成功入轨”作为核心技术里程碑,显著提升商业火箭企业 IPO 可预期性,推动估值逻辑由财务指标向技术与产业化能力转变;12 月 31 日蓝箭航天科创板 IPO 审核状态变更为“已受理”,成为新规落地后的重要案例。海外方面, SpaceX 推进 IPO 筹备,市场预期募资规模超 300 亿美元、整体估值约 1.5 万亿美元,或成为历史最大规模 IPO 之 一,星链业务放量带动市场对卫星互联网与可复用火箭商业模式的再定价。

2、科技春晚 CES 芯片龙头“秀肌肉”,物理 AI 边界拓展

科技春晚 CES 大会举办,科技龙头齐聚拉斯维加斯

CES 2026 由美国消费技术协会 CTA 主办,于 2026 年 1 月 6 日至 1 月 9 日在美国内华达州拉斯维加斯举行, 本次展览面积超过 260 万平方英尺,汇聚超过 4,100 家参展商,规模之大被称为“科技界春晚”。参会与发声的头 部公司集中在三条产业链:算力与终端生态的核心厂商包括 NVIDIA、AMD、Intel 等,消费电子与内容生态包括 Sony、 LG、Samsung 等,汽车与工业体系则由 Hyundai、Bosch、Siemens 等企业通过发布会展示其 AI 化路线。从官方 划分的主题看,CES 2026 热点行业已从传统消费硬件进一步向 AI 基础设施与产业智能扩展,重点覆盖人工智能、 机器人、汽车科技、数字健康、能源与企业解决方案、沉浸式娱乐、无障碍科技与量子等方向,这使得 CES 在本届 更像是面向物理 AI 落地的跨产业场域,而非单一消费电子新品秀场。 基于以上趋势,本报告将 CES 大会发布的算力芯片为起点,分析机架级算力交付与推理成本下行的产业影响,再延 伸至智能汽车与自动驾驶的计算平台化与商业落地节奏,最后落脚到机器人这一最具弹性的物理 AI 场景。此次 CES 2026 展示的不是单点产品突破,而是芯片和物理 AI 边界的拓展,这将推动资本开支与产业链定价逻辑从芯片性能 竞争,转向以有效算力、可部署性与生态协同为核心的系统竞争。 

英伟达推出 Vera Rubin 架构,26 年进入量产叙事

英伟达创始人兼首席执行官黄仁勋在拉斯维加斯举办的 CES 开幕演讲上展示了英伟达首个采用极致协同设计的 AI 平台 Rubin。黄仁勋在 CES 大会上向观众介绍了美国天文学先驱 Vera Rubin,英伟达下一代计算平台正是以她命 名。英伟达在 CES 2026 披露的 Vera Rubin 并非一次常规意义上的 GPU 迭代,而是一次以机架为交付单元的计 算平台重构。公司将 Rubin 定义为由六类新芯片构成的一体化系统,核心由 Vera CPU 与 Rubin GPU 组成,并把 NVLink 6 交换、ConnectX 9 SuperNIC、BlueField 4 DPU 以及 Spectrum 6 以太网交换纳入同一平台范畴,强调 极致协同设计覆盖计算、网络、数据搬运、安全与可运维性,从而在大规模训练与推理场景中同时改善性能与成本结 构。Vera Rubin NVL72 机架形态集成 72 颗 Rubin GPU 与 36 颗 Vera CPU,并以 NVLink 6 形成统一的互连 域,是公司面向代理式推理与长上下文工作流所定义的下一代基础设施底座。 从指标披露方式看,Rubin 最大的变化在于公司把衡量重点直接拉到 token 经济学与训练规模效率,而非单点峰值 算力。英伟达在 Vera Rubin NVL72 的官方介绍中明确给出两项对投资与客户决策更敏感的口径:相较 Blackwell,在可比假设下,Rubin 平台可实现推理每百万 tokens 成本下降至约十分之一,同时训练大型模型所需 GPU 数量 下降至约四分之一。该表述在官方产品页与公司公告中形成相互印证,并在多家主流科技媒体对 CES 演讲的复述中 得到一致引用,公司试图将竞争优势锚定在客户可量化的总拥有成本与单位产出效率上,而不是仅通过更高的算力数 字来表达代际领先。

支撑上述成本与效率改变量级的关键,在于平台级瓶颈的系统性解除。Rubin 平台在官方技术页面对互连能力做了更 完整的披露,第六代 NVLink 将 72 颗 Rubin GPU 整合为统一性能域,为每颗 GPU 提供 3.6TB 每秒带宽,并 给出机架级 260TB 每秒的互连能力,配合 SHARP 等集体通信优化以降低聚合阶段拥塞,从而对大模型训练中通 信与同步开销形成针对性压缩。与此同时,平台强调在推理侧通过新的 Transformer 引擎引入硬件加速的自适应压 缩,在保持精度的前提下提升 NVFP4 相关性能,并对既有 Blackwell 优化代码保持兼容迁移,从而在软件侧降低客 户切换摩擦。更重要的是,英伟达把网络与数据处理能力直接作为平台的一部分进行定价与交付,NVL72 集成大规 模 SuperNIC 与 DPU,并面向横向扩展同时支持 Quantum X800 InfiniBand 与 Spectrum X 以太网体系,公司试 图在训练集群与推理集群的网络层扩大附加值与生态锁定。

可运维性与交付效率同样是 Rubin 相较前代更突出的系统优势。英伟达在 Rubin 平台页面中披露 NVL72 采用模 块化、无电缆的托盘式设计,使组装与维护速度相较 Blackwell 提升至约 18 倍,并结合第二代 RAS 引擎、软件定 义的 NVLink 路由以及机架级健康检查实现主动维护与更高可用性。这类设计强化了英伟达把机架作为产品的商业 逻辑,因为在超大规模 AI 工厂环境中,部署时间、维护窗口与故障隔离能力将直接影响有效算力利用率,而有效利 用率往往比理论峰值更能决定客户的单位 token 成本。英伟达同时将机密计算能力扩展到机架规模,强调在 CPU、 GPU 与 NVLink 互连之间构建统一可信执行环境,意在降低大模型训练数据与推理工作负载在合规与安全层面的 采用门槛,这对金融、医疗与政企客户的采购决策具有现实影响。

供给节奏方面,英伟达在 CES 2026 明确传递 Rubin 已处于量产阶段,并指向 2026 年下半年进入可用窗口。对 股票研究而言,这一时间表的意义不止在于新品发布,更在于公司通过量产与生态协同来强化订单可见性与收入结构 的系统化升级。随着 NVL72 机架形态成为主推交付单元,英伟达的价值捕获将从单卡 ASP 扩展到网络、互连、DPU、 安全与整机系统方案的打包变现,同时通过 MGX 生态伙伴扩大供给与交付弹性,降低单一制造环节对出货的约束。 需要注意的是,官方页面对部分规格与数值存在初步信息与可能调整的提示,因此在财务模型中更适合把 Rubin 的 披露解读为平台能力与方向性的强信号,并结合后续实际出货爬坡与客户部署反馈来校验量级兑现程度。

AMD 同时发布 Helios 机架级平台和 Instinct MI400

在 CES2026 上,AMD 将数据中心 AI 的叙事从单卡升级进一步推进到机架级交付,核心发布围绕 Helios 机架 级平台与 Instinct MI400 系列展开。AMD 官方将 Helios 定位为面向 yotta 级 AI 基础设施的蓝图,强调单机架可 提供最高约 3 AI exaflops 的能力,面向万亿参数级训练与大规模推理,设计目标是最大化带宽与能效,并通过开放、 模块化的机架形态实现跨代演进与规模化部署。Helios 的计算核心由 Instinct MI455X 与 EPYC Venice 组成,同时 把高速网络与软件栈纳入同一交付范式,强调以 ROCm 作为统一的软件底座来提升可移植性与生态扩展效率。

从硬件架构与竞争优势看,AMD 新品 Helios 的亮点在于用系统级集成把算力、内存与互连瓶颈同步前移。基于 CES 资料披露,Helios 机架形态可集成 72 颗 MI455X,并配套 Zen 6 架构的 Venice CPU,机架级 HBM4 总容量可 达约 31TB,推理侧 FP4 指标最高约 2.9 exaFLOPS,训练侧也给出了 exaFLOPS 级别的量级指引,反映 AMD 正在将产品定位从加速卡供应商扩展为机架级 AI 工厂方案提供者。平台互连方面,AMD 同时强调面向开放标准的 网络与互连路线,包括与 Ultra Ethernet 体系的协同,并提及未来对 UALink 等 scale up 互连生态的支持方向,这 一组合意在降低客户在网络侧对单一专有体系的依赖,提高跨供应商集成的可行性,从而在云厂商与政企私有化部署 中争取更大的设计入口。 在产品分层上,AMD 在 CES 大会上发布的另一个新品 MI400 系列以 MI440X 切入企业级本地部署需求,官方将其 定义为面向企业部署的 Instinct GPU,并与 Helios 的超大规模目标形成互补。其策略含义在于把客户覆盖从超大 规模云服务商延伸到对数据合规与本地化有更强约束的行业客户,以更标准化的服务器形态降低采购与运维门槛,同 时为 ROCm 在企业场景的扩散提供更可复制的硬件载体。综合来看,AMD 本次发布的优势不在于单一指标压制, 而在于用 Helios 把机架级系统交付、开放网络路线与软件生态统一起来,提升在下一轮算力平台化竞争中的进入壁 垒与客户粘性。

英特尔发布 Ultra 3,把 18A 工艺代入消费客户端

在 CES 2026 上,英特尔发布 Core Ultra Series 3 处理器平台,代号 Panther Lake,首次把 18A 工艺带入消费 级客户端产品。官方新闻稿将其定义为首个基于 18A 的 AI PC 平台,强调在美国设计与制造,并将于本月开始上 市,预计进入超过 200 款整机设计。对资本市场而言,18A 的落地是英特尔验证先进制程与自有制造可规模交付的 关键节点,直接影响其夺回客户端份额的确定性。 英特尔 Core Ultra Series 3 处理器平台产品亮点集中在计算、图形与端侧 AI 三条主线。公开信息显示,顶配规格可达 16 核并采用分拆芯粒设计;图形侧升级到 Xe3 集显,旗舰规格可达 12 个 Xe3 单元;AI 侧 NPU 峰值可达 50 TOPS。英特尔在 CES 给出相对性能口径,宣称多线程性能相较前代移动平台最高提升约 60%,集显游戏场景 相较前代提升约 76% 至 77%,并以最长 27 小时视频播放续航强调能效改善;同时平台支持 Wi Fi 7 与主流高速 外设生态,降低 OEM 在轻薄本与掌机形态导入的工程成本。

英特尔此次在 CES 大会上发布新品的差异化方向在于从 PC 延伸到边缘侧。英特尔称 Series 3 首次面向嵌入式与 工业用例完成测试与认证,覆盖机器人、智慧城市、自动化与医疗等场景。结合路透解读,Panther Lake 是英特尔借 18A 工艺回归自有制造的重要节点,若 2026 年初上市与后续放量节奏兑现,将推动 AI PC 渗透率向更大规模价位 段扩散,并抬升市场对端侧推理能效与集显图形能力的权重。

物理 AI 的 ChatGPT 时刻,自动驾驶生态体系 Alpamayo 发布

在国际消费电子展(CES 2026)上,英伟达 CEO 黄仁勋在拉斯维加斯身着标志性的黑色皮衣登台亮相,宣布物理 AI 的 ChatGPT 时刻已然到来。这次发布并非推出单一产品,而是公布了一整套名为 Alpamayo 的自动驾驶开发生态体 系,包括开源的大模型、全球驾驶数据集以及高保真模拟工具框架。在主旨演讲中,黄仁勋展示了一段实车场景视频: 一辆自动驾驶汽车行至红绿灯故障的路口时,并未陷入混乱,而是通过多步骤推理做出决策——识别到前方红灯失效, 左侧有来车,右侧有行人等待,应当减速观察,确认安全后缓慢通过。整个过程清晰展现了系统的决策依据,无需人 工干预,被形象地比喻为会思考的自动驾驶。这一现场演示凸显了Alpamayo平台的推理能力和应对长尾场景的潜力。

英伟达在活动中介绍了 Alpamayo 自动驾驶模型的功能与计划。CEO 黄仁勋在接受采访时展望了未来十亿辆汽车均可能实现自动驾驶的愿景。他表示,英伟达正与运营商合作,旨在利用其 AI 芯片和软件栈,计划最早于 2027 年部署 L4 级无人驾驶车队。在媒体沟通中,黄仁勋强调 Alpamayo 平台赋予汽车在现实世界中进行推理的能力——潜在用 户可以使用 Alpamayo 模型并自行重新训练;这一开源免费服务旨在让车辆能够自行应对突发状况(例如交通信号灯 故障),车载计算机会分析来自摄像头等传感器的输入,将其分解为一系列步骤并得出解决方案。

Alpamayo 平台是史上最全自动驾驶开发工具箱

Alpamayo 并非单一硬件或软件,而是英伟达精心打造的一个自动驾驶研发工具箱——覆盖从模型训练、数据支撑到 仿真验证的完整闭环体系。其核心理念是推理驱动的自动驾驶,即让 AI 具备类似人类的推理和解释能力,从而有效 解决自动驾驶领域长期存在的长尾难题。 Alpamayo 系列的首款模型被命名为 Alpamayo 1。这是业界首个专为自动驾驶设计的开源视觉-语言-动作(VLA)推 理模型,拥有约 100 亿参数。它引入了思维链技术,实现从感知预测范式向推理规划范式的跃迁。在传统自动驾驶系 统中,车辆更像条件反射的机器 —— 传感器一旦识别前方障碍物,立即按照预设规则刹车或绕行,背后依赖大量人 工标注数据训练。相比之下,Alpamayo 1 具备类人的连贯思考能力:面对复杂新颖的场景,不再只是简单的像素到 方向盘映射决策,而是能够像人类司机一样多步推演环境变化。 为了验证和迭代自动驾驶算法,Alpamayo 提供了一个名为 AlpaSim 的高保真模拟器。AlpaSim 是完全开源的端到 端自动驾驶仿真测试框架,现已在 GitHub 发布。该框架可以逼真地还原各类传感器建模和交通流场景,并支持可扩 展的闭环测试环境。开发者能够在虚拟环境中对基于 Alpamayo 的自动驾驶系统进行大规模测试,通过无限虚拟试验 场来验证算法在极端情况下的表现。AlpaSim 支持配置多样的车辆行为规则和环境参数,帮助快速优化策略,极大降 低了实际道路测试的成本与风险。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 相关文档
  • 相关文章
  • 全部热门
  • 本年热门
  • 本季热门
  • 全部热门
  • 本年热门
  • 本季热门
  • 最新文档
  • 最新精读
分享至