全球各大机器人大脑厂商布局情况如何?

全球各大机器人大脑厂商布局情况如何?

最佳答案 匿名用户编辑于2025/11/07 15:32

全球各大机器人大脑厂商百花齐放。

1. Tesla Optimus

2025 年 10 月,埃隆・马斯克在社交平台发布的一段视频,展现特斯拉 Optimus 人 形机器人身着黑色作战服,精准复刻抱拳、弓步、格挡等武术动作,面对对手的随机出 拳能即时反击,整套动作连贯流畅且始终保持平衡。马斯克特意澄清:“这不是遥控表 演,而是 AI 自主决策的结果”,代表特斯拉机器人大模型取得了重要进展。 Optimus 机器人大模型最核心的突破在于抛弃了传统机器人的“模块化分工”模式, 采用与特斯拉 FSD 自动驾驶同源的单一基础模型架构,实现了从感知到行动的端到端自 主决策。 xAI Grok 深度融合:赋予机器人逻辑推理与记忆。2025 年 Gen 3 版本的关键升级, 是将 xAI 的 Grok 模型整合为高级认知模块,让 Optimus 从执行机器升级为思考机器。 Grok 模型主要承担三大功能:自然语言深度理解:不仅能识别“拿一杯水”这类简单指 令,还能解析“把客厅茶几上的玻璃杯装满温水,温度不要超过 40 度”等复杂需求,准 确率达 92%以上。情感互动与场景推理:通过语音语调分析人类情绪,当检测到用户疲 惫时会自动调整动作幅度和说话音量;在工厂场景中,能根据流水线速度自主调整零件 抓取频率。云端同步记忆:采用可移动记忆技术,让机器人的操作经验和用户偏好能在 不同设备间同步。即使某台 Optimus 损坏,更换新机体后仍能保留原有记忆。这种斯拉 AI 负责物理行动+xAI Grok 负责逻辑推理的混合架构,实现了本地实时响应与云端复杂 计算的完美平衡。

2. Figure AI

2025 年 2 月,Figure AI 宣布放弃 OpenAI 大模型,自主研发 Helix 模型。 Helix 模型是全球首个能够对整个人形机器人上半身进行高频率、连续控制的视觉 -语言-动作(VLA)模型,其核心优势在于实现了"感知-理解-决策-执行"的端到端闭环, 彻底摆脱了传统机器人对预设脚本的依赖。 多模态融合能力。Helix 模型整合了视觉、语言、触觉等多种感知模态,能够像人 类一样看懂环境、听懂指令、感知物体。在视觉层面,它能通过摄像头实时构建三维环 境地图,识别物体位置、形状及状态;在语言层面,支持自然语言指令理解,可准确解 读“把餐具放进洗碗机”、“整理桌面”等复杂任务;在触觉层面,能将传感器数据转化 为对物体属性的认知,为操作决策提供依据。 2025 年 9 月的演示中,Figure 机器人在 Helix 模型的控制下,完成了装载洗碗机 的任务。这一过程中,机器人需要通过视觉识别餐具类型和位置,通过语言理解任务要 求,通过触觉感知餐具材质和重量,三种模态数据实时融合,最终生成流畅的操作动作。 更关键的是,这一能力是在没有新算法和专门工程化处理的情况下,仅通过新增数据实 现的。

多机器人协同能力。Helix 模型的另一大突破是支持多机器人协同运行,这为人形 机器人的规模化应用奠定了基础。在宝马斯帕坦堡工厂,多台 Figure02 机器人依托 Helix 模型组成自主舰队,能够自主分配任务、协同完成零件搬运和设备巡检工作,较 单台机器人作业效率提升 4 倍以上。这种协同能力并非简单的任务分配,而是通过实时 数据共享实现的动态协作——当某台机器人遇到障碍时,会自动将任务分配给附近空闲 的机器人,确保整个生产流程不受影响。 快速技能迁移能力。传统机器人需要针对不同任务进行单独编程,而 Helix 模型具 备强大的技能迁移能力,能够将在某一场景习得的技能快速应用到新场景。2025 年 8 月, Figure AI 展示了令人震惊的技能迁移案例:原本在物流场景从事分拣工作的机器人, 在仅增加叠衣服数据、未改变任何硬件和算法架构的情况下,轻松掌握了叠衣服的技能; 一个月后,同一台机器人又学会了装载洗碗机。这种跨场景技能迁移能力,大幅降低了 机器人适应新任务的成本,使其能够快速响应不同行业的需求。 数据驱动的进化逻辑。Helix 模型的强大能力,源于 FigureAI 构建的数据飞轮体 系。公司与 Brookfield 资产管理公司的合作,为其提供了全球最大且最多元化的真实 场景人形机器人预训练数据集——Brookfield 旗下的物流仓库、商业建筑、制造工厂等 场景,成为 Helix 模型的训练场,每天产生数百万条真实任务数据。这些数据通过 BotQ 工厂的自动化系统实时回传至 Figure AI 的训练平台,经过清洗、标注后用于 Helix 模 型的迭代优化。优化后的模型又被部署到机器人上,在真实场景中完成更复杂的任务, 产生更多高质量数据,形成数据采集-模型训练-场景应用的闭环。这种数据飞轮效应, 使得 Helix 模型的能力呈指数级增长,也让 Figure 机器人的任务成功率从初代的不足 50%提升至 Figure 03 的 98%以上。

3. Physical Intelligence

Physical Intelligence 成立于 2024 年 3 月,总部位于美国旧金山,创始团队包括 来自 Google、Stanford、UC Berkeley 等知名机构的人工智能与机器人科学家。公司聚 焦通用家用机器人,利用通用人工智能(AGI)应对多种不同家务场景。 公司一直在开发机器人基础模型,可以推广到各种各样的环境中。公司最新的π0.5 建立在其视觉-语言-行动(VLA)模型π0 的基础上,进步很大,可以指挥机器人清理训 练数据中没有看到的新家的厨房或卧室。 π0.5 背后的主要原则是异构数据的协同训练。通过在各种不同的数据源上训练, 可以教模型如何物理上执行不同的技能,还可以教它如何理解每个技能的语义上下文 (例如,如果任务是打扫厨房,哪些物品适合捡起和收起,以及将它们放在哪里),推断 任务的高级结构(例如,铺床所需的步骤),甚至从其他机器人那里转移物理行为。 公司估值 24 亿美元。在 2024 年 11 月,公司大模型π0 产品公布后数天,Physical Intelligence 宣布获得 4 亿美元融资,累计融资 4.7 亿美元,投后估值达 24 亿美元。 领投方为亚马逊创始人 Jeff Bezos 和 OpenAI 等。据硅谷科技媒体 The Information 9 月 10 日报道,知名具身智能模型软件公司 Physical Intelligence 正在以 50 亿美元的 估值洽谈新融资。

4. Skild AI

Skild AI 成立于 2023 年,总部位于美国匹兹堡,聚焦开发适合不同形态具身智能 的 AI 大模型。Skild AI 由两位卡内基梅隆大学的教授 Pathak 和 Gupta 在 2023 年共同 成立。两人分别从伯克利和马里兰大学取得博士学位,且都在人工智能和机器人领域有 深厚的学术研究经历和贡献,提出了诸如自监督机器人、好奇心驱动 AI 训练和自适应 机器人学习等理论。 Skild AI 模型的训练逻辑类似于 AI 大语言模型的训练逻辑,Skild AI 向模型输入 巨大体量的高质量机器人动作数据,让模型最终具备一定程度的通用智能,能够无需针 对新环境重新训练便能顺利实现部署。 Skild AI 更专注于软件模型的开发而非机器人本体的制造。现阶段看,他们的商 业模式更接近于成为人形机器人的上游核心技术供应商,赋能更多中游的机器人制造企 业打造更好的产品。 软硬分离的策略,也使其价值创造不局限在人形机器人,传统机械臂、运输机器人、 四足机器人、一般扫地机器人也都可以搭载 Skild 大脑。机器人能够理解自身的状况和 功能,以及不同的环境和场景,在设计功能之外拓展更多应用场景。 估值已达 45 亿美元。Skild AI 在 2024 年 7 月收获 3 亿美元 A 轮融资,估值达 15 亿美元,累计融资达 5.5 亿美元,领投方为 Lightspeed Venture Partners、Coatue、 SoftBank 等。资金将用于团队扩充和通用模型开发。据彭博社 2025 年 6 月 12 日报道, 芯片设计公司英伟达与消费电子制造商三星电子已计划对人工智能机器人软件初创公 司 Skild AI 进行投资。此举被视为两家公司在机器人领域持续布局的一部分。交易完成后,两家公司将持有 Skild AI 的少数股权。此轮融资后,Skild AI 的估值约为 45 亿 美元。

参考报告

计算机行业深度报告:大脑,具身智能落地的关键.pdf

计算机行业深度报告:大脑,具身智能落地的关键。大脑是机器人实现智能的核心。人形机器人由大脑、小脑、肢体三部分组成。“大脑”主要基于AI大模型,根据环境、任务和目标等信息,自主做出最优决策,以实现自主导航、任务执行、人机交互等功能。机器人大模型和通用大模型有一定区别,难以直接共用,后者需要考虑与物理世界的实时交互,技术难度较大。具身智能大脑技术路线仍在探索阶段。从技术路线上看,目前基于大模型的“大脑”技术路线正处在并行探索阶段,并逐渐向端到端的大模型演进。主要存在三条主流路径:1)端到端VLA技术路线,采用单一模型直接从感知到动作的端到端学习方式。...

查看详情
相关报告
我来回答