物理 AI 的终极形态:地平线与具身智能的文明级跃迁

一、引言
2026 年 4 月 22 日,地平线发布中国首款舱驾融合整车智能体芯片 “星空” 系列、整车智能体操作系统 “卡卡虾” 及量产端到端智驾系统 HSD V1.6,完成从芯片供应商到物理 AI 基础设施提供商的战略升级。数字 AI 仅能投影虚拟世界,而余凯提出的 “物理 AI” 核心正是具身智能 ——AI 直接感知、建模并作用于真实物理环境。
据 Grand View Research 数据,2025 年全球具身智能市场规模达 46.7 亿美元,预计 2026-2033 年复合增长率 39.7%,2033 年将增至 676.3 亿美元。2026 年是具身智能从实验室走向规模化商用的关键节点,中国企业在人形机器人量产落地方面处于全球领先地位。地平线选择智能汽车作为首个大规模落地场景,通过 “芯片 + OS + 智驾” 全栈布局,构建整车智能体并向通用机器人延伸。
二、具身智能的科学本质
现代具身智能理论认为,智能根植于物理实体与环境的持续互动,核心是 “感知 – 决策 – 行动 – 再感知” 的闭环反馈系统。传统 VLA 模型采用 “视觉到动作” 的黑盒映射,缺乏对机器人本体和物理世界的显式建模,泛化能力受限。
Gilday 等人(2025)通过对 56 款参数化机器人手的系统研究证实,在 VLA 架构中显式注入 “具身先验”(运动学结构、动力学特性等),可显著提升三维空间理解和跨本体控制能力。机器人形态本身蕴含智能,优化机械结构可将部分计算任务 “卸载” 到物理世界,降低系统复杂度。因此,具身智能是算法智能与物理智能的深度融合,两者通过闭环耦合共同构成完整的智能系统。
三、地平线的具身智能全栈布局
(一)BPU 架构与芯片基座
地平线自主研发的第六代 BPU 架构专为具身计算优化,集成 3D 感知、世界模型和运动控制加速器。星空 6P 芯片采用 5nm 车规级制程,提供 650 TOPS AI 算力和 273GB/s 内存带宽,单芯片整合自动驾驶、智能座舱及 MCU 功能,实现每车 1500-4000 元硬件降本。截至 2026 年 4 月,地平线征程系列芯片累计出货超 1000 万片,以 47.7% 的市占率蝉联自主品牌 ADAS 市场冠军。
(二)HoloBrain 与地瓜机器人生态
2026 年 2 月 13 日,地平线开源中国首个具身智能基座模型 HoloBrain-0,首创显式注入具身先验的架构,可灵活适配多种机器人形态,并推出 0.2B 参数的端侧版本。
2024 年 1 月拆分成立的独立子公司地瓜机器人,定位为机器人时代的基础设施提供商。截至 2026 年 4 月,其累计融资超 3.7 亿美元,成为连接地平线技术底座与产业应用的关键桥梁。
(三)RoboOrchard 开源基础设施
同步开放的 RoboOrchard 框架提供 “数据 – 训练 – 部署” 全链路交钥匙方案,开源核心算法及全套科研基础设施,大幅降低具身智能研发门槛,吸引全球开发者共建生态。
四、整车智能体:首个亿级规模商业化实践
智能汽车是人类历史上首个实现亿级规模商业化的具身智能系统(全球累计保有量超 14 亿辆),其高可靠性要求和复杂环境交互使其成为技术验证的最佳平台。地平线提出的 “整车智能体” 概念,通过舱驾融合架构打破传统域控制壁垒。
卡卡虾操作系统实现跨域资源调度,支持自然语言指令统一控制智驾与智舱功能。HSD V1.6 作为国内首个量产端到端智驾系统,据地平线发布会披露,目前用户选择率达 77%,智驾里程占比逼近 50% 的关键分水岭。HSD 积累的海量具身数据和工程经验,经系统适配与算法重构后可迁移至其他机器人领域,形成 “汽车先行,技术反哺” 的独特优势。
五、结论与展望
地平线的具身智能战略走出了一条差异化路径:以智能汽车为突破口,通过软硬一体全栈技术实现规模化落地,再依托地瓜机器人平台向通用机器人领域拓展。其核心优势在于:软硬协同的极致性能、汽车领域的量产验证经验、开放共赢的生态体系。
未来 3-5 年,地平线将推动舱驾融合技术和整车智能体的大规模普及,同时逐步向工业、家庭服务及人形机器人领域延伸,打造覆盖多场景的物理 AI 生态。从更长远看,地平线致力于成为“物理 AI 时代的 Wintel”,为所有物理智能体提供底层计算平台和操作系统,引领人工智能从数字世界走向物理世界的文明级跃迁。
参考文献
-
Gilday, K., et al. (2025). Embodied manipulation with past and future morphologies through an open parametric hand design. Science Robotics, 10(99), eads6437. https://www.science.org/doi/10.1126/scirobotics.ads6437 -
Zhang, Y., Tian, J., & Xiong, Q. (2025). A review of embodied intelligence systems: a three-layer framework integrating multimodal perception, world modeling, and structured strategies. Frontiers in Robotics and AI, 12. https://doi.org/10.3389/frobt.2025.1668910 -
Horizon Robotics. (2026). HoloBrain-0: An embodied vision-language-action foundation model with explicit embodied priors. arXiv preprint arXiv:2602.12062. https://arxiv.org/abs/2602.12062 -
Grand View Research. (2026). Embodied AI market size, share & trends analysis report, 2026-2033. https://www.grandviewresearch.com/industry-analysis/embodied-ai-market-report -
NVIDIA Corporation. (2026). What is embodied AI? https://www.nvidia.com/en-au/glossary/embodied-ai/ -
Brooks, R. A. (1986). A robust layered control system for a mobile robot. IEEE Journal on Robotics and Automation, 2(1), 14-23. https://ieeexplore.ieee.org/document/1087032 -
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. https://doi.org/10.1093/mind/LIX.236.433 -
Bank of America Institute. (2026). Physical AI, part 2: Humanoid robots. https://institute.bankofamerica.com/transformation/physical-ai-part-2.html -
Wang, X., et al. (2025). Embodied AI: From LLMs to world models. IEEE Circuits and Systems Magazine, 25(4), 1-18. https://doi.org/10.1109/MCAS.2025.3603693 -
Ghasemipour, S. K., et al. (2025). Self-improving embodied foundation models. Proceedings of the 39th Conference on Neural Information Processing Systems. https://openreview.net/forum?id=KXMIIVUB9U
夜雨聆风