being-h0.5 是卢宗青团队研发的新一代通用具身智能模型,以人类先验知识为根基,通过统一动作空间对齐、端到端系统化建模与真实部署稳定性强化,推动通用机器人从实验室走向实际产品落地。该模型深度融合超35,000小时的跨模态操控数据(unihand-2.0),覆盖30余种异构机器人本体(含双足人形、轮式底盘、桌面机械臂、灵巧手等),首次实现大规模跨形态联合训练与策略复用。其核心突破在于:摒弃传统“一机一模型”范式,构建可泛化的state-action语义空间;采用mot(理解导向)与mof(生成导向)协同架构,在libero基准达98.9%成功率,在robocasa厨房任务中领先同类;并引入mpg(流形保持门控)与uac(通用异步分块)两大部署机制,显著抑制抖动、缓解感知-控制失同步,在orin-nx等边缘芯片上实现实时运行。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Being-H0.5的主要功能
- 跨本体泛化能力:单模型一次训练即可部署于5类以上差异显著的机器人硬件,支持从夹爪到22自由度灵巧手的无缝迁移。
- 长程任务鲁棒性:在清桌、多步骤收纳等持续超百步的任务中误差累积率下降62%,显著优于前代H0及π系列模型。
- 双臂高精度协同:通过时空耦合建模与双流动作解码,实现亚秒级响应同步与毫米级轨迹对齐,双臂装配成功率提升至93.7%。
- 低资源适配效率:仅需微调2%参数,即可在新硬件上达到90%+相对性能,配合Being-Dex后训练方案,数小时内完成新任务冷启动。
- 端侧实时可用性:经推理优化后,在英伟达Orin-NX平台达成>30Hz控制频率,满足真实闭环系统严苛时序要求。
Being-H0.5的技术原理
- 统一State-Action空间映射:将不同本体的状态观测(如关节角、IMU、触觉)与动作指令(扭矩、速度、末端位姿)统一编码为共享嵌入向量,消除硬件特异性偏差,支撑跨形态知识迁移。
- UniHand-2.0数据集驱动:整合14,000小时机器人遥操作数据 + 16,000小时高质量人类操作视频(含UniCraftor采集系统标注),总token超4000亿,是当前全球规模最大的具身预训练数据集。
- Human-Centric Learning范式:以人类手部为“原型操纵器”,将机器人视为其结构简化版本,通过16,000小时人类视频注入运动直觉、力觉反馈与任务意图先验。
- MoT+MoF混合架构:MoT模块专注多模态指令理解与任务分解;MoF模块基于Flow-based生成机制,支持从粗粒度位姿规划到细粒度关节轨迹的连续建模,兼顾灵活性与精度。
-
真实世界闭环保障机制:
- MPG(Manifold-Preserving Gating):在隐空间施加流形约束门控,过滤违背物理规律或人体工学的动作输出,防止失控震荡;
- UAC(Universal Async Chunking):动态缓冲感知帧与控制周期,自适应插值与裁剪动作序列,解决视觉延迟与电机响应不匹配问题。
- 物理指令调优(Physical Instruction Tuning)延续演进:在H0三阶段框架(预训练→物理空间对齐→后训练)基础上,增强3D运动分布平衡与跨本体投影一致性,提升迁移保真度。
Being-H0.5的项目地址
- GitHub仓库:https://www.php.cn/link/d82ced4d399f271c1f206b76f8e6a893
- HuggingFace模型库:https://www.php.cn/link/c107ef1475295a6d8ff7bfb204c96c7d
- arXiv技术论文:https://www.php.cn/link/1c1301c08087063e5a68e6616acc0ed1
Being-H0.5的应用场景
- 工业柔性产线:驱动不同品牌/型号的协作机械臂完成混线装配、精密检测与自适应抓取,降低产线换型成本。
- 家庭服务机器人:在非结构化居家环境中执行整理桌面、开柜取物、餐具归位等长程任务,适配多样化家具与物品形态。
- 手术辅助系统:为微创手术机器人提供高稳定性、低延迟的手眼协调能力,支持器械末端亚毫米级定位与力反馈闭环。
- 智能仓储物流:统一调度AGV+机械臂+夹爪组合,实现异形包裹识别、动态码垛与跨货架搬运,提升分拣吞吐量。
- 高校与研究所平台:作为开源基座模型,支撑具身学习、多智能体协同、仿真-真实迁移等前沿课题验证,加速算法迭代。










