京东联合地瓜机器人等多家企业高校,推出业内首个具身智能原子技能库架构
- 2025-02-20 10:09:00
- 刘大牛 转自文章
- 293
具身智能技术突破与应用是通向 AGI 的必经之路,目前全球科技公司正加速布局,包括 特斯拉 Optimus、 Agility Digit、 波士顿动力 Atlas 及 Figure AI 等,今年蛇年春晚机器人“扭秧歌”也成为了人们茶余饭后的谈资。随着大模型技术的进步,具身智能也迎来了快速的发展。但在国内众多企业与高校推动相关技术发展的过程中,核心挑战仍在于 具身操作泛化能力,即如何在有限具身数据下,使机器人适应复杂场景并实现技能高效迁移。
为此, 京东探索研究院李律松、李东江博士团队发起了该项目,联合 地瓜机器人秦玉森团队、中科大徐童团队、深圳大学郑琪团队、松灵机器人及睿尔曼智能吴波团队共同推进,得到了 清华 RDT 团队在 baseline 方法上的技术支持。我们提出 首个基于三轮数据驱动的原子技能库构建框架,突破传统端到端具身操作的数据瓶颈。该方法可 动态自定义和更新原子技能,并结合 数据收集与 VLA 少样本学习构建高效技能库。
实验表明,该方案在 数据效率和泛化能力方面表现卓越,这是 业内首个基于数据驱动的 具身大模型原子技能库构建框架,也是 首个面向具身产业应用的数据采集新范式。该框架旨在形成数据标准, 解决当前具身智能领域数据匮乏的问题,特别是在高校与产业之间数据和范式的流动上,从而加速具身大模型研究的推进与实际落地。
论文标题:An Atomic Skill Library Construction Method for Data-Efficient EmbodiedManipulation
原文链接:https://arxiv.org/pdf/2501.15068
具身智能,即 具身人工智能,在生成式 AI 时代迎来重要突破。通过跨模态融合,将文本、图像、语音等数据映射到统一的语义向量空间,为具身智能技术发展提供新契机。 VLA (视觉 - 语言 - 动作) 模型在数据可用性与多模态技术推动下不断取得进展。然而,现实环境的复杂性使具身操作模型在泛化性上仍面临挑战。 端到端训练依赖海量数据,会导致 “ 数据爆炸 ” 问题,限制 VLA 发展。将任务分解为可重用的 原子技能降低数据需求,但现有方法受限于固定技能集,无法动态更新。
为解决此问题,团队提出了基于 三轮数据驱动的原子技能库构建方法,可在仿真或真实环境的模型训练中减少数据需求。如图所示, VLP (视觉 - 语言 - 规划)模型将任务分解为子任务, 高级语义抽象模块将子任务定义为通用原子技能集,并通过 数据收集与 VLA 微调构建技能库。随着三轮更新策略的动态扩展,技能库不断扩增,覆盖任务范围扩大。该方法将重点从端到端技能学习转向 细颗粒度的原子技能构建,有效解决数据爆炸问题,并提升新任务适应能力。
基于三轮数据驱动的原子技能库构建与推理流程
二、为什么需要 VLP ? VLP 需要具有哪些能力?
- 从产业落地角度看,具身操作是关键模块。目前,端到端 VLA 进行高频开环控制,即便中间动作失败,仍输出下一阶段控制信号。因此,VLA 在高频控制机器人/机械臂时, 强烈依赖 VLP 提供低频智能控制,以指导阶段性动作生成,并协调任务执行节奏。
- 为统一训练与推理的任务分解,本文构建了集成视觉感知、语言理解和空间智能的 VLP Agent。如图所示,VLP Agent 接收任务指令文本与当前观察图像,并利用 Prismatic 生成场景描述。考虑到 3D 世界的复杂性,我们设计了一种空间智能感知策略:首先, Dino-X 检测任务相关物体并输出边界框;然后, SAM-2 提供精细分割掩码,并基于规则判断物体间的空间关系。最终,这些视觉与空间信息与任务指令一同输入 GPT-4,生成完整执行计划并指定下一个子任务。VLP Agent 通过该方法在原子技能库构建中有效分解端到端任务,并在推理过程中提供低频控制信号,规划并指导高频原子技能的执行。
基于空间智能信息的 VLP Agent 具身思维链框架
三、 VLA 存在的问题是什么?在框架中起什么作用?
- VLA 技术从 专用数据向通用数据演进,机器人轨迹数据已达 1M episodes 级别;模型参数规模从 千亿级向端侧部署发展;性能上,VLA 从 单一场景泛化至多场景,提升技能迁移能力。尽管端到端任务采集与训练有助于科研算法优化,但在通用机器人应用中, 人为定义端到端任务易导致任务穷尽问题。在 单任务下,物品位置泛化、背景干扰、场景变化仍是主要挑战,即便强大预训练模型仍需大量数据克服; 多任务下,数据需求呈指数级增长, 面临 “ 数据爆炸 ” 风险。
- 提出的 三轮数据驱动的原子技能库方法可结合 SOTA VLA 模型,通过高级语义抽象模块将复杂子任务映射为结构化原子技能,并结合数据收集与 VLA 少样本学习高效构建技能库。 VLA 可塑性衡量模型从多本体迁移至特定本体的能力, 泛化性则评估其应对物体、场景、空间变化的表现。以 RDT-1B 作品为例,我们基于 6000 条开源数据及 2000 条自有数据微调 VLA 模型。测试结果表明,模型在物品和场景泛化上表现优异,但在物品位置泛化方面存在一定局限,且训练步数对最终性能影响显著。为进一步优化,团队进行了两项实验包括 位置泛化能力提升及训练步长优化测试。这类 VLA 模型性能测试对于 原子技能库构建至关重要,测试结果不仅优化了 Prompt 设计,也进一步增强了 高级语义抽象模块在子任务映射与技能定义中的精准性。
- 具身操作技能学习数据源包括 互联网、仿真引擎和真实机器人数据,三者获取成本递增,数据价值依次提升。在 多任务多本体机器人技能学习中, OpenVLA 和 Pi0 依托 预训练 VLM ,再用真实轨迹数据进行模态对齐并训练技能,而 RDT-1B 直接基于 百万级机器人真实轨迹数据预训练,可适配不同本体与任务。无论模型架构如何, 真实轨迹数据仍是关键。 原子技能库的构建旨在降低数据采集成本,同时增强任务适配能力,提升具身操作的通用性,以满足产业应用需求。
- 基于数据驱动的原子技能库构建方法,结合 端到端具身操作 VLA 与 具身规划 VLP,旨在构建系统化的技能库。VLP 将 TASK A, B, C, ..., N 分解为 Sub-task #1, #2, ..., #a+1。高级语义抽象模块基于 SOTA VLA 模型测试可调整任务粒度,进一步将子任务映射为通用原子技能定义 *1, *2, ..., *b+1,并通过 数据收集与 VLA 少样本学习,构建包含 *1, *2, ..., *b+1 的原子技能库。面对新任务 TASK N+1,若所需技能已在库中,则可直接执行;若缺失,则触发 高级语义抽象模块,基于现有技能库进行原子技能定义更新,仅需对缺失的原子技能收集额外数据与 VLA 微调。随着原子技能库动态扩增,其适应任务范围不断增加。相比传统 TASK 级数据采集,提出的原子技能库所需要的数据采集量根据任务难度成指数级下降,同时提升技能适配能力。
5.1 验证问题
- 在相同物体点位下采集轨迹数据,所提方法能否以 更少数据达到端到端方法性能?
- 在收集相同数量的轨迹数据下,所提方法能否优于端到端方法?
- 面对新任务, 所提方法是否能够在不依赖或者少依赖新数据的条件下仍然有效?
- 所提方法是否适用于不同 VLA 模型,并保持有效性和效率?
5.2 实验设置
针对上述问题,我们设计了四个挑战性任务,并在 RDT-1B 和 Octo 基准模型上,以 Agilex 双臂机器人 进行测试。实验采用 端到端方法和 所提方法分别采集数据,以对比两者在数据利用效率和任务泛化能力上的表现。具体实验设置如下:
- 拿起香蕉并放入盘子
- 端到端方法:从 4 个香蕉点位和 2 个盘子点位采集 24 条轨迹。
- 所提方法:保持数据分布一致,分解为 12 条抓取香蕉轨迹和 6 条放置香蕉轨迹。
- 为匹配端到端数据量,进一步扩大采样范围,从 8 个香蕉点位采集 24 条抓取轨迹, 3 个盘子点位采集 24 条放置轨迹。
- 拿起瓶子并向杯中倒水
- 端到端方法:从 3 个瓶子点位和 3 个杯子点位采集 27 条轨迹。
- 所提方法:分解为 9 条抓取瓶子轨迹和 9 条倒水轨迹,确保数据分布一致。
- 进一步扩大采样范围,从 9 个瓶子点位采集 27 条抓取轨迹, 9 个杯子点位采集 27 条倒水轨迹。
- 拿起笔并放入笔筒
- 端到端方法:从 4 个笔点位和 2 个笔筒点位采集 24 条轨迹。
- 所提方法:分解为 12 条抓取笔轨迹和 6 条放置笔轨迹,保持数据分布一致。
- 进一步扩大采样范围,从 8 个笔点位采集 24 条抓取轨迹, 3 个笔筒点位采集 24 条放置轨迹。
- 按指定顺序抓取积木(红、绿、蓝)
- 端到端方法:采集 10 条轨迹,固定积木位置,按顺序抓取红色、绿色、蓝色积木。
- 所提方法:为匹配端到端数据量,分别采集 10 条抓取红色、绿色、蓝色积木轨迹,共 30 条。
任务定义与可视化
5.3 实验结果
前三个任务用于验证所提方法在 数据效率和 操作性能上的表现,第四个任务则评估其 新任务适应能力。为确保公平性,每种实验设置均在 Octo 和 RDT-1B 上进行 10 次测试,对比 端到端方法与 所提方法(“Ours” 和 “Ours-plus”)。如表1所示, “End-To-End”:原始端到端 VLA 方法; “Ours”:保持数据分布一致,但数据量更小; “Ours-plus”:保持数据量一致,但采集更多点位; “ID”:任务点位在训练数据分布内; “OOD”:任务点位超出训练数据分布。在第四个任务中,设定 红 - 绿 - 蓝顺序抓取积木为已知任务,并采集数据训练模型。针对 其他颜色顺序的未知任务,直接调用已训练的技能进行测试,以评估方法的泛化能力(见表 2)。结果分析如下:
Q1: 从表 1 可见, Octo 和 RDT-1B 在使用所提方法后,成功率与端到端方法相当甚至更高。在 拿起瓶子并向杯中倒水任务中, OOD 测试成功率提升 20%,表明该方法在相同点位分布下, 减少数据需求同时提升性能。
Q2: 在相同数据量下,所提方法显著提升成功率。例如,在 拿起香蕉并放入盘子任务中, OOD 情况下成功率提高 40%,归因于从更多点位采集数据,增强模型泛化能力。
Q3: 从表 2 可见, 端到端方法仅适用于已知任务,无法泛化新任务,而所提方法能通过已有技能组合 成功执行不同的新任务。
Q4: 表 1 和表 2 进一步验证, 所提方法在多种 VLA 模型上均提升数据效率、操作性能和新任务适应能力,适用于不同模型的泛化与优化。
表1:与原始端到端方法实验结果对比
表2:与原始端到端方法方块抓取任务实验结果对比
团队提出的一种基于三轮数据驱动的原子技能库构建框架,旨在解决传统端到端具身操作策略带来的“数据爆炸”问题,为具身智能产业应用提供创新解决方案。该框架具有广泛价值,可用于提升物流仓储、智能制造、医疗辅助等领域的自动化水平。例如,在医疗辅助和服务机器人领域,它能够增强自主交互能力,助力精准操作。希望此项工作能够为行业提供重要启示,促进学术界与产业界的深度合作,加速具身智能技术的实际应用。
联系人: | 透明七彩巨人 |
---|---|
Email: | weok168@gmail.com |