EmbodiChain开源,用100%生?成式数据自动训练具身智能模型

  更新时间:2026-01-20 19:44   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

com/DexForce/EmbodiChain 技GS-World 与 EmbodiChain 今天在 EmbodiChain 的架构中

<p class="f_center"><br><br></p> <p id="48N2VTI9" style="text-align:center;">机器)之心发!布</p> <p></p> <ul> 论文地址: https://www.techrxiv.org/doi/full/10.36227/techrxiv.176153394.41323502 开源主页: https://dexforce.com/embodichain/index.html#/ 代码仓库: https://github.com/DexForce/EmbodiChain 技术文档: https://dexforce.github.io/EmbodiChain/introduction.html </ul> <p id="48N2VTIA">大语言模型的爆发,让大家见证了 Scaling Law 的威力:只要数据够多、算力够猛,智能似乎就会自动涌现。但在机器人领域,这个公式似乎失效了。</p> <p></p> <ul> 在 LLM 时代,数据是「存量」,我们只需要负责「清洗」; 在具身智能时代,数据必须是「增量」,我们必须具备「创造」数据的能力。 </ul> <p id="48N2VTIB">不同于互联网上唾手可得的万亿级文本,机器人所需的、经过 3D 标定且符合物理规律的高质量交互数据,极度稀缺且昂贵。正因如此,数据采集范式成为了近年来行业研究的绝对焦点。</p> <p id="48N2VTIC"><strong>可以看到,整个行业正在向着更低成本、更便捷的方向全速推进:</strong>从昂贵的遥操设备,到基于动捕手套的灵巧手捕捉和更加便携式的夹爪方案,再到如今甚至不再需要佩戴手套、仅凭双手演示即可采集数据的创新方案。<strong>这些轻量化的数采范式正在将人类的经验数字化,这一路径不仅充满价值,更值得持续深耕,它是连接人类技能与机器人动作的桥梁。</strong></p> <p id="48N2VTID">整个行业在将具身智能推向大模型时代的这个目标上狂奔。</p> <p id="48N2VTIE">但是,即使是最极致的采集效率,客观上仍受限于物理时间的流逝和人力成本的边界。当下没有任何现有的物理采集范式,能匹配 LLM 训练所需的「互联网级」规模。这成为了具身智能迈向更高阶智能的最大桎梏。</p> <p id="48N2VTIF" style="text-align:center;"><strong>效率定律</strong></p> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p id="48N2VTIJ">效率定律 (Efficiency Law) 下模型性能与数据生成速率的关系</p> <p id="48N2VTIK">要跨越这个鸿沟,除了物理采集的持续精进,另一种极具潜力的解决方式,就是<strong>构建一个能够超高速、自动化生成物理现实的数字世界</strong>(跨维智能团队在《GS-World》中详述了这一路径)。</p> <p class="f_center"><br><br></p> <p id="48N2VTIM">在这个基于物理引擎的生成式世界中,数据的生成速率超越了时间的限制(Efficiency Law);机器人可以在零成本的试错中习得对物理因果的深刻理解;所有的边缘情况(Corner Cases)都可以在这里被模拟、被攻克。</p> <p id="48N2VTIN" style="text-align:center;"><strong>GS-World 与 EmbodiChain</strong></p> <p id="48N2VTIO">今天,跨维智能正式开源 EmbodiChain。作为通往<strong>GS-World(基于生成式仿真的世界模型)</strong>的基石,EmbodiChain 不仅仅是一个数据和模型平台,更是一次对具身智能学习范式的重构。</p> <p id="48N2VTIP">跨维团队提出并验证一个大胆的假设:<strong>仅凭 100% 的生成式仿真数据,只要生成速率(Rate of Generation)突破临界点,机器人就能在真实世界中涌现出超越 SOTA 的泛化能力。</strong></p> <p id="48N2VTIQ">这不是科幻,这就是跨维正在验证的<strong>效率定律(Efficiency Law)。</strong></p> <p id="48N2VTIS">然而,要将 GS-World 从蓝图变为现实,绝非易事。跨维研究团队必须面对并攻克<strong>三个核心科学难题,</strong>这也是 EmbodiChain 致力于解决的关键:</p> <p></p> <ol> <strong>如何实现数据生产自动化?</strong> 真实世界极其复杂,如何仅凭少量先验(如一段视频、一句描述),就在数字世界中自动重建、生成海量且物理一致的场景与任务,而无需人工手动搭建? <strong>如何打破「虚实鸿沟」(Sim2Real Gap)?</strong> 仿真数据再多,如果不能迁移到真机也是徒劳。如何在不依赖或尽量少依赖真实数据微调的情况下,让模型习得适应真实世界噪声与动态变化的鲁棒策略? <strong>如何突破数据生成的「IO 墙」?</strong> Scaling 需要亿级甚至十亿级的交互步数。传统的「生成 - 存储 - 读取 - 训练」模式效率极低。如何构建极致高效的数据流转机制,实现「在线数据流」? </ol> <p id="48N2VTIT" style="text-align:center;"><strong>EmbodiChain:一条永不停歇的「在线数据流和模型生产线」</strong></p> <p id="48N2VTIU">为了实现这一愿景,跨维智能构建了<strong>GS-World(Generative Simulation World Model,生成式仿真世界模型)</strong>的核心基石 ——EmbodiChain。</p> <p id="48N2VTIV">EmbodiChain 作为一个底层的基建技术,可以把它看作<strong>去存储化的数字化流水线。</strong>Scaling 需要亿级甚至十亿级的交互步数,传统的「生成 - 存储 - 读取 - 训练」模式在面对海量 3D 数据时,存储与传输将成为不可承受之重。</p> <p id="48N2VTJ0">在 EmbodiChain 的架构中,可以彻底抛弃「先存硬盘、再读硬盘」的陈旧范式,取而代之的是在线数据流(Online Data Streaming)和模型自动生产线。</p> <p class="f_center"><br><br></p> <p id="48N2VTJ2">EmbodiChain 的核心工作流。数据在生成的同时即被消费,橘色的数据流贯穿全场,无需落地存储。</p> <p id="48N2VTJ3">这条流水线是如何工作的?</p> <p></p> <ul> <strong>世界生成(Generative Simulation):</strong>引擎不仅是环境,更是造物主。Real2Sim 模块从极少的真实样本中提取物理先验,Gen2Sim 模块则响应语言指令,自动构建出符合牛顿力学等物理规律的 3D 场景与资产。 <strong>数据扩增(Data Scaling):</strong>数据不仅要多,还要「难」。系统自动进行视觉增强、物理参数随机化,并剔除那些机器人「够不着」的无效采样。 <strong>自我修复(Closed-loop Recovery):</strong>真正的智能来自于从错误中学习。当仿真中的机器人抓取失败,系统会自动生成修正轨迹。这种「失败 - 修正」的闭环,比单纯的成功演示更有价值。 </ul> <p id="48N2VTJ4">这一切都在 GPU 内部并行高速运转,数据如洪流般产生,训练完即销毁,不留下一丝冗余,只留下模型能力的增长。</p> <p id="48N2VTJ5" style="text-align:center;"><strong>路线之争:机器人需要的是物理精确的生成式模型</strong></p> <p id="48N2VTJ6">在通往具身智能世界模型的路上,目前存在两条截然不同的路线。</p> <p id="48N2VTJ7">一条是近期火热的<strong>视频生成路线(Video World Model),</strong>如 Sora 或 LTX-Video,它们试图通过「画出」下一帧来模拟世界。虽然视觉效果惊艳,但一些对比实验揭示了其致命弱点:<strong>幻觉。</strong></p> <p id="48N2VTJ8">视频模型生成的画面往往缺乏长程的时空一致性,且很难精确遵循动力学方程。用这种「做梦」产生的数据训练机器人,就像让一个飞行员在爱丽丝的仙境中学习开飞机 —— 看着很美,一上真机就坠毁。</p> <p id="48N2VTJ9">相反,EmbodiChain 选择的是<strong>GS-World 路线(基于生成式仿真的世界模型)。</strong></p> <p></p> <ul> <strong>物理先验(Physical Priors):</strong>跨维智能坚持世界模型必须是 3D 的、交互式的、物理严谨的。 <strong>特权信息(Privileged Information):</strong>在 EmbodiChain 中,使用者拥有上帝视角。比如使用者能够获取物体的精确掩码、空间关系和可供性(Affordance)。通过训练模型预测这些真实世界中不可见的「特权信息」,迫使模型理解了场景背后的<strong>几何本质,</strong>而不仅仅是表面的像素。 </ul> <p id="48N2VTJA">这正是 Yann LeCun 所倡导的理念:<strong>世界模型应该是对世界状态的预测与规划。</strong></p> <p class="f_center"><br><br></p> <p id="48N2VTJC">EmbodiChain中可以获取的特权信息示例</p> <p id="48N2VTJD" style="text-align:center;"><strong>零真实数据,VLA 真的可行吗?</strong></p> <p id="48N2VTJE">为了验证这套「效率定律」,跨维智能做了一件极端的测试:<strong>不使用任何真实数据训练模型。</strong></p> <p id="48N2VTJF">跨维智能训练出的 Sim2Real-VLA 模型,在真实世界中执行任务。结果令人惊讶:</p> <p></p> <ul> <strong>远超基线:</strong>在没有任何真实数据微调的情况下,它在操作成功率上大幅领先 ACT、Diffusion Policy 等主流方法。 <strong>无惧干扰:</strong>即使跨维智能像「捣乱者」一样更换桌布、移动物体、改变光照,模型依然稳如泰山。甚至在某些任务中,由于去除了真实数据中容易过拟合的背景噪声,模型的表现反而比用真实数据训练还要好。 </ul> <p class="f_center"><br><br></p> <p class="f_center"><br><br></p> <p id="48N2VTJJ">Sim2Real-VLA 在全生成数据训练下,不仅击败了 SOTA,更展现了惊人的鲁棒性。</p> <p id="48N2VTJK" style="text-align:center;"><strong>愿景:通往 GS-World 的「效率奇点」</strong></p> <p id="48N2VTJL">EmbodiChain 的开源,只是一个开始。</p> <p id="48N2VTJM">GS-World 蓝图远不止于此。在跨维智能的规划中,<strong>这是一个引擎驱动的闭环路径(Engine-driven Loop):</strong></p> <p></p> <ul> 不仅环境是生成的,任务也是生成的; 不仅策略是进化的,机器人的身体结构(Morphology)也会随着任务需求协同进化。 </ul> <p id="48N2VTJN">跨维智能希望 EmbodiChain 能成为每一位具身智能研究者的基础设施。不需要再为了几千条数据而在实验室里没日没夜地遥操作,不需要再为几十 TB 的硬盘存储发愁。</p> <p id="48N2VTJO">因为智能的未来,不应该被困在数据的匮乏中。</p> <p id="48N2VTJP">EmbodiChain 现已开源,邀请你一起见证具身智能的「效率奇点」。</p> <p id="48N2VTJQ">文中视频链接:https://mp.weixin.qq.com/s/IGe1myOEmAW7JOrQyBLhBA</p>

编辑:具子成