Skip to content

SC-VLA:通过稀疏世界想象实现在线动作纠正的自修正 VLA 框架——原理详解

论文:Self-Correcting VLA: Online Action Refinement via Sparse World Imagination

机构:同济大学、悉尼科技大学、电子科技大学、大数据高等研究院

发布时间:2026年2月

arXiv | 代码


一句话总结

SC-VLA 在 flow matching 基础策略中注入稀疏世界想象(预测任务进度和未来状态变化),并通过残差强化学习在线修正动作——想象结果自身充当密集奖励信号,无需外部奖励模型,在 ManiSkill 上实现 86% 平均成功率、157 步平均完成长度,真实机器人实验提升 14%。


一、问题与动机

1.1 VLA 的静态先验困境

标准 VLA 模型本质上是在拟合训练数据中的统计模式。它们学到的策略依赖于记忆化的数据先验,而非真正理解底层物理动力学。一旦遇到训练分布之外的情况,就容易失败。

1.2 强化学习的外部奖励依赖

RL 通过主动交互来弥补模仿学习的不足,但几乎所有 RL 方法——无论是手工设计奖励还是 VLM 合成奖励——都依赖外部奖励信号来评估策略表现。这些外部信号与模型的内部状态之间存在断裂,引入额外的计算复杂度和系统耦合。

1.3 世界动作模型的隐式预测局限

World Action Models(如 GR-MG、FLARE、WorldVLA)将动作生成和未来预测统一在同一框架中,用隐式的上下文预测约束策略行为。但它们的未来信号通常编码为隐式表征,缺少可解释的物理语义和显式的自评估机制,无法为短时域轨迹提供细粒度的修正信号。

1.4 SC-VLA 的核心立场

SC-VLA 的关键洞察是:让模型自己想象未来的任务进展和状态变化,然后用这些想象结果来指导自身动作的在线修正。奖励信号完全来自模型内部(endogenous),消除了对外部奖励模型的依赖。


二、预备知识

2.1 Flow Matching 基础策略

SC-VLA 采用 Flow Matching (FM) 作为动作生成骨架。给定观测 o,FM 学习一个条件向量场 vθ,将先验噪声 p0(x)=N(x0,I) 映射到目标动作分布 p1(x)q(ao)

训练时构造最优传输插值路径:

xt=tx1+(1t)x0

连接噪声样本 x0p0 和真实动作 x1q(ao),目标速度为 x1x0。训练目标是:

LFM(θ)=Et,x0,x1,o[vθ(xt,t,o)(x1x0)22]

推理时从噪声出发,通过求解 ODE 生成最终动作:

x1=x0+01vθ(xt,t,o)dt

用大白话说:FM 不像扩散模型那样走随机去噪路径,而是走确定性的最优传输直线,训练更高效、推理更稳定。

2.2 Soft Actor-Critic (SAC)

SC-VLA 的残差策略优化采用 SAC,一种基于最大熵 RL 的 off-policy 算法。优化目标为:

J(π)=Eτπ[t=0γt(r(st,at)+αH(π(st)))]

其中 H 是策略熵,α 是自动调节的温度参数。SAC 的核心优势是样本效率高(off-policy)且训练稳定(熵正则化平衡探索与利用)。


三、核心方法

SC-VLA 是一个两阶段框架:阶段一训练带稀疏世界想象的基础策略,阶段二用残差 RL 在线修正动作。

3.1 阶段一:稀疏世界想象(Sparse World Imagination, SPI)

3.1.1 条件信息处理

多视角图像 Ik 通过 SigLIP-2 编码器提取视觉特征,与语言指令 L 拼接后送入 Eagle-2 VLM 处理。为兼顾高层语义理解和底层控制特征,从中间层 l 提取隐藏状态作为条件信号:

omid=ΦVLM(l)(Evis(Ik),L)

直觉:不取最后一层(太抽象),也不取最前面的层(太底层),取中间层兼顾语义和控制信息。

3.1.2 查询序列构造——注入世界想象

这是 SC-VLA 最核心的设计。标准 FM 只有状态查询和动作查询,SC-VLA 在查询序列中显式注入物理预测目标

qinput=[st,qpt,qΔst,qa]

四个组件的含义:

组件维度作用
stR1×D当前本体感知状态(关节角度等)
qptR1×D预测当前任务进度 pt,提供时间演化线索
qΔstR1×D预测未来状态增量 Δst,捕捉空间位移趋势
qaR16×D生成 16 步动作轨迹

为什么叫"稀疏"想象? 相比视频世界模型生成完整的未来画面(像素级密集预测),SC-VLA 只预测两个标量/向量:一个进度值和一个 7 维状态增量。信息极其精简,但足以指导动作修正。

3.1.3 状态增量的计算

状态增量 ΔstR7 建模的是当前局部坐标系下的短期物理演化。目标时间步为 t=t+H+δ,其中 H 是执行时域,δU(Δ,Δ) 是随机时间偏移(增强鲁棒性):

Δst=[Rt(PtPt),Euler(RtRt),gtgt]

其中:

  • PR3:末端执行器位置
  • RSO(3):旋转矩阵
  • gR:夹爪开合度
  • Euler():从相对旋转矩阵提取欧拉角

用大白话说:Δst 回答的是"执行完当前这批动作后,机械臂的手会相对于现在移到哪里、转到什么角度、夹爪开合多少"。在局部坐标系下预测,泛化性更好。

3.1.4 联合优化

在 DiT 骨架的 N 个 Transformer block 中:

  • 最终 block(第 N 层) 主要建模动作分布
  • 中间 block(第 m 层) 保留了显式的世界状态表征

从第 m 层提取隐藏表征 h(m),用两个轻量 MLP head 分别预测进度和状态增量:

p^t=fprog(hpt(m)),Δs^t=fΔst(hΔst(m))

总训练目标为三项联合:

Ltotal=LFM+λ1Lprog+λ2LΔst

其中 LprogLΔst 使用 MSE 损失。

设计哲学:将物理预测放在中间层而非最终层,确保模型在生成动作之前就已经编码了短期物理演化信息。这是一种先想象、再行动的归纳偏置。

3.2 阶段二:在线动作修正(Online Action Refinement, OAR)

3.2.1 为什么需要在线修正?

阶段一的基础策略虽然编码了物理演化信息,但仍受限于离线数据。在遇到分布外扰动或精细接触时,纯离线策略容易失败。阶段二引入残差 RL 模块,在基础策略之上做最小化的在线修正

3.2.2 残差策略

残差策略 πres 的输入是稀疏世界想象观测 owR16

ow=(st,p^t,Δs^t)

最终执行动作为基础动作加残差:

at=atbase+λatres

其中 λ 是残差缩放系数。基础策略完全冻结,只优化残差网络。

关键设计:残差策略的输入不是原始视觉观测,而是稀疏想象信号。这意味着残差网络能感知基础策略的"意图"(通过 p^tΔs^t),从而做出与基础策略方向一致的局部调整,避免在原始高维观测空间中盲目探索。

这一设计遵循 Policy Decorator 的思路——残差模块是轻量 MLP,推理开销极低。

3.2.3 内生密集奖励

这是 SC-VLA 与其他残差 RL 方法的关键区别:密集奖励完全来自模型自身的想象,无需外部奖励模型

利用预测的短期状态增量 Δs^t 的前三维(位移分量 Δs^tposR3),定义短期目标位置:

Pgoal=Pt+Δs^tpos

执行残差动作后,根据实际位移与预测方向的一致性计算导向奖励:

rtguide=(Pt+nPt)(PgoalPt)Pt+nPtPgoalPt+ϵ

其中 Pt+n 是执行动作 n 步后的实际末端位置(n<H)。

用大白话说:这个奖励衡量的是**"机械臂实际移动的方向"与"基础策略想象它应该移动的方向"之间的夹角余弦**。

  • 方向一致(rguide1):残差修正做得好,保持了基础策略的意图
  • 方向偏离(rguide0):残差修正偏离了轨道
  • 方向相反(rguide<0):残差修正在帮倒忙

3.2.4 动态权重调度

固定的预测先验在任务后期的精细接触阶段可能因分布偏移而失效。SC-VLA 用预测的任务进度 p^t 作为调度信号,让预测引导在任务早期主导、后期逐渐弱化:

rtfinal=η(p^t)wguidertguide+rtenvc

其中:

  • η():关于进度单调递减的调度函数
  • wguide:导向权重(固定为 0.6)
  • rtenv:环境稀疏奖励
  • c:每步时间惩罚

直觉:任务初期(如"伸手去抓"),想象的方向信号很有用,应该大力引导。任务后期(如"精确插入"),需要依赖环境的实际反馈而非预测先验,因此降低想象引导的权重。

3.2.5 三阶段训练协议

为保证从冻结基础策略到残差 RL 的平稳过渡,SC-VLA 使用三阶段训练:

  1. Buffer 预热λ=0,纯基础策略采集高质量轨迹填充 replay buffer
  2. 残差注入λ 从 0 线性升至目标值,让 RL 模块逐步接入
  3. 正式训练λ 固定,SAC 正式优化残差策略

这个设计防止初始随机的残差策略突然破坏基础策略的控制回路。


四、实验结果

4.1 实验设置

仿真平台:ManiSkill3(基于 SAPIEN),包含四个高精度操作任务:

任务描述最大步数
StackCube抓取方块并稳定堆叠到另一个方块上800
PlaceSphere拾取球体放到目标位置(球体易滚动)500
LiftPegUpright抓取横躺的钉子并竖直立起(需精确角度控制)800
PegInsertion精确将钉子插入孔中(小容差插入)800

每个任务 100 条演示训练,50 个 episode 评估。

基线方法:Diffusion Policy (DP)、ACT、π0、GR00T N1.5

4.2 主要结果:成功率

方法StackCubePlaceSphereLiftPegUprightPegInsertion平均
DP (多任务)0.460.900.100.000.36
DP (单任务)0.881.000.800.400.77
ACT (多任务)0.500.880.600.120.52
ACT (单任务)0.640.900.460.040.51
π00.660.860.480.220.55
GR00T N1.50.781.000.720.400.72
SC-VLA (SPI)0.961.000.820.500.82
SC-VLA (SPI+OAR)1.001.000.880.560.86

关键观察

  1. 仅加稀疏想象(SPI) 就将平均成功率从 72%(GR00T N1.5)提升到 82%(+10%),说明预测进度和状态增量本身就增强了物理一致性
  2. 加上在线修正(OAR) 进一步提升到 86%(+4%),在 StackCube 上达到完美 100%
  3. 在最具挑战性的 PegInsertion 上,SC-VLA (SPI) 相比 π0 提升 28%,相比 GR00T N1.5 提升 10%

4.3 主要结果:执行效率(成功 episode 平均步数)

方法StackCubePlaceSphereLiftPegUprightPegInsertion平均
π0265179331331276
GR00T N1.5192122209257195
SC-VLA (SPI)169128190262187
SC-VLA (SPI+OAR)158110189173157

SC-VLA 实现了最短的平均完成长度 157 步

  • π0 减少 43%
  • 比 DP 减少 8%
  • PegInsertion 上步数从 262 降到 173(OAR 贡献 -34%),说明残差修正在精密任务上显著提高了执行效率

4.4 消融实验

想象组件消融

变体StackCubePlaceSphereLiftPegUprightPegInsertion平均
w/o 状态增量0.881.000.840.420.78
w/o 进度预测0.921.000.800.500.80
w/o 两者0.781.000.720.400.72
SC-VLA (SPI)0.961.000.820.500.82

关键发现

  • 状态增量比进度预测更重要:去掉状态增量后 PegInsertion 从 50%→42%(-8%),StackCube 从 96%→88%(-8%);去掉进度只有轻微下降
  • 两者互补:同时去掉后平均成功率跌回 72%(等于无想象的 GR00T N1.5 基线),比任何单独去掉的情况都差得多
  • 状态增量提供空间方向约束,对接触敏感任务至关重要;进度预测提供时间一致性,对多阶段任务有帮助

想象奖励与动态权重消融

从论文 Figure 4 的学习曲线可以看到:

  • 去掉想象奖励:在简单任务(PlaceSphere)上差别不大,但在复杂任务(PegInsertion)上是灾难性的——平均步数从 650 涨到 800,模型陷入探索瓶颈
  • 用固定权重替代动态调度:在精密任务(PlaceSphere、PegInsertion)上出现严重的后期退化——固定的预测先验在精细操作阶段反而干扰策略,导致步数发散或停滞在次优解

4.5 真实机器人实验

在 ARX5 机械臂上测试,每任务 60 条演示训练,20 次试验评估:

方法StackCubePlaceSpherePushCubePegInsertion平均
DP (多任务)0.300.400.450.000.28
GR00T N1.50.750.450.800.300.57
SC-VLA (SPI)0.850.601.000.400.71

SC-VLA (SPI) 相比 GR00T N1.5 平均提升 14%,相比 DP 提升 43%。在 PushCube 上达到完美 100%。

注:真实世界仅测试了阶段一(SPI),未使用阶段二的在线 RL 修正,因为真实世界的密集奖励设计困难。


五、局限性与未来方向

5.1 真实世界的在线修正缺失

OAR 阶段需要环境交互和密集奖励,目前仅在仿真中验证。如何将基于想象的密集奖励迁移到真实机器人上是一个重要的未来方向。

5.2 稀疏想象的信息瓶颈

只预测进度标量和 7 维状态增量,信息量远少于视频世界模型。在需要全局场景理解的复杂任务中,稀疏想象可能不足以提供充分的约束。

5.3 SAC 的限制

SAC 虽然 off-policy 且样本高效,但在高维动作空间中的探索能力有限。论文中 PegInsertion 任务需要 3M 环境步才能收敛,计算成本不低。

5.4 进度预测的监督信号

进度 pt 的标签隐式假设任务沿时间轴单调推进。对于需要回退或重试的任务,这种线性进度假设可能不合适。


六、个人思考

6.1 与 RISE 的路线对比

SC-VLA 和 RISE 都使用了"想象"来增强 VLA,但哲学截然不同:

维度RISESC-VLA
想象形式密集(视频世界模型生成完整画面)稀疏(只预测进度 + 状态增量)
想象用途作为 RL 环境的替代品作为策略的辅助预测目标 + 内生奖励源
RL 算法优势条件化离线 RLSAC 在线残差 RL
推理开销零(世界模型仅训练时使用)极低(轻量残差 MLP)
计算成本高(16×H100 训练世界模型 7 天)低(单 GPU 训练基础模型 + 残差策略)

RISE 追求在想象空间中做完整的策略优化(重量级方案),SC-VLA 追求用最小化的想象信号做局部修正(轻量级方案)。两者代表了世界模型用于 VLA 改进的两个极端。

6.2 与 PLD / Policy Decorator 的联系

SC-VLA 的阶段二本质上是 Policy Decorator 的思路——冻结基础策略,训练轻量残差模块。与 PLD 的区别在于:

  • PLD 的残差策略以原始状态为输入,用环境奖励训练
  • SC-VLA 的残差策略以想象信号为输入,用内生奖励训练

SC-VLA 的方案更加自洽——残差模块不仅知道"环境当前是什么样",还知道"基础策略打算做什么"(通过 p^tΔs^t)。

6.3 内生奖励的启发性

SC-VLA 最大的贡献可能是"用模型自身的想象作为奖励"这个理念。余弦相似度奖励(公式 14)的设计非常简洁——只需要预测位移方向,然后检查实际是否朝这个方向走。这比 VLM 合成奖励、进度价值函数等方案轻量得多,且与策略内部状态天然对齐。

6.4 动态权重调度的普适性

用任务进度调度引导强度的设计思路(公式 15)可以推广到其他引导式 RL 场景:任何先验引导信号(演示、偏好、VLM 反馈)都可能在任务后期产生干扰,用进度感知的衰减机制来缓解这个问题。


参考