mDPO:面向多模态大语言模型的条件偏好优化
论文:mDPO: Conditional Preference Optimization for Multimodal Large Language Models
作者:Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
机构:University of Southern California, University of California Davis, Microsoft Research
发布时间:2024年6月
论文链接:arXiv
发表会议:EMNLP 2024
分类标签:
MLLMDPOConditional PreferenceReward AnchorHallucinationMultimodal Alignment
一句话总结
发现多模态 DPO 存在无条件偏好问题(移除图像后 DPO 效果几乎不变),提出 mDPO:在标准 DPO 基础上增加图像条件偏好优化(对比原图与裁剪图的偏好)和锚定偏好优化(强制 chosen 响应的隐式奖励为正),3B 模型 + 10K 偏好数据即可媲美 7B + 80K 数据的 DPO 效果,CHAIR
一、问题与动机
1.1 多模态 DPO 的困境
DPO 在纯文本 LLM 对齐中表现优异,但直接迁移到多模态场景时效果不稳定,甚至可能加剧幻觉。已有工作多将此归因于偏好数据质量不足,但本文从优化目标本身的角度揭示了更根本的原因。
1.2 关键实验:无条件偏好问题
论文设计了一个对照实验——DPO (No Image),即在偏好数据中移除所有图像,仅保留文本进行 DPO 训练。结果令人意外:
| 方法 | MMHalBench Score ↑ |
|---|---|
| No DPO (Bunny-3B) | ~2.1 |
| DPO | ~2.2 |
| DPO (No Image) | ~2.2 |
| mDPO | ~2.9 |
DPO (No Image) 与标准 DPO 效果几乎相同,说明 DPO 在优化过程中实际上忽略了图像条件,仅学习了语言层面的偏好——这就是**无条件偏好(unconditional preference)**问题。
1.3 问题根源分析
理论上,多模态 DPO 期望最大化:
即隐式奖励应同时依赖图像
二、预备知识
2.1 DPO 回顾
给定策略模型
基于 Bradley-Terry 模型,DPO 损失为:
2.2 多模态 DPO
在多模态场景下,每个偏好实例额外包含图像
问题在于:虽然公式中
三、核心方法
mDPO 在标准多模态 DPO 基础上引入两个额外的优化目标:条件偏好优化(CoPO) 和锚定偏好优化(AncPO)。
3.1 条件偏好优化(Conditional Preference Optimization)
核心思想:构造图像是唯一变量的偏好对,迫使模型基于视觉信息判断偏好。
给定元组
直觉:固定问题和回答,仅改变图像——原图
拒绝图像的构造策略
| 策略 | MMHalBench Score | HalRate | CHAIR | CHAIR |
|---|---|---|---|---|
| 随机图像 | 2.81 | 0.46 | 40.7 | 6.6 |
| 裁剪 0-20% | 2.96 | 0.42 | 27.0 | 4.6 |
| 裁剪 20%-50% | 2.92 | 0.42 | 33.7 | 5.4 |
| MoCo v2 增强 | 2.82 | 0.44 | 32.3 | 5.9 |
最优策略是随机裁剪原图的 0-20%——保留大部分原始内容但丢失部分关键视觉信息,形成有效的困难负样本。随机图像过于容易区分,MoCo v2 增强生成的图像与原图过于相似。
3.2 锚定偏好优化(Anchored Preference Optimization)
DPO 的另一个内在问题:它只学习相对偏好,可能在拉大 chosen/rejected 间奖励差距的同时,降低 chosen 响应本身的似然。这在多模态场景中尤为突出。
锚定偏好优化通过强制 chosen 响应的隐式奖励高于锚点值
即要求
3.3 完整目标
mDPO 的最终损失是三项之和:
三个目标协同作用:
| 目标 | 最大化 | 作用 |
|---|---|---|
| 标准响应偏好学习 | ||
| 强制利用视觉信息 | ||
| 防止 chosen 似然下降 |
四、实验结果
4.1 实验设置
- 模型:Bunny-v1.0-3B(SigLIP + Phi-2)、LLaVA-v1.5-7B(CLIP + Vicuna)
- 偏好数据:10K 样本,采样自 Silkie 数据集(LLaVA-Instruct 子集)
- 训练:3 epochs,batch size 32,lr 1e-5,LoRA(α=128, rank=64),
, - 评估:MMHalBench、Object HalBench(CHAIR)、AMBER
4.2 主实验
Bunny-v1.0-3B
| 方法 | MMHalBench Score ↑ | HalRate ↓ | CHAIR | CHAIR | AMBER CHAIR | Cover. ↑ | HalRate ↓ |
|---|---|---|---|---|---|---|---|
| Bunny-3B | 2.11 | 0.58 | 43.0 | 8.9 | 9.8 | 75.6 | 64.9 |
| + DPO | 2.28 | 0.56 | 44.3 | 7.6 | 7.9 | 74.1 | 58.9 |
| + mDPO | 2.96 | 0.42 | 27.0 | 4.6 | 4.9 | 67.4 | 37.7 |
LLaVA-v1.5-7B
| 方法 | MMHalBench Score ↑ | HalRate ↓ | CHAIR | CHAIR | AMBER CHAIR | Cover. ↑ | HalRate ↓ |
|---|---|---|---|---|---|---|---|
| LLaVA-1.5-7B | 2.19 | 0.57 | 54.7 | 15.9 | 7.4 | 51.8 | 34.7 |
| + DPO | 2.14 | 0.65 | 49.0 | 13.0 | 6.5 | 55.1 | 34.5 |
| + mDPO | 2.39 | 0.54 | 35.7 | 9.8 | 4.4 | 52.4 | 24.5 |
关键观察:
- DPO 在 LLaVA-7B 上反而降低性能(Score 从 2.19 降至 2.14,HalRate 从 0.57 升至 0.65),直接印证无条件偏好问题
- mDPO 在两个模型上均一致提升:Bunny-3B CHAIR
降低 37%(43.0→27.0),LLaVA-7B CHAIR 降低 35%(54.7→35.7) - 3B + 10K 媲美 7B + 80K:Bunny-3B + mDPO(Score 2.96)接近 Qwen-VL-Chat + Silkie-80K DPO(Score 3.01),后者数据量是前者的 8 倍
4.3 参考对比
论文还列出了同期其他方法在 LLaVA-v1.5-7B 上的效果(非直接可比,因基线/数据/方法不同):
| 方法 | MMHalBench Score ↑ | HalRate ↓ | Object HalBench CHAIR |
|---|---|---|---|
| + OPERA | 2.15 | 0.54 | 45.1 |
| + VCD | 2.12 | 0.54 | 48.8 |
| + HA-DPO | 1.97 | 0.60 | 39.9 |
| + HALVA | 2.25 | 0.54 | - |
| + HSA-DPO (13B) | 2.61 | 0.48 | 5.2 |
| + RLHF-V (13B) | 2.81 | 0.49 | 12.2 |
4.4 消融实验
| 配置 | MMHalBench Score | HalRate | CHAIR | CHAIR |
|---|---|---|---|---|
| mDPO(完整) | 2.96 | 0.42 | 27.0 | 4.6 |
| - conditional(去掉 CoPO) | 2.36 | 0.53 | 40.3 | 7.1 |
| - anchored(去掉 AncPO) | 2.50 | 0.48 | 34.3 | 5.7 |
| - both(即标准 DPO) | 2.28 | 0.56 | 44.3 | 7.6 |
- CoPO 是核心:去掉 CoPO 后性能大幅下降(Score 2.96→2.36),远大于去掉 AncPO 的影响(2.96→2.50)
- 两者结合效果最佳,AncPO 提供额外正则化但单独作用有限
4.5 锚点策略对比
| 锚点配置 | MMHalBench Score | HalRate | CHAIR | CHAIR |
|---|---|---|---|---|
| 仅 | 2.96 | 0.42 | 27.0 | 4.6 |
| 2.98 | 0.39 | 29.3 | 5.0 | |
| 2.85 | 0.40 | 34.7 | 6.1 |
仅对 chosen 响应加锚点即可,额外对 rejected 响应或 rejected 图像加锚点反而可能增加训练复杂度。
4.6 数据规模效应
在 1K/5K/10K 三个规模上对比 DPO 和 mDPO:
- mDPO 随数据规模持续提升,表现出良好的 scaling 特性
- DPO 在多模态场景中不具有 scaling 效应,增加数据量无法弥补其忽略视觉模态的缺陷
4.7 细粒度分析
MMHalBench 八类问题中,mDPO 在六类上优于 DPO,特别是在对抗性问题(adversarial) 上提升最为显著(DPO: 1.50 → mDPO: 4.17)——mDPO 能识别问题中关于图像的错误前提并予以纠正,而 DPO 倾向于不加验证地接受问题描述。
4.8 人类评估
在 MMHalBench 上进行人工评估:mDPO 在 34% 的样本上优于 DPO,55% 持平,仅 11% 不如 DPO。整体来看,mDPO 在 89% 的样本上不劣于 DPO。
五、局限性与未来方向
- 模型覆盖有限:仅在 3B 和 7B 两个规模上验证,更大模型和不同架构上的效果未知
- 与其他改进正交但未组合验证:CoPO 和 AncPO 原则上可与其他偏好数据增强方法(如更好的数据构造、更强的奖励模型)组合,但论文未进行此类实验
- 评估基准有限:三个幻觉基准虽然广泛使用,但未覆盖更丰富的真实场景
- 拒绝图像构造较简单:随机裁剪 0-20% 虽然有效,但更精细的视觉信息降质策略可能进一步提升效果
六、个人思考
6.1 无条件偏好问题的深刻性
mDPO 最大的贡献在于发现并命名了无条件偏好问题——这是一个优美的实验设计:仅仅移除图像就能揭示 DPO 在多模态场景中的根本缺陷。这说明偏好数据中 chosen/rejected 响应的文本差异本身就足以驱动优化,图像信息在 DPO 目标中是"可选的"。这一观察对所有多输入组件的偏好优化场景都有警示意义。
6.2 与项目中其他偏好优化方法的对比
| 维度 | mDPO | CSR | SENTINEL |
|---|---|---|---|
| 核心问题 | DPO 忽略图像条件 | 自奖励忽略视觉模态 | 幻觉在生成早期萌发 |
| 解决思路 | 图像对比偏好对 + 奖励锚定 | CLIP 校准自奖励 + 迭代 DPO | 句子级域内偏好 + C-DPO |
| 是否需要额外模型 | 否 | CLIP(已内含于 VLM) | 开放词汇检测器 |
| 偏好数据来源 | 外部(Silkie) | 自生成 | 自生成 |
| 训练方式 | 单轮 DPO | 三轮迭代 | 单轮 DPO |
| 核心洞察 | 从优化目标层面修复 | 从奖励信号层面修复 | 从偏好数据粒度层面修复 |
三者从不同角度解决多模态偏好优化的不足:mDPO 修改目标函数,CSR 修改奖励信号,SENTINEL 修改数据构造方式,三者可能互补。
6.3 与解码时方法的互补性
mDPO 是训练时方法,与 OPERA(Beam Search 惩罚)、HALC(FOV 对比解码)、ICD(指令对比解码)等 training-free 解码方法互补。实际上,Table 1 中 OPERA 在 LLaVA-7B 上的 MMHalBench Score(2.15)不如 mDPO(2.39),但两者完全可以叠加使用。
6.4 CoPO 的通用性
论文指出条件偏好优化的思想适用于任何多输入组件的偏好优化场景——当偏好目标可以被部分输入满足时,都存在"无条件偏好"的风险。例如在多轮对话、多文档 QA 等场景中,DPO 可能忽略部分上下文。这是一个值得进一步探索的方向。
6.5 拒绝图像构造的启发
随机裁剪 0-20% 作为困难负样本的策略简单但有效——类似于对比学习中困难负样本的设计直觉。这与 HIO 中"反转 BT 模型精准诱导幻觉"的思路形成对比:HIO 在语言端构造困难负样本(精准放大幻觉),mDPO 在视觉端构造困难负样本(轻微裁剪图像)。
参考
- DPO (Rafailov et al., 2023):直接偏好优化,mDPO 的基础目标
- Silkie (Li et al., 2023):80K 多模态偏好数据集,mDPO 的数据来源
- HA-DPO (Zhao et al., 2023):幻觉感知的多模态 DPO,与 mDPO 同期工作
- RLHF-V (Yu et al., 2024a):细粒度人工纠正 + 密集 DPO,Table 1 参考基线
- HSA-DPO (Xiao et al., 2024):细粒度 AI 反馈检测和缓解幻觉,Table 1 参考基线
- OPERA (Huang et al., 2024):注意力聚合模式 + Beam Search 惩罚,Table 1 中的对比方法
- CSR (Zhou et al., 2024):CLIP 校准自奖励迭代 DPO,从奖励信号角度解决类似问题
- SENTINEL (Peng et al., 2025):句子级域内偏好 + C-DPO 早期干预